Vertrouwen en transparantie zijn belangrijke aandachtsgebieden als het gaat om AI. AI is niet per se goed of slecht, maar de gegevens die de basis vormen voor AI, kunnen bevooroordeeld zijn en output veroorzaken die toxisch is of discriminatie in stand houdt. Organisaties moeten ook duidelijk zijn tegenover klanten over hoe ze AI gebruiken, hoe hun data wordt gebruikt in onze AI-systemen en welke informatie die ze zien door AI is gegenereerd.
"De toekomst van consumentengoederen is data + AI + CRM + vertrouwen. Je kunt deze dingen niet in een silo zien en je kunt ze niet zien als afzonderlijke investeringen. Ze werken allemaal samen in een doorlopende cyclus om je te helpen de stapsgewijze verandering en geweldige transformatie die voor je ligt mogelijk te maken." [bekijk video
]
— Najah Phillips
, senior product marketing manager, Salesforce Consumer Goods Cloud
"De wereld van bedrijfssoftware wordt volledig opnieuw bedraad. Bedrijven met onbetrouwbare AI zullen het niet goed doen in de markt." [Bekijk video
]— Abhay Parasnis
, oprichter en CEO, Typeface![Opent in een nieuw venster]()
"Er zit een reëel gevaar in het systematiseren van de discriminatie die we in de samenleving hebben [ten aanzien van AI-technologieën]. Ik denk dat we, nu we ons in een wereld vol onzichtbare algoritmen begeven, heel expliciet moeten zijn of een disclaimer moeten hebben over onze foutenpercentages." [bekijk video
]
- Timnit Gebru
, oprichter en executive director van The Distributed AI Research Institute![Opent in een nieuw venster]()
"Hoewel ik de hype, of zelfs hysterie, rond AI niet per se aanmoedig, geloof ik wel in het transformatieve potentieel van AI en het stemt me hoopvol om te zien dat vertrouwen net zo centraal komt te staan in het AI-gesprek als de technologie zelf. Ik ben ook blij dat steeds meer mensen nadenken over de ethische implicaties van de meest spannende innovaties van dit moment, en vandaag stappen ondernemen om morgen veilige, betrouwbare AI te kunnen garanderen." [l
ees meer
]
— Paula Goldman
, Chief Ethical and Humane Use Officer, Salesforce
"Als je gebruikers de technologie niet kunnen vertrouwen, ga je het niet in je product opnemen. En dus steken we veel middelen en moeite in het uitsluiten van potentiële risicofactoren, zoals toxiciteit of bias, zodat we bij onze klanten zorgen kunnen wegnemen over de gegevens die zijn gebruikt als onderdeel van de training." [bekijk video
]
- Aiden Gomez
, mede-oprichter en CEO, Cohere![Opent in een nieuw venster]()
"Ik denk dat vertrouwen voortkomt uit transparantie en controle. Je wilt de datasets zien waarop deze modellen zijn getraind. Je wilt zien hoe dit model is gebouwd, en wat voor soort vooroordelen het bevat. Zo kun je het systeem vertrouwen. Het is erg moeilijk om iets te vertrouwen dat je niet begrijpt." [bekijk video
]
— Clem Delangue
, mede-oprichter en CEO, Hugging Face![Opent in een nieuw venster]()
"Als ik met experts in de praktijk praat, maken ze zich het meest zorgen over desinformatie. … Ik denk dat we beter moeten worden en dat betekent dat bedrijven met geautomatiseerde tools moeten komen. Het betekent dat video's moeten worden gewatermerkt en op andere manieren zichtbaar moeten maken dat ze kunstmatig zijn gemaakt. Het betekent dat je een herkomstketen hebt, zodat je kunt zien dat dit beeldmateriaal is dat rechtmatig is vastgelegd vanuit een apparaat en wat er onderweg allemaal mee is gebeurd." [bekijk video
]
— Ina Fried
, chief technology correspondent, Axios
![Opent in een nieuw venster]()
"Het probleem met bias heeft ook zijn positieve kanten. Stel bijvoorbeeld dat je een algoritme hebt dat probeert te voorspellen wie een promotie moet krijgen. En stel dat er een supermarktketen was die statistisch gezien vrouwen niet zo vaak promotie zou geven als mannen. Het is waarschijnlijk gemakkelijker om een algoritme te wijzigen, dan de manier van denken van 10.000 winkelmanagers." [bekijk video
]
— Richard Socher
, CEO en oprichter, You.com![Opent in een nieuw venster]()
"Vaak zitten de tekortkomingen niet in AI. Het zijn menselijke tekortkomingen, en we zijn niet bereid om het gebrek aan diversiteit in de teams die de systemen bouwen, aan te pakken. En het is enigszins naïef, maar ze zorgen niet altijd voor uitgebalanceerde trainingen om AI optimaal te laten werken. En vervolgens gaat het bij teams keer op keer mis. Dan realiseer je je dat als je niet nadenkt over het menselijke probleem, AI het ook niet voor je zal oplossen." [bekijk video
]
— Vivienne Ming
, uitvoerend voorzitter en medeoprichter, Socos Labs![Opent in een nieuw venster]()
"Met grote macht komt grote verantwoordelijkheid, en die verantwoordelijkheid komt in de vorm van veiligheid en privacy. Deze strijd tussen databescherming en bedrijfsdoelstellingen is niet nieuw; de meesten van ons zijn het gewend om voortdurend de balans te houden tussen snelheid en coole nieuwe technologie enerzijds en veiligheid anderzijds." [bekijk video
]
— Suzie Compton
, senior director, product management, Salesforce Privacy en Data Management