Op dit moment komen belangrijke uitdagingen en kansen samen. In de afgelopen tijd zijn het gedrag en de behoeften van mensen radicaal veranderd. Sommige systemen voor kunstmatige intelligentie (AI) kunnen zich hier maar moeilijk aan aanpassen. De beweging Black Lives Matter heeft het publiek bewuster gemaakt van historische en ingeslopen vooroordelen in AI-technologieën voor predictive policing en gezichtsherkenning. Hoewel dit inzicht totaal niet nieuw is voor onderzoekers en ethici, verschijnen er steeds meer nieuwsberichten in de pers. Daardoor is er meer aandacht voor dit onderwerp.
Het is lastiger, maar ook belangrijker dan ooit dat AI klopt. Er verandert pas iets als bedrijven zich inzetten om AI op een verantwoordelijke, ethische manier te ontwikkelen en te implementeren.
Vooroordelen kloppen niet
Voor het succes van bedrijven en het welzijn van de samenleving moet AI accuraat zijn, dus vooroordelen moeten zoveel mogelijk worden geëlimineerd.
Laten we eens kijken naar het voorbeeld van een financiële instelling die probeert om de ‘aflossingscapaciteit’ van een klant te meten voordat een lening wordt goedgekeurd. Stel dat het AI-systeem van deze instelling de aflossingscapaciteit van iemand baseert op gevoelige of beschermde variabelen, zoals etnische afkomst of gender (wat overigens verboden is), of op proxyvariabelen (zoals postcode, die verband kan houden met etnische afkomst). In dat geval bestaat de kans dat een lening wordt toegewezen aan bepaalde mensen die deze niet kunnen afbetalen, en dat een lening wordt geweigerd aan mensen die deze wel kunnen aflossen. Als een systeem meer gewicht toekent aan etnische afkomst dan aan inkomen, kan een zwart gezin met een hoog inkomen worden uitgesloten voor een lening, terwijl een wit gezin met een laag inkomen een lening aangeboden krijgt. Omdat AI beslissingen neemt op basis van de verkeerde factoren, worden vooroordelen in het model almaar in stand gehouden. Daardoor bestaat de kans dat de financiële instelling zowel geld als klanten verliest, terwijl mogelijk een klantsegment wordt gedwongen om aan te kloppen bij geldschieters met zeer ongunstige voorwaarden.
Als de instelling etnische afkomst, gender en proxyvariabelen opneemt in het model, maar ervoor kiest om geen beslissing te nemen op basis van deze variabelen, neemt de nauwkeurigheid sterk toe en groeit het klantenbestand. Als de instelling bijvoorbeeld merkt dat bepaalde gemeenschappen geen lening krijgen, kan eventueel een alternatief product worden aangeboden dat beter aansluit bij hun behoeften, zoals microleningen. Met deze werkwijze ontstaat een efficiënte wisselwerking: de financiële draagkracht van klanten verbetert zodat ze uiteindelijk mogelijk in aanmerking komen voor traditionele kredietproducten van de bank.
Organisaties zijn verantwoordelijk voor eerlijke, nauwkeurige AI-oplossingen. Dit is een doorlopende inspanning die bewustzijn en inzet vergt. We hebben geen kant-en-klare oplossing, maar hier zijn vier strategieën waarmee je aan de slag kunt:
1. Ga na of je systemen en processen onderliggende vooroordelen bevatten
Recente discussies over AI en vooroordelen plaatsen vraagtekens bij het begrip ‘onbevooroordeelde data’. Omdat alle data vooroordelen in zich hebben, dien je een stap terug te doen en de systemen en processen met in stand gehouden vooroordelen te beoordelen.
Onderzoek de beslissingen die je systemen nemen op basis van sensitieve variabelen:
-
Hebben bepaalde factoren een te hoog gewicht, zoals etnische afkomst of gender?
-
Zijn er verschillen per regio of zelfs per besluitvormer?
-
Zijn deze verschillen representatief voor de bredere populatie in die regio’s of lijken bepaalde groepen buitenproportioneel te worden getroffen?
Nadat je vooroordelen hebt gevonden, dien je ze te elimineren uit het proces voordat je de data gebruikt om een AI-systeem te trainen. Hoe? Richt je op drie kerngebieden: voorlichting van medewerkers, productontwikkeling en empowerment van klanten.
Bij Salesforce laten we alle nieuwe medewerkers tijdens onze bootcamp kennismaken met onze principes voor ethisch en menselijk gebruik. Vanaf de eerste dag leren nieuwe medewerkers dat ze niet alleen verantwoordelijk zijn voor veilige werkwijzen, maar ook voor ethische beslissingen. We werken direct samen met productteams om ethische functies te ontwikkelen. Hiermee kunnen onze klanten AI op een verantwoordelijke manier gebruiken en nieuwe functies controleren op ethische risico’s.
2. Plaats vraagtekens bij veronderstellingen over je data
Als je vooroordelen wilt ontdekken en wegnemen voor hoogwaardige, representatieve data, moet je goed begrijpen op wie allemaal je technologie van invloed is. Dus niet alleen inzicht in de functies die de koper mogelijk nodig heeft, maar ook de effecten verderop in het proces.
Verdiep je in je data en stel vragen, zoals:
-
Wat veronderstellen we over de mensen die hiermee te maken krijgen en over hun waarden?
-
Over wie verzamelen we data? Wie is niet vertegenwoordigd, en waarom niet?
-
Bij wie is de kans het grootst dat ze worden benadeeld? Wat zijn de gevolgen van die benadeling en wat doen we ertegen?
-
Verzamelen we voldoende data zodat we nauwkeurige beslissingen kunnen nemen over iedereen op wie de AI van invloed is?
Als je beslissingen wilt nemen op basis van oneerlijke criteria, zoals etnische afkomst, gender, geografie of inkomen, heb je eerlijkheid via bewustzijn nodig. Je moet dus sensitieve variabelen verzamelen om de samenhang tussen data te zien, maar niet om beslissingen te nemen op basis van die sensitieve variabelen of hun proxy’s.
Zoals we hebben besproken in het voorbeeld over de lening, zijn proxyvariabelen van invloed op je model, dus we moeten daar ook iets aan doen. Bij Salesforce kwamen we er bijvoorbeeld al vroeg achter dat de naam ‘Jan’ de belangrijkste voorspeller voor een goede saleslead was bij lead scoring. ‘Voornaam’ is een proxy voor gender en kan een proxy zijn voor etnische afkomst of land van herkomst. Daardoor heeft het team ‘naam’ verwijderd als een van de variabelen in het model.
3. Verplaats je in de mensen op wie de technologie mogelijk van invloed is
Omdat niemand van ons volledig de realiteit van iemand anders kan begrijpen, dienen AI-ontwikkelaars directe feedback aan klanten te vragen. Zo kunnen ze achterhalen hoe hun technologie van invloed is op een bepaalde groep mensen.
Bij Salesforce organiseren onze Research- en Insights-teams bijvoorbeeld User Summits. Medewerkers en consumenten komen dan samen om goed inzicht te krijgen in de context, behoeften en zorgen van beide groepen rond onder meer dataverzameling en personalisatie. Zo kunnen we functies en richtlijnen voor onze producten ontwikkelen die alle betrokkenen kunnen vertrouwen.
4. Val niet terug op het motto ‘move fast and break things’
Eerlijkheid is een complex concept dat nogal wat inspanningen vergt. Vooral wanneer AI gevolgen heeft voor mensenrechten (rechtvaardigheid, privacy, gezondheid, toegang tot voedsel, of huisvesting), ben je nog meer verantwoordelijk voor een nauwkeurige, eerlijke beslissing.
Hoewel de branche in de afgelopen jaren collectief afstand is gaan nemen van de mentaliteit ‘move fast and break things’, bestaat de kans dat we een stap terug doen door COVID-19. Organisaties proberen snel te reageren om zich aan te passen. Maar tijdens een crisis kun je niet snel reageren tegen elke prijs.
De kracht, en het risico, is dat AI razendsnel en op grote schaal voorspellingen over mensen en hun gedrag kan doen. De maatschappij en de technologiebranche hebben kwaadschiks geleerd dat ze worden afgeremd als ze niet naar mogelijke negatieve gevolgen kijken. Hierdoor kan het proces veel schade oplopen. Als je AI meteen opbouwt op een verantwoordelijke manier, kun je je richten op het verbeteren van de wereld. Je hoeft niet achter alles aan te rennen wat je kapot hebt gemaakt.
Besteed nu meer dan ooit tijd aan weldoordachte, productieve frictie om nauwkeurigheid en eerlijkheid te waarborgen. Dit leidt tot een vollediger, inclusiever en veiliger productaanbod. En je voorkomt ethische problemen die je naderhand voor veel geld moet herstellen, waarbij ook nog je merk risico’s loopt.
Volgende stappen: blijf actief betrokken bij correcte toepassing van AI
AI kan vooroordelen die al eeuwen in onze samenlevingen bestaan, voortzetten en uitvergroten, maar kan ook gemeenschappen mogelijkheden bieden en democratie versterken. Als we ervoor willen zorgen dat AI op een positieve manier wordt ingezet in de wereld, dient iedereen zelf zich te verdiepen in hoe AI werkt en wordt gebruikt. Ook moeten we bij werkgevers, bedrijven, onderwijsinstellingen en overheden aandringen op AI die eerlijk en representatief is voor alle mensen en niet voor slechts een kleine groep.
Organisaties die veel belang hechten aan normen en waarden, en een ethische cultuur opbouwen, zijn beter in staat om AI op een veilige, nauwkeurige en ethische manier te ontwikkelen en te gebruiken.
Bekijk de training ‘Responsible Creation of AI’ op Trailhead, ons gratis onlineopleidingsplatform.