Je kan het je misschien bijna niet meer voorstellen, maar lang geleden was er veel wantrouwen richting e-commerce. Inmiddels is e-commerce goed voor zo’n 1 biljoen pond per jaar. Vroeger waren er echter grote zorgen over de veiligheid van persoonlijke en financiële gegevens: er was een gebrek aan vertrouwen.
Ook vandaag de dag speelt vertrouwen een grote rol. Kunstmatige intelligentie, en specifiek generatieve AI (GAI), groeit harder dan ooit. Klanten en bedrijven maken maar al te graag gebruik van alle voordelen die GAI te bieden heeft. Tegelijkertijd zijn er bedrijven die AI gebruiken voor iedere vorm van productontwikkeling, zonder daarbij kritisch te kijken naar fouten, zonder transparant te zijn en zonder te kunnen garanderen dat klantdata 100% beschermd is.
“Al onze afdelingen hebben geweldige ideeën over de toepassing van generatieve AI,” zegt Shohreh Abedi, EVP, COO en CTO van AAA. “Ik wil de creativiteit niet remmen, maar ik wil ook geen stappen zetten als dat betekent dat mijn gegevens niet veilig zijn.”
Wat zeggen medewerkers?
- Onderzoek onder meer dan 4000 werknemers binnen sales, klantenservice, marketing en verkoop laat zien dat 73% denkt dat generatieve AI voor nieuwe veiligheidsrisico’s zorgt.
- 60% van de medewerkers die GAI zou willen gebruiken, weet niet hoe gevoelige data beschermd kan worden.
- Deze risico’s zijn vooral groot in de financiële dienstverlening en de gezondheidszorg.
Wat kan je nu doen?
Het is essentieel om samen te werken met bedrijven die zich kunnen buigen over gegevensbescherming. Zo weet je zeker dat je voldoet aan de betreffende regelgeving. Maar waarom is dit zo belangrijk?
- Grote taalmodellen (LLM’s) bevatten zeer grote hoeveelheden data, maar werken anders dan normale databases of Excel-spreadsheets. Bij grote taalmodellen is er geen sprake van beveiligingsvoorzieningen, toegangscontroles of privacyfuncties met celvergrendeling.
“Je gaat niet de meest gevoelige data van je klanten in een groot taalmodel stoppen om er vervolgens voor te zorgen dat al je klanten toegang hebben tot deze informatie,” aldus Marc Benioff, CEO bij Salesforce.
Welke trends zijn bepalend voor de toekomst van de digitale wereld?
Blijf op de hoogte van de nieuwste digitale trends en toonaangevende statistieken en inzichten.
Hoe combineer je AI met goede gegevensbescherming?
Patrick Stokes, EVP en Product en Industries Marketing bij Salesforce, legt uit dat bedrijven met AI-cloud kunnen profiteren van de voordelen van AI zonder dat je de gegevens van je bedrijf weggeeft. Maar om je data goed te beschermen en tegelijkertijd gebruik te maken van AI, heb je wel verschillende manieren van bescherming nodig:
Dynamic grounding: dit houdt in dat grote taalmodellen gebruikmaken van de juiste en actuele gegevens, waardoor het model werkt met feiten en de correcte context. Hierdoor kan voorkomen worden dat AI onjuiste antwoorden geeft die niet gebaseerd zijn op feiten of de waarheid.
Data masking: hierbij worden gevoelige gegevens vervangen door anonieme gegevens. Zo wordt privacygevoelige informatie beschermd en kan worden voldaan aan de privacywetgeving. Data masking zorgt ervoor dat persoonlijk identificeerbare informatie, zoals namen, telefoonnummers en adressen, worden verwijderd bij het schrijven van AI-prompts.
Toxicity detection: of toxiciteitsdetectie, is een methode om haatzaaiend taalgebruik en negatieve uitingen te markeren. Hierbij controleert een machine learning (ML) model de antwoorden. Zo weet je zeker dat de gegenereerde inhoud daadwerkelijk bruikbaar is in een zakelijke context.
Zero retention: Dit betekent dat er geen klantgegevens worden opgeslagen buiten Salesforce. Generatieve AI-prompts worden nooit opgeslagen in het grote taalmodel, maar worden verwijderd.
Auditing: dit is constante evaluatie van systemen. Er wordt gekeken of de systemen gebruikmaken van hoogwaardige data, in overeenstemming met wettelijke en organisatorische kaders. Door gebruik te maken van auditing kunnen bedrijven voldoen aan de wetgeving. Instructies, gebruikte gegevens, resultaten en wijzigingen door eindgebruikers worden namelijk allemaal op een veilige manier vastgelegd.
Veilig ophalen van data: dit is de manier waarop Einstein GPT, de eerste vorm van generatieve AI voor klantbeheer (CRM), gegevens uit Salesforce haalt, inclusief Data Cloud. Zo kan je de juiste gegevens invoeren om de juiste context te creëren. Alleen degenen met toestemming hebben toegang tot de gegevens, zodat wordt voldaan aan de privacywetgeving.
Julie Sweet, CEO bij Accenture, zegt dat de risico’s worden beperkt wanneer de technologie de veiligheid en privacy van data waarborgt.
Vertrouwen in AI-gegevensbescherming valt of staat met goed toezicht
Zelfs de beste technologie in de wereld is niet voldoende om zeker te weten dat je werkt met transparante, verantwoordelijke en veilige AI. Er is altijd kritisch toezicht nodig. De mens moet controleren wat de machine doet.
Uit KPMG-onderzoek blijkt dat maar liefst 75% van de respondenten AI-systemen sneller vertrouwen als er controle zou zijn op ethisch en verantwoord gebruik.
Volgens het rapport draait het hierbij om het monitoren van de systeemnauwkeurigheid en de betrouwbaarheid, het ontwikkelen van een AI-gedragscode, controle door een onafhankelijke AI-beoordelingscommissie op het gebied van ethiek, het begrijpelijk maken van wat AI precies doet en hoe dit werkt en een certificaat om aan te tonen dat het werken met AI binnen de ethische normen blijft.
Bij Accenture houdt de auditcommissie van de Raad van Bestuur toezicht op een AI-complianceprogramma voor de 55.000 werknemers van het bedrijf.
Julie Sweet: “Als een willekeurige medewerker van je bedrijf je niet kan vertellen hoe AI wordt toegepast binnen het bedrijf, wat de risico’s zijn, hoe deze risico’s worden geminimaliseerd en wie er eindverantwoordelijk is, dan werk je niet op een verantwoorde wijze met AI.”
Veilig werken met AI is zeer belangrijk in gereguleerde industrieën
Leiders in gereguleerde industrieën, zoals de financiële dienstverlening en de gezondheidszorg, hebben een extra grote verantwoordelijkheid bij het implementeren van AI. Om zeker te weten dat hun klantgegevens niet worden verspreid en dat er wordt voldaan aan de wet- en regelgeving, moeten deze industrieën zorgen dat hun databescherming optimaal is.
- In de bankwereld kan dit betekenen dat processen geautomatiseerd worden, zodat routinematige taken efficiënter kunnen worden uitgevoerd. Denk hierbij aan intelligente chatbots die de klantinteractie persoonlijker maken en tegelijkertijd de medewerkers van de klantenservice ontzien.
- In de gezondheidszorg kan AI patiëntgroepen efficiënter splitsen, waardoor de communicatie gepersonaliseerd wordt en er tijdig berichten kunnen worden verstuurd naar patiënten. Denk bijvoorbeeld aan een bericht naar een diabetespatiënt die de bloedsuikerspiegel moet verlagen omdat de glucosewaarden stijgen.
Benioff zei recent dat generatieve AI “wel eens de belangrijkste technologie van deze tijd zou kunnen zijn.” E-commerce, iets wat klantgedrag, industrieën en zakelijke modellen enorm heeft veranderd, stelt bijna niks voor in vergelijking met wat GAI kan doen. Volgens recent onderzoek van McKinsey zou de impact van AI op de productiviteit de wereldwijde economie jaarlijks triljoenen kunnen opleveren. Maar als we willen dat dat gebeurt, moeten we eerst meer vertrouwen krijgen.
In het KPMG onderzoek stond dat vertrouwen heel belangrijk is bij AI. “Pas wanneer de mens AI-systemen gaat vertrouwen, gaan we ze ook accepteren en gebruiken, en dan zal de impact alleen maar groeien.“