Es ist heute nur noch schwer vorstellbar, aber als E-Commerce aufkam – ein mittlerweile breit akzeptiertes Business mit rund 1 Billionen US-Dollar Jahresumsatz – war die Skepsis unter den Verbraucher:innen enorm. Sie misstrauten insbesondere dem Schutz ihrer persönlichen und finanziellen Daten.
Jetzt hält künstliche Intelligenz Einzug in den digitalen Raum, und wieder entscheidet die Vertrauensfrage darüber, in welchem Maße Unternehmen und Kund:innen die neue Technologie annehmen werden. Wer KI-basierte Produkte auf den Markt bringt, muss sich zuvor mit kritischen Aspekten wie kognitiven Verzerrungs- oder Bias-Effekten oder Datenschutz auseinandersetzen – denn genau darauf kommt es bei der Vertrauensbildung in generative KI an.
„In all unseren Abteilungen entstehen tolle Ideen zum Einsatz generativer KI“, erklärt Shohreh Abedi, Executive Vice President, Chief Operation und Chief Technical Officer der American Automobile Association im Interview auf dem Salesforce AI Day. „Diese Kreativität will ich sicherlich nicht ausbremsen, aber noch wichtiger: Ich will keine technische Neuerung mit integriertem Sicherheitsleck.“
KI, Datenschutz und Ethische Aspekte aus Sicht der Mitarbeiter:innen
- Salesforce führte eine Umfrage unter mehr als 4.000 Mitarbeiter:innen aus den Bereichen Vertrieb, Service, Marketing und Handel durch. 73 % sind der Meinung, dass generative KI neue Sicherheitsrisiken mit sich bringt.
- 60 % der Befragten, die KI nutzen wollen, geben an, sie wüssten nicht, wie sie dabei sensible Daten schützen können.
- Diese Risiken betreffen vor allem stark regulierte Branchen wie Finanzdienstleistungen und das Gesundheitswesen.
Wie können Sie KI sicher nutzen?
Arbeiten Sie nur mit Unternehmen zusammen, die Sicherheitsmechanismen in ihre KI-Systeme integrieren. Warum ist das wichtig?
- Große Sprachmodelle (Large Language Models, LLMs) verarbeiten riesige Datenmengen anders als herkömmliche Datenspeicher. Sie verfügen nicht über vergleichbare Sicherheits- und Zugriffskontrollen wie große Datenbanken oder Cell-Lock-Funktionen wie Excel-Tabellen.
- „Sie können nicht einfach sensible, private und vertrauliche Informationen über Ihre Kund:innen in ein großes Sprachmodell packen, auf das dann alle Ihre Angestellten zugreifen“, warnte Salesforce-CEO Marc Benioff auf dem AI Day.
KI und Datenschutz: Sicherheit systematisch einbauen
Finanzdienstleister und das Gesundheitswesen beispielsweise würden stark vom Einsatz KI-basierter Technologien profitieren. Intelligente Banking-Chatbots könnten z. B. mit personalisierter Kommunikation Self-Service-Transaktionen unterstützen. Ein denkbarer Use Case im Gesundheitsbereich wären automatisierte Benachrichtigungen an Diabetespatient:innen, bei ansteigendem Blutzuckerspiegel entsprechende Gegenmaßnahmen zu treffen. Doch gerade diese stark regulierten Branchen sind besonders zurückhaltend bei der Frage, ob sie KI einsetzen können, ohne das Vertrauen und die Sicherheit ihrer Kund:innen zu riskieren. Sie müssen sich auf KI-Systeme verlassen können, mit denen sie ihre Anwendungsfälle absolut sicher implementieren können.
Wie Sie mit Salesforce Einstein die Vorteile von KI nutzen können, ohne die Sicherheit Ihrer Daten preiszugeben, erklärt Patrick Stokes, Executive Vice President Product and Industries Marketing bei Salesforce. Im Kontext künstliche Intelligenz und Datenschutz braucht es eine ganze Reihe von Maßnahmen, die in vertrauenswürdige Systeme integriert werden müssen:
Dynamisches Grounding (= „Erdung“) steuert die Reaktionen großer Sprachmodelle auf Basis korrekter und aktueller Informationen. So basiert der KI-Output auf faktischen Daten und relevantem Kontext. Dies beugt KI-Halluzinationen vor, d. h. künstlich generiertem Content, der überzeugend formuliert, aber faktisch falsch ist.
Datenmaskierung (data masking) ersetzt vertrauliche durch anonymisierte Daten, um private Informationen entsprechend der Datenschutzbestimmungen zu schützen. Datenmaskierung ist besonders wichtig beim Schreiben von KI-Prompts, damit dabei keine persönlich identifizierbaren Informationen wie Namen, Telefonnummern oder Adressen an KI-Anbieter übertragen werden.
Toxizitätserkennung (toxicity detection) identifiziert methodisch problematische Inhalte wie menschenverachtende Aussagen und negative Stereotypen. Dazu scannt und bewertet eine Machine-Learning-Instanz die vom großen Sprachmodell generierten Antworten und gewährleistet so u. a. ihre Anwendbarkeit im geschäftlichen Kontext.
Keine Datenaufbewahrung (zero retention) heißt: Außerhalb von Salesforce werden keine Kundendaten gespeichert. Input oder Output der generativen KI werden zu keinem Zeitpunkt im großen Sprachmodell gespeichert oder von diesem memoriert. Sie werden schlichtweg gelöscht.
Audits bewerten KI-Systeme kontinuierlich auf vorgesehene Funktionstüchtigkeit, Unvoreingenommenheit (non bias), hohe Datenqualität und Einhaltung von gesetzlichen und organisatorischen Vorschriften. Auditing unterstützt Unternehmen auch bei der Einhaltung von Compliance-Anforderungen durch Protokollierung der Abfragen („Prompts“), der verwendeten Daten, Outputs und Änderungen durch Endanwender:innen in einem sicheren Audit Trail.
Sicherer Datenabruf: Einstein – die weltweit erste generative KI für Customer Relationship Management (CRM) – nutzt Daten aus Salesforce, einschließlich der Data Cloud, im Rahmen des dynamischen Groundings. Diese Daten können Sie für kontextuelle Prompts nutzen. Für jede Interaktion werden Governance-Richtlinien und Berechtigungen angewandt, die gewährleisten, dass nur Personen mit entsprechender Berechtigung Zugriff auf die Daten haben.
Julie Sweet, CEO von Accenture, bestätigt, dass direkt in die KI-Technologie eingebaute Datenschutz- und Sicherheitsmechanismen die mit dem Einsatz von künstlicher Intelligenz verbundenen Risiken eindämmen.
Vertrauen: Salesforce #1 Wert.
Wir setzen bei unserer Produktentwicklung auf neueste Technologien und auf unseren wichtigsten Leitwert: Vertrauen. Deswegen denken wir bei KI zuerst an den Schutz Ihrer Daten.
Vertrauen in KI und Datenschutz beginnt mit guter Governance
Technologien alleine gewährleisten noch keinen transparenten, verantwortungsvollen und sicheren Einsatz von KI. Es braucht auch eine vernünftige Steuerung seitens der Führungsebene und als wichtigste Instanz: die Beaufsichtigung der KI-Systeme durch Menschen.
75 % der Teilnehmer:innen einer KPMG-Studie sind eher bereit, KI-Systemen zu vertrauen, wenn Kontrollmechanismen für eine ethische und verantwortungsvolle Nutzung vorhanden sind.
Zu diesen Mechanismen gehören „die Überwachung der Korrektheit und Zuverlässigkeit des Systems, die Anwendung eines KI-Verhaltenskodex, die Aufsicht durch ein unabhängiges KI-Ethikgremium, die Einhaltung von Standards für nachvollziehbare und transparente KI sowie eine Zertifizierung im Bereich KI-Ethik für verantwortungsvolle Steuerung.“
Bei Accenture beaufsichtigt der Prüfungsausschuss des Vorstands ein KI-Compliance-Programm für die 55.000 Mitarbeiter des Unternehmens.
„Wenn Ihnen niemand in Ihrem Unternehmen sagen kann, wo KI eingesetzt wird, welche Risiken bestehen, wie sie eingedämmt werden und wer dafür zuständig ist, dann setzen Sie KI nicht verantwortungsvoll ein“, so Sweet.
Das Fundament von KI als Zukunftstechnologie ist Vertrauen
E-Commerce hat unser Konsumverhalten und Geschäftsmodelle branchenübergreifend nachhaltig verändert. KI wird einen noch viel größeren Einfluss auf unser Leben und Arbeiten haben. Nach McKinseys aktuellen Prognosen könnte die Produktivitätssteigerung durch KI die globale Wirtschaftsleistung jährlich um Billionenbeträge erhöhen. Doch bis das passiert, muss die neue Technologie breit akzeptiert werden – und dazu braucht sie zuerst unser Vertrauen.
„KI muss vertrauenswürdig sein“, bilanziert die KPMG in ihrer Studie. „Wenn die Menschen KI-Systeme als vertrauenswürdig wahrnehmen und bereit sind, ihnen zu vertrauen, dann werden sie sie eher akzeptieren.“
Entdecken Sie unser neues KI-Glossar
32 Definitionen aus der KI-Welt, die Sie jetzt unbedingt kennen sollten und welche Vorteile für Ihre Kund:innen und Mitarbeiter:innen daraus entstehen.