Ein Screenshot zeigt die Salesforce Software sowie Einstein

Responsible AI – Leitfaden für den Einsatz von vertrauenswürdiger KI

Die KI der Zukunft ist verantwortungsvoll! Darum ist Responsible AI so wichtig und auf diese ethischen Überlegungen kommt es an.

Wir sagen Ja zu Künstlicher Intelligenz, aber nur, wenn sie verantwortungsvoll eingesetzt wird. Erfahren Sie, was Responsible AI ausmacht und wie sie richtig implementiert wird. Mit unserem Leitfaden stellt Ihr Unternehmen sicher, dass KI-Systeme unter ethischen Überlegungen entwickelt und genutzt werden.

Die gute KI: Was ist Responsible AI?

Responsible AI (verantwortungsvolle Künstliche Intelligenz) steht für die Entwicklung und den Einsatz von KI-Systemen, die ethischen Prinzipien und sozialen Werten entsprechen. Es geht darum, sicherzustellen, dass KI-Technologien auf eine Weise gestaltet und verwendet werden, die fair, transparent und sicher ist. Die Hauptaspekte von Responsible AI umfassen:

  • Ethik und Fairness: KI-Systeme werden ohne Vorurteile und Diskriminierung entwickelt. Sie sollen gerecht sein und gleiche Behandlung für alle gewährleisten, unabhängig von Geschlecht, ethnischer Zugehörigkeit, Alter oder anderen Merkmalen.
  • Transparenz: Die Entscheidungen und Handlungen von KI-Systemen sind nachvollziehbar und verständlich. Nutzer:innen wissen, wie und warum bestimmte Entscheidungen getroffen wurden.
  • Datenschutz und Sicherheit: Der Schutz persönlicher Daten und die Sicherstellung der Datensicherheit sind entscheidend. KI-Systeme sind so gestaltet, dass sie den Datenschutzgesetzen und -bestimmungen entsprechen und gegen Missbrauch geschützt sind.
  • Verantwortung und Rechenschaftspflicht: Entwickler:innen und Nutzer:innen von KI-Systemen können für ihre Handlungen und die Auswirkungen dieser Systeme verantwortlich gemacht werden. Es gibt klare Mechanismen zur Überwachung und Regulierung von KI-Systemen.
  • Nachhaltigkeit: Die Entwicklung und der Einsatz von KI sind umweltfreundlich und nachhaltig. Der Energieverbrauch und die Umweltauswirkungen von KI-Technologien soll minimiert werden.
  • Inklusion und gesellschaftlicher Nutzen: KI-Systeme sind so gestaltet, dass sie den Nutzen für die Gesellschaft maximieren und alle sozialen Gruppen einbeziehen. Der Zugang zu KI-Technologien soll fair und gerecht sein.

Responsible AI zielt darauf ab, das Vertrauen der Öffentlichkeit in KI-Technologien zu stärken und sicherzustellen, dass diese Technologien zum Wohl der Gesellschaft beitragen. Es erfordert eine Zusammenarbeit zwischen verschiedenen Akteuren, darunter Regierungen, Unternehmen, Forscher:innen und die Zivilgesellschaft, um gemeinsame Standards und Richtlinien zu entwickeln und umzusetzen.

Welche ethischen Überlegungen müssen bei der Entwicklung von KI beachtet werden?

Da Künstliche Intelligenz von Menschen mit unterschiedlichen Einstellungen und Ansichten entwickelt wird, kann es schnell passieren, dass die KI nicht neutral programmiert wird. Umso wichtiger ist es, dass Unternehmen verschiedene ethische Überlegungen berücksichtigen, um sicherzustellen, dass die Technologie verantwortungsvoll um- und eingesetzt wird.

Bedeutung von ethischen KI-Praktiken

Ethische KI-Praktiken - formale Strategien für den Umgang mit ethischen Fragen bei der KI-Entwicklung und -Implementierung - sind ein wachsender Schwerpunkt für verantwortungsbewusste Führungskräfte in der Tech-Branche.

Das Team für ethische KI von Salesforce unter der Leitung von Kathy Baxter und Yoav Schlesinger hat einen Report darüber veröffentlicht, wie diese Praktiken entstehen, reifen und erweitert werden.

Die wichtigsten Erkenntnisse: Erstaunliche 90 Prozent der Verbraucher:innen sind der Meinung, dass Unternehmen eine Verantwortung dafür tragen, den Zustand der Welt zu verbessern.

Eine Infografik über die Verantwortung von Unternehmen

Der Haken an der Sache? Dieselben Verbraucher:innen haben in der Regel kein Vertrauen in die KI-Technologie.

Hier setzen ethische KI-Praktiken an. Sie legen den Grundstein für nachhaltige Beziehungen zwischen den Menschen, die KI herstellen, und den Nutzer:innen.

Hier sind einige zentrale ethische Überlegungen:

  • Fairness und Nichtdiskriminierung: KI-Systeme sollen frei von Vorurteilen und Diskriminierung sein. Dies bedeutet, dass die Trainingsdaten repräsentativ und ausgewogen sein müssen, um Verzerrungen zu vermeiden, die bestimmte Gruppen benachteiligen könnten.
  • Transparenz und Erklärbarkeit: Die Entscheidungen und Funktionsweisen von KI-Systemen sollen für Nutzer:innen nachvollziehbar und verständlich sein. Erklärbare KI hilft dabei, das Vertrauen der Nutzer:innen zu gewinnen und ermöglicht es ihnen, die Gründe hinter bestimmten Entscheidungen zu verstehen.
  • Inklusion und Zugänglichkeit: KI-Technologien sollen so gestaltet sein, dass sie allen Menschen zugänglich sind, einschließlich Personen mit Beeinträchtigungen und anderen benachteiligten Gruppen. Dies fördert die Chancengleichheit und den gesellschaftlichen Zusammenhalt.
  • Sicherheit und Robustheit: KI-Systeme müssen sicher und zuverlässig sein. Sie sollen so konzipiert sein, dass sie gegen Manipulationen, Angriffe und Fehlfunktionen geschützt sind und in verschiedenen Szenarien stabil arbeiten.
  • Human-in-the-Loop: Menschen sollen in den Entscheidungsprozess von KI-Systemen einbezogen werden, insbesondere in kritischen Bereichen wie Gesundheitswesen, Justiz und öffentlicher Sicherheit. Dies gewährleistet, dass die menschliche Urteilskraft bei wichtigen Entscheidungen berücksichtigt wird.
  • Sozialer und wirtschaftlicher Einfluss: Die Auswirkungen von KI auf die Gesellschaft und die Wirtschaft müssen sorgfältig bewertet werden. Dies umfasst die Betrachtung von Arbeitsplatzverlusten, Veränderungen in der Arbeitswelt und die potenziellen sozialen Ungleichheiten, die durch KI entstehen könnten.

Langfristige Auswirkungen und Verantwortung: Entwickler:innen und Unternehmen müssen die langfristigen Auswirkungen von KI-Technologien auf die Gesellschaft und die zukünftigen Generationen berücksichtigen.

Welche Herausforderungen gibt es bei der Implementierung von Responsible AI?

Die Implementierung von Responsible AI stellt zahlreiche Herausforderungen dar, die sowohl technischer als auch organisatorischer und gesellschaftlicher Natur sind. Die Bewältigung dieser Herausforderungen erfordert einen ganzheitlichen Ansatz, der technische, ethische, rechtliche und gesellschaftliche Aspekte integriert.

1. Technische Komplexität

Das Erkennen und Eliminieren von Vorurteilen in den Trainingsdaten und Algorithmen ist technisch anspruchsvoll. Verzerrte Daten können unabsichtlich zu diskriminierenden Ergebnissen führen. Viele fortschrittliche KI-Modelle, insbesondere tiefe neuronale Netze, sind schwer verständlich und erklärbar. Die Entwicklung von Methoden, um diese Modelle transparent und nachvollziehbar zu machen, ist eine technische Herausforderung.

2. Datenherausforderungen

Hochwertige, repräsentative Daten sind entscheidend für die Entwicklung fairer KI-Systeme. Daten, die Verzerrungen oder Ungenauigkeiten enthalten, können zu unfairen Ergebnissen führen. Der Schutz der Privatsphäre und die Einhaltung von Datenschutzbestimmungen erfordert sorgfältiges Datenmanagement und sichere Datenspeicherung.

3. Regulatorische und rechtliche Unsicherheiten

Die rechtlichen Rahmenbedingungen für KI entwickeln sich noch. Es gibt oft Unsicherheiten darüber, welche Vorschriften gelten und wie diese umgesetzt werden sollen. Auch muss klar definiert werden, wer für die Handlungen und Entscheidungen von KI-Systemen verantwortlich ist.

4. Organisatorische Herausforderungen

Die Implementierung von Responsible AI erfordert einen kulturellen Wandel in Organisationen. Mitarbeiter:innen müssen für ethische Fragen sensibilisiert und geschult werden. Neben einem kulturellen Wandel erfordert die Umsetzung von Responsible AI Investitionen in Zeit, Geld und Fachwissen. Nicht alle Organisationen haben Zugang zu den notwendigen Ressourcen.

5. Ethik und Werte

Unterschiedliche Stakeholder haben unterschiedliche Werte und Prioritäten. Einen Konsens über ethische Standards und Prinzipien zu finden, kann schwierig sein. Ethik ist dabei nicht statisch. Gesellschaftliche Normen und Werte ändern sich im Laufe der Zeit. KI-Systeme müssen flexibel genug sein, um sich an diese Veränderungen anzupassen.

6. Sicherheitsrisiken

KI-Systeme können Ziel von Cyberangriffen und Manipulationen werden. Die Sicherstellung der Robustheit und Sicherheit dieser Systeme ist eine permanente Herausforderung. Auch können KI-Technologien missbraucht werden, um Schaden anzurichten. Die Implementierung von Schutzmaßnahmen gegen Missbrauch ist essenziell.

7. Interdisziplinäre Zusammenarbeit

Die Umsetzung von Responsible AI erfordert die Zusammenarbeit von Fachleuten aus verschiedenen Disziplinen, einschließlich Informatik, Ethik, Recht und Sozialwissenschaften. Eine effektive Kommunikation und Zusammenarbeit zwischen diesen verschiedenen Disziplinen kann schwierig sein, aber sie ist entscheidend für den Erfolg von Responsible AI.

Responsible AI entwickeln: in 4 Stufen

Ethische KI-Praxis schafft die Grundlage für nachhaltige Beziehungen zwischen den Menschen, die KI herstellen, und den Nutzer:innen, die von ihrer Arbeit betroffen sind.

Ein neues Modell, das vom Salesforce Ethical AI-Team entwickelt wurde, untersucht mehrere kritische Phasen, die erforderlich sind, um effektive Strategien zum Schutz und zur Förderung der Verbraucher:innen zu entwickeln:

  • Stufe 1: Ad hoc. Einzelne Befürworter:innen entwickeln kleine Strategien und bemühen sich um Akzeptanz.
  • Stufe 2: Organisiert und wiederholbar. Formelle Teams und Ressourcen bündeln die Bemühungen zu einer ausführbaren strategischen Vision.
  • Stufe 3: Verwaltet und nachhaltig. Diese neuen Teams entwickeln die Maßnahmen und die Mentalität, um die Praxis langfristig lebensfähig zu machen.
  • Stufe 4: Optimiert und innovativ. Die Praxis schreitet mit einer ganzheitlichen Vision und engagierter Unterstützung voran, um Ethik in der Organisation auf allen Ebenen zu verankern.

Fazit: Die Arbeit hinter diesem neuen Modell zeigt, dass ethische KI-Praktiken Zeit und Engagement erfordern. Wenn man weiß, was in welcher Reihenfolge und warum zu tun ist, können die Befürworter:innen Ethik als Grundpfeiler einer verantwortungsvollen, wertschöpfenden Innovation in den Mittelpunkt stellen.

5 Leitlinien für die Entwicklung von vertrauenswürdiger generativer KI

Wie können Ethik und Verantwortung Teil der KI-Entwicklung werden? Dazu wagen wir einen Blick hinter die Kulissen. Denn wie bei allen unseren Innovationen integrieren wir bei Salesforce ethische Richtlinien in unsere Produkte. Mit dem Ziel, unseren Kund:innen zu helfen, verantwortungsvoll zu arbeiten und potenzielle Probleme zu erkennen, bevor sie entstehen. Die folgenden fünf Richtlinien verwenden wir dabei als Leitfaden für die Entwicklung von verantwortungsvoller und zuverlässiger KI.

1. Genauigkeit

Es sollen überprüfbare Ergebnisse geliefert werden, die ein Gleichgewicht zwischen Genauigkeit, Präzision und Wiedererkennung in den Modellen herstellen, indem Kund:innen die Möglichkeit gegeben wird, Modelle mit ihren eigenen Kundendaten zu trainieren.

Es muss kommuniziert werden, wenn Unsicherheiten bezüglich der Richtigkeit der KI-Antworten bestehen, und den Benutzer:innen ermöglicht werden, diese Antworten zu validieren. Dies kann durch die Angabe von Quellen, die Erklärung, warum die KI die Antworten gegeben hat, die sie gegeben hat (z. B. Aufforderungen zur Gedankenkette), die Hervorhebung von Bereichen, die doppelt geprüft werden müssen (z. B. Statistiken, Empfehlungen, Daten), und die Schaffung von Leitplanken, die verhindern, dass einige Aufgaben vollständig automatisiert werden (z. B. die Einführung von Code in eine Produktionsumgebung ohne menschliche Überprüfung), geschehen.

2. Sicherheit

Beim Einsatz von KI müssen alle Anstrengungen unternommen werden, um Verzerrungen, Toxizität und schädliche Ergebnisse zu vermeiden, indem Bewertungen der Verzerrungen, der Erklärbarkeit und der Robustheit sowie Red Teaming (vom Unternehmen autorisierte Hackerangriffe) durchgeführt werden. Außerdem muss die Privatsphäre aller für das Training verwendeten, personenbezogenen Daten geschützt werden und Sicherheitsvorkehrungen getroffen werden, um zusätzlichen Schaden zu verhindern (z. B. die Veröffentlichung von Code in einer Sandbox-Umgebungerzwingen, anstatt ihn automatisch in die Produktion zu überführen).

3. Ehrlichkeit

Beim Sammeln von Daten zum Trainieren und Bewerten unserer Modelle muss die Herkunft der Daten respektiert und sichergestellt werden, dass wir die Zustimmung zur Nutzung der Daten haben (z. B. Open Source, von Nutzer:innen zur Verfügung gestellt). Es muss transparent gemacht werden, dass eine KI Inhalte erstellt hat, wenn diese eigenständig bereitgestellt werden (z. B. Chatbot-Antwort an Verbraucher:innen, Verwendung von Wasserzeichen).

4. Befähigung

Es gibt einige Fälle, in denen es am besten ist, Prozesse vollständig zu automatisieren. Jedoch gibt es auch andere Fälle, in denen KI eine unterstützende Rolle für den Menschen spielen sollte - oder wo menschliches Urteilsvermögen erforderlich ist. Es muss das richtige Gleichgewicht gefunden werden, um die menschlichen Fähigkeiten zu verbessern und diese Lösungen für alle zugänglich zu machen (z. B. Generierung von ALT-Text zu Bildern).

5. Nachhaltigkeit

In unserem Bestreben, genauere Modelle zu erstellen, sollten nach Möglichkeit Modelle in der richtigen Größe entwickelt werden, um unseren ökologischen Fußabdruck zu verringern. Wenn es um KI-Modelle geht, bedeutet größer nicht immer besser: In einigen Fällen übertreffen kleinere, besser trainierte Modelle größere, spärlich trainierte Modelle.

Beispiel aus der Praxis: Einstein Trust Layer

Mit dem Einstein Trust Layer hat Salesforce ein Framework zur Sicherstellung der Privatsphäre und Sicherheit von Daten in KI-Systemen entwickelt. Hauptmerkmale sind sichere Datenabfrage, dynamische Kontextualisierung, Datenmaskierung und Zero Data Retention. Daten werden nicht gespeichert und alle Ein- und Ausgaben werden überwacht, um schädliche Inhalte zu vermeiden. Salesforce setzt damit auf ethisches Design und klare Richtlinien, um verantwortungsvolle Nutzung von KI zu fördern.

Die Zukunft der Responsible AI: zwischen Innovation und Verantwortung

Noch verantwortungsvoller und gleichzeitig effektiver – so soll die (Responsible) AI der Zukunft aussehen. Zu den größten Themen gehören die fortschreitende Forschung, die verstärkte Regulierung und die zunehmende Einbindung ethischer und sozialer Überlegungen. Sie könnten dazu beitragen, dass KI-Technologien zukünftig noch verantwortungsvoller und nachhaltiger eingesetzt werden. Die Zukunft der vertrauenswürdigen KI könnte folgendermaßen aussehen:

1. Verbesserte Erklärbarkeit und Transparenz

Die Forschung und Entwicklung im Bereich erklärbarer KI werden intensiviert, um komplexe Modelle verständlicher zu machen. Ziel ist es, Algorithmen zu entwickeln, die ihre Entscheidungen und Prozesse transparent und nachvollziehbar erklären können. Es werden neue Werkzeuge und Frameworks entwickelt, um die Transparenz von KI-Systemen zu erhöhen und deren Entscheidungsprozesse für Endnutzer:innen und Entwickler:innen zugänglicher zu machen.

2. Ethical AI by Design

Unternehmen und Entwickler:innen integrieren ethische Überlegungen bereits in den frühen Phasen des Design- und Entwicklungsprozesses. Dies schließt die Berücksichtigung von Fairness, Datenschutz und Sicherheit ein. Damit einher geht die Entwicklung von Tools, die automatische Prüfungen auf ethische Einhaltung durchführen und sicherstellen, dass KI-Modelle ethischen Standards entsprechen.

3. Verstärkte Regulierung und Governance

Regierungen weltweit arbeiten an neuen Gesetzen und Vorschriften, um den Einsatz von KI zu regulieren und sicherzustellen, dass diese Technologien verantwortungsvoll eingesetzt werden.

Auch Unternehmen richten verstärkt Ethikkommissionen und Beiräte ein, um die Einhaltung ethischer Standards zu überwachen und Richtlinien zu entwickeln.

4. Fokus auf Datenschutz und Sicherheit

Unter dem Banner Privacy-Enhancing Technologies (PETs) werden neue Technologien entwickelt. Sie sollen den Datenschutz verbessern und sicherstellen, dass personenbezogene Daten geschützt bleiben, auch wenn sie von KI-Systemen verarbeitet werden. Ebenfalls gibt es Fortschritte in der Entwicklung von robusten Sicherheitsmechanismen, die KI-Systeme vor Cyberangriffen und Manipulationen schützen.

5. Bessere Datenpraktiken

Es werden strengere Daten-Governance-Frameworks implementiert, die sicherstellen, dass Daten verantwortungsvoll gesammelt, gespeichert und genutzt werden. Auch werden vielfältige und repräsentative Datensätze verwendet, um Verzerrungen in KI-Modellen zu minimieren.

6. Inklusion und Diversität

Die Diversität in Entwicklungsteams wird gefördert, um sicherzustellen, dass unterschiedliche Perspektiven und Erfahrungen in die KI-Entwicklung einfließen. Ebenfalls werden Endnutzer:innen und betroffene Gemeinschaften in den Entwicklungsprozess eingebunden, um sicherzustellen, dass die entwickelten KI-Systeme ihren Bedürfnissen und Erwartungen entsprechen.

7. Grüne KI

Die Forschung und Entwicklung im Bereich "grüne KI", die darauf abzielt, den Energieverbrauch und die ökologischen Auswirkungen von KI-Systemen zu minimieren, wird vorangetrieben. Dazu werden Nachhaltigkeitsziele in die KI-Entwicklung integriert, um langfristige positive Auswirkungen auf die Umwelt und die Gesellschaft zu fördern.

8. Interdisziplinäre Zusammenarbeit

Die Zusammenarbeit zwischen Informatiker:innen, Ethiker:innen, Jurist:innen und Sozialwissenschaftler:innen wird gefördert, um ganzheitliche Lösungen für die Herausforderungen der Responsible AI zu entwickeln. Es werden Bildungsprogramme und Schulungen entwickelt, die interdisziplinäre Kenntnisse und Fähigkeiten im Bereich Responsible AI vermitteln.

KI mit Gewissen: verantwortungsvoll in die digitale Zukunft

Responsible AI stellt nicht nur eine technische, sondern auch eine ethische und gesellschaftliche Herausforderung dar. Die Entwicklung und Implementierung verantwortungsvoller KI erfordern einen ganzheitlichen Ansatz, der Fairness, Transparenz, Datenschutz und Sicherheit in den Vordergrund stellt. Doch der Aufwand lohnt sich. Denn durch interdisziplinäre Zusammenarbeit und strenge regulatorische Rahmenbedingungen kann KI zum Wohl aller genutzt werden. Dabei liegt es an allen Entwickler:innen und Nutzer:innen, sicherzustellen, dass diese Technologie ethisch und nachhaltig eingesetzt wird, um eine gerechtere und sicherere Zukunft zu gestalten.

Eine Frau sitzt lächelnd am Computer und chattet mit einem Supportmitarbeiter.

KI und Co. – 32 Begriffe, die Sie jetzt kennen sollten

Künstliche Intelligenz ist längst keine Science-Fiction mehr, sondern Realität. In unserem E-Book erläutern wir 32 Schlüsselbegriffe rund um KI und zeigen, welche Vorteile sich daraus für Ihre Kund:innen und Mitarbeiter:innen ergeben.

Erwerben Sie neue Skills mit der kostenlosen Lernplattform Trailhead