Responsible AI – Leitfaden für den Einsatz von vertrauenswürdiger KI
Die KI der Zukunft ist verantwortungsvoll! Darum ist Responsible AI so wichtig und auf diese ethischen Überlegungen kommt es an.
Die KI der Zukunft ist verantwortungsvoll! Darum ist Responsible AI so wichtig und auf diese ethischen Überlegungen kommt es an.
Wir sagen Ja zu Künstlicher Intelligenz, aber nur, wenn sie verantwortungsvoll eingesetzt wird. Erfahren Sie, was Responsible AI ausmacht und wie sie richtig implementiert wird. Mit unserem Leitfaden stellt Ihr Unternehmen sicher, dass KI-Systeme unter ethischen Überlegungen entwickelt und genutzt werden.
Responsible AI (verantwortungsvolle Künstliche Intelligenz) steht für die Entwicklung und den Einsatz von KI-Systemen, die ethischen Prinzipien und sozialen Werten entsprechen. Es geht darum, sicherzustellen, dass KI-Technologien auf eine Weise gestaltet und verwendet werden, die fair, transparent und sicher ist. Die Hauptaspekte von Responsible AI umfassen:
Responsible AI zielt darauf ab, das Vertrauen der Öffentlichkeit in KI-Technologien zu stärken und sicherzustellen, dass diese Technologien zum Wohl der Gesellschaft beitragen. Es erfordert eine Zusammenarbeit zwischen verschiedenen Akteuren, darunter Regierungen, Unternehmen, Forscher:innen und die Zivilgesellschaft, um gemeinsame Standards und Richtlinien zu entwickeln und umzusetzen.
Da Künstliche Intelligenz von Menschen mit unterschiedlichen Einstellungen und Ansichten entwickelt wird, kann es schnell passieren, dass die KI nicht neutral programmiert wird. Umso wichtiger ist es, dass Unternehmen verschiedene ethische Überlegungen berücksichtigen, um sicherzustellen, dass die Technologie verantwortungsvoll um- und eingesetzt wird.
Ethische KI-Praktiken - formale Strategien für den Umgang mit ethischen Fragen bei der KI-Entwicklung und -Implementierung - sind ein wachsender Schwerpunkt für verantwortungsbewusste Führungskräfte in der Tech-Branche.
Das Team für ethische KI von Salesforce unter der Leitung von Kathy Baxter und Yoav Schlesinger hat einen Report darüber veröffentlicht, wie diese Praktiken entstehen, reifen und erweitert werden.
Die wichtigsten Erkenntnisse: Erstaunliche 90 Prozent der Verbraucher:innen sind der Meinung, dass Unternehmen eine Verantwortung dafür tragen, den Zustand der Welt zu verbessern.
Der Haken an der Sache? Dieselben Verbraucher:innen haben in der Regel kein Vertrauen in die KI-Technologie.
Hier setzen ethische KI-Praktiken an. Sie legen den Grundstein für nachhaltige Beziehungen zwischen den Menschen, die KI herstellen, und den Nutzer:innen.
Hier sind einige zentrale ethische Überlegungen:
Langfristige Auswirkungen und Verantwortung: Entwickler:innen und Unternehmen müssen die langfristigen Auswirkungen von KI-Technologien auf die Gesellschaft und die zukünftigen Generationen berücksichtigen.
Die Implementierung von Responsible AI stellt zahlreiche Herausforderungen dar, die sowohl technischer als auch organisatorischer und gesellschaftlicher Natur sind. Die Bewältigung dieser Herausforderungen erfordert einen ganzheitlichen Ansatz, der technische, ethische, rechtliche und gesellschaftliche Aspekte integriert.
Das Erkennen und Eliminieren von Vorurteilen in den Trainingsdaten und Algorithmen ist technisch anspruchsvoll. Verzerrte Daten können unabsichtlich zu diskriminierenden Ergebnissen führen. Viele fortschrittliche KI-Modelle, insbesondere tiefe neuronale Netze, sind schwer verständlich und erklärbar. Die Entwicklung von Methoden, um diese Modelle transparent und nachvollziehbar zu machen, ist eine technische Herausforderung.
Hochwertige, repräsentative Daten sind entscheidend für die Entwicklung fairer KI-Systeme. Daten, die Verzerrungen oder Ungenauigkeiten enthalten, können zu unfairen Ergebnissen führen. Der Schutz der Privatsphäre und die Einhaltung von Datenschutzbestimmungen erfordert sorgfältiges Datenmanagement und sichere Datenspeicherung.
Die rechtlichen Rahmenbedingungen für KI entwickeln sich noch. Es gibt oft Unsicherheiten darüber, welche Vorschriften gelten und wie diese umgesetzt werden sollen. Auch muss klar definiert werden, wer für die Handlungen und Entscheidungen von KI-Systemen verantwortlich ist.
Die Implementierung von Responsible AI erfordert einen kulturellen Wandel in Organisationen. Mitarbeiter:innen müssen für ethische Fragen sensibilisiert und geschult werden. Neben einem kulturellen Wandel erfordert die Umsetzung von Responsible AI Investitionen in Zeit, Geld und Fachwissen. Nicht alle Organisationen haben Zugang zu den notwendigen Ressourcen.
Unterschiedliche Stakeholder haben unterschiedliche Werte und Prioritäten. Einen Konsens über ethische Standards und Prinzipien zu finden, kann schwierig sein. Ethik ist dabei nicht statisch. Gesellschaftliche Normen und Werte ändern sich im Laufe der Zeit. KI-Systeme müssen flexibel genug sein, um sich an diese Veränderungen anzupassen.
KI-Systeme können Ziel von Cyberangriffen und Manipulationen werden. Die Sicherstellung der Robustheit und Sicherheit dieser Systeme ist eine permanente Herausforderung. Auch können KI-Technologien missbraucht werden, um Schaden anzurichten. Die Implementierung von Schutzmaßnahmen gegen Missbrauch ist essenziell.
Die Umsetzung von Responsible AI erfordert die Zusammenarbeit von Fachleuten aus verschiedenen Disziplinen, einschließlich Informatik, Ethik, Recht und Sozialwissenschaften. Eine effektive Kommunikation und Zusammenarbeit zwischen diesen verschiedenen Disziplinen kann schwierig sein, aber sie ist entscheidend für den Erfolg von Responsible AI.
Ethische KI-Praxis schafft die Grundlage für nachhaltige Beziehungen zwischen den Menschen, die KI herstellen, und den Nutzer:innen, die von ihrer Arbeit betroffen sind.
Ein neues Modell, das vom Salesforce Ethical AI-Team entwickelt wurde, untersucht mehrere kritische Phasen, die erforderlich sind, um effektive Strategien zum Schutz und zur Förderung der Verbraucher:innen zu entwickeln:
Fazit: Die Arbeit hinter diesem neuen Modell zeigt, dass ethische KI-Praktiken Zeit und Engagement erfordern. Wenn man weiß, was in welcher Reihenfolge und warum zu tun ist, können die Befürworter:innen Ethik als Grundpfeiler einer verantwortungsvollen, wertschöpfenden Innovation in den Mittelpunkt stellen.
Wie können Ethik und Verantwortung Teil der KI-Entwicklung werden? Dazu wagen wir einen Blick hinter die Kulissen. Denn wie bei allen unseren Innovationen integrieren wir bei Salesforce ethische Richtlinien in unsere Produkte. Mit dem Ziel, unseren Kund:innen zu helfen, verantwortungsvoll zu arbeiten und potenzielle Probleme zu erkennen, bevor sie entstehen. Die folgenden fünf Richtlinien verwenden wir dabei als Leitfaden für die Entwicklung von verantwortungsvoller und zuverlässiger KI.
Es sollen überprüfbare Ergebnisse geliefert werden, die ein Gleichgewicht zwischen Genauigkeit, Präzision und Wiedererkennung in den Modellen herstellen, indem Kund:innen die Möglichkeit gegeben wird, Modelle mit ihren eigenen Kundendaten zu trainieren.
Es muss kommuniziert werden, wenn Unsicherheiten bezüglich der Richtigkeit der KI-Antworten bestehen, und den Benutzer:innen ermöglicht werden, diese Antworten zu validieren. Dies kann durch die Angabe von Quellen, die Erklärung, warum die KI die Antworten gegeben hat, die sie gegeben hat (z. B. Aufforderungen zur Gedankenkette), die Hervorhebung von Bereichen, die doppelt geprüft werden müssen (z. B. Statistiken, Empfehlungen, Daten), und die Schaffung von Leitplanken, die verhindern, dass einige Aufgaben vollständig automatisiert werden (z. B. die Einführung von Code in eine Produktionsumgebung ohne menschliche Überprüfung), geschehen.
Beim Einsatz von KI müssen alle Anstrengungen unternommen werden, um Verzerrungen, Toxizität und schädliche Ergebnisse zu vermeiden, indem Bewertungen der Verzerrungen, der Erklärbarkeit und der Robustheit sowie Red Teaming (vom Unternehmen autorisierte Hackerangriffe) durchgeführt werden. Außerdem muss die Privatsphäre aller für das Training verwendeten, personenbezogenen Daten geschützt werden und Sicherheitsvorkehrungen getroffen werden, um zusätzlichen Schaden zu verhindern (z. B. die Veröffentlichung von Code in einer Sandbox-Umgebungerzwingen, anstatt ihn automatisch in die Produktion zu überführen).
Beim Sammeln von Daten zum Trainieren und Bewerten unserer Modelle muss die Herkunft der Daten respektiert und sichergestellt werden, dass wir die Zustimmung zur Nutzung der Daten haben (z. B. Open Source, von Nutzer:innen zur Verfügung gestellt). Es muss transparent gemacht werden, dass eine KI Inhalte erstellt hat, wenn diese eigenständig bereitgestellt werden (z. B. Chatbot-Antwort an Verbraucher:innen, Verwendung von Wasserzeichen).
Es gibt einige Fälle, in denen es am besten ist, Prozesse vollständig zu automatisieren. Jedoch gibt es auch andere Fälle, in denen KI eine unterstützende Rolle für den Menschen spielen sollte - oder wo menschliches Urteilsvermögen erforderlich ist. Es muss das richtige Gleichgewicht gefunden werden, um die menschlichen Fähigkeiten zu verbessern und diese Lösungen für alle zugänglich zu machen (z. B. Generierung von ALT-Text zu Bildern).
In unserem Bestreben, genauere Modelle zu erstellen, sollten nach Möglichkeit Modelle in der richtigen Größe entwickelt werden, um unseren ökologischen Fußabdruck zu verringern. Wenn es um KI-Modelle geht, bedeutet größer nicht immer besser: In einigen Fällen übertreffen kleinere, besser trainierte Modelle größere, spärlich trainierte Modelle.
Mit dem Einstein Trust Layer hat Salesforce ein Framework zur Sicherstellung der Privatsphäre und Sicherheit von Daten in KI-Systemen entwickelt. Hauptmerkmale sind sichere Datenabfrage, dynamische Kontextualisierung, Datenmaskierung und Zero Data Retention. Daten werden nicht gespeichert und alle Ein- und Ausgaben werden überwacht, um schädliche Inhalte zu vermeiden. Salesforce setzt damit auf ethisches Design und klare Richtlinien, um verantwortungsvolle Nutzung von KI zu fördern.
Noch verantwortungsvoller und gleichzeitig effektiver – so soll die (Responsible) AI der Zukunft aussehen. Zu den größten Themen gehören die fortschreitende Forschung, die verstärkte Regulierung und die zunehmende Einbindung ethischer und sozialer Überlegungen. Sie könnten dazu beitragen, dass KI-Technologien zukünftig noch verantwortungsvoller und nachhaltiger eingesetzt werden. Die Zukunft der vertrauenswürdigen KI könnte folgendermaßen aussehen:
Die Forschung und Entwicklung im Bereich erklärbarer KI werden intensiviert, um komplexe Modelle verständlicher zu machen. Ziel ist es, Algorithmen zu entwickeln, die ihre Entscheidungen und Prozesse transparent und nachvollziehbar erklären können. Es werden neue Werkzeuge und Frameworks entwickelt, um die Transparenz von KI-Systemen zu erhöhen und deren Entscheidungsprozesse für Endnutzer:innen und Entwickler:innen zugänglicher zu machen.
Unternehmen und Entwickler:innen integrieren ethische Überlegungen bereits in den frühen Phasen des Design- und Entwicklungsprozesses. Dies schließt die Berücksichtigung von Fairness, Datenschutz und Sicherheit ein. Damit einher geht die Entwicklung von Tools, die automatische Prüfungen auf ethische Einhaltung durchführen und sicherstellen, dass KI-Modelle ethischen Standards entsprechen.
Regierungen weltweit arbeiten an neuen Gesetzen und Vorschriften, um den Einsatz von KI zu regulieren und sicherzustellen, dass diese Technologien verantwortungsvoll eingesetzt werden.
Auch Unternehmen richten verstärkt Ethikkommissionen und Beiräte ein, um die Einhaltung ethischer Standards zu überwachen und Richtlinien zu entwickeln.
Unter dem Banner Privacy-Enhancing Technologies (PETs) werden neue Technologien entwickelt. Sie sollen den Datenschutz verbessern und sicherstellen, dass personenbezogene Daten geschützt bleiben, auch wenn sie von KI-Systemen verarbeitet werden. Ebenfalls gibt es Fortschritte in der Entwicklung von robusten Sicherheitsmechanismen, die KI-Systeme vor Cyberangriffen und Manipulationen schützen.
Es werden strengere Daten-Governance-Frameworks implementiert, die sicherstellen, dass Daten verantwortungsvoll gesammelt, gespeichert und genutzt werden. Auch werden vielfältige und repräsentative Datensätze verwendet, um Verzerrungen in KI-Modellen zu minimieren.
Die Diversität in Entwicklungsteams wird gefördert, um sicherzustellen, dass unterschiedliche Perspektiven und Erfahrungen in die KI-Entwicklung einfließen. Ebenfalls werden Endnutzer:innen und betroffene Gemeinschaften in den Entwicklungsprozess eingebunden, um sicherzustellen, dass die entwickelten KI-Systeme ihren Bedürfnissen und Erwartungen entsprechen.
Die Forschung und Entwicklung im Bereich "grüne KI", die darauf abzielt, den Energieverbrauch und die ökologischen Auswirkungen von KI-Systemen zu minimieren, wird vorangetrieben. Dazu werden Nachhaltigkeitsziele in die KI-Entwicklung integriert, um langfristige positive Auswirkungen auf die Umwelt und die Gesellschaft zu fördern.
Die Zusammenarbeit zwischen Informatiker:innen, Ethiker:innen, Jurist:innen und Sozialwissenschaftler:innen wird gefördert, um ganzheitliche Lösungen für die Herausforderungen der Responsible AI zu entwickeln. Es werden Bildungsprogramme und Schulungen entwickelt, die interdisziplinäre Kenntnisse und Fähigkeiten im Bereich Responsible AI vermitteln.
Responsible AI stellt nicht nur eine technische, sondern auch eine ethische und gesellschaftliche Herausforderung dar. Die Entwicklung und Implementierung verantwortungsvoller KI erfordern einen ganzheitlichen Ansatz, der Fairness, Transparenz, Datenschutz und Sicherheit in den Vordergrund stellt. Doch der Aufwand lohnt sich. Denn durch interdisziplinäre Zusammenarbeit und strenge regulatorische Rahmenbedingungen kann KI zum Wohl aller genutzt werden. Dabei liegt es an allen Entwickler:innen und Nutzer:innen, sicherzustellen, dass diese Technologie ethisch und nachhaltig eingesetzt wird, um eine gerechtere und sicherere Zukunft zu gestalten.
Künstliche Intelligenz ist längst keine Science-Fiction mehr, sondern Realität. In unserem E-Book erläutern wir 32 Schlüsselbegriffe rund um KI und zeigen, welche Vorteile sich daraus für Ihre Kund:innen und Mitarbeiter:innen ergeben.
Mit den richtigen Angaben wird sich die richtige Person schneller bei Ihnen melden können.
Erhalten Sie die neuesten Studien, Branchen-News und Produktneuheiten direkt in Ihr Postfach.