Eine Grafik veranschaulicht, wie die Einstein Trust Layer Inhalte für CRM Apps erstellt.

Einstein Trust Layer

Die Einstein Trust Layer ist ein robustes Set von Funktionen und Kontrollmechanismen, die die Vertraulichkeit und Sicherheit Ihrer Daten schützen, die Sicherheit und Genauigkeit Ihrer KI-Ergebnisse verbessern und die verantwortungsvolle Nutzung von KI im gesamten Salesforce-Ökosystem fördern. Mit Funktionen wie dynamischer Erdung, Null-Datenaufbewahrung und Toxizitätserkennung ist die Einstein Trust Layer so konzipiert, dass Sie die Leistungsfähigkeit generativer KI nutzen können, ohne Ihre Sicherheitsstandards zu gefährden.

Eine Vorlage für einen User Prompt, aus dem die Einstein KI eine Antwort generiert

Vertrauenswürdige KI beginnt mit sicheren im Kontext verankerten Prompts.

Ein Prompt ist eine Reihe von Anweisungen, die ein Large Language Model (LLM) so steuern, dass es ein nützliches Ergebnis liefert. Je mehr Kontext Sie der Eingabeaufforderung geben, desto besser wird das Ergebnis sein. Funktionen von Einstein Trust Layer wie sichere Datenabfrage und dynamische Kontextbildung ermöglichen es Ihnen, KI-Eingabeaufforderungen sicher mit Kontext über Ihr Unternehmen zu versehen, während Datenmaskierung und keine Datenspeicherung die Vertraulichkeit und Sicherheit dieser Daten schützen, wenn die Prompts an ein LLM eines Drittanbieters gesendet wird.

Nahtloser Datenschutz und durchgängige Datenkontrolle.

Profitieren Sie von der Größe und Kosteneffizienz der Basis-LLMs von Drittanbietern und schützen Sie gleichzeitig die Vertraulichkeit und Sicherheit Ihrer Daten bei jedem Schritt des Generierungsprozesses.

Ermöglichen Sie Benutzer:innen den sicheren Zugriff auf die Daten, um generative KI-Prompts im Kontext Ihres Unternehmens zu erstellen, während Sie die Berechtigungen und Datenzugriffskontrollen beibehalten.

Eine Grafik zeigt, wie die Einstein Trust Layer CRM Daten nutzt.

Reichern Sie KI-Prompts sicher mit Geschäftskontext aus strukturierten oder unstrukturierten Datenquellen an, indem Sie mehrere Techniken der Kontextbildung verwenden, die mit Prompt-Vorlagen arbeiten, die Sie unternehmensweit skalieren können.

Eine Vorlage für von Einstein generierte Inhalte.

Maskieren Sie vertrauliche Datentypen wie personenbezogene Daten (Personal Identifiable Information, PII) und Informationen der Zahlungskartenindustrie (Payment Card Industry, PCI), bevor Sie KI-Prompts an große Sprachmodelle (LLMs) von Drittanbietern senden, und konfigurieren Sie die Maskierungseinstellungen entsprechend den Anforderungen Ihrer Organisation.

* Die Verfügbarkeit variiert je nach Funktion, Sprache und geografischer Region.

Ein Chatfenster mit einer beispielhaften Konversation mit Einstein AI.
Eine Grafik zeigt, wie die Einstein Trust Layer CRM Daten nutzt.
Eine Vorlage für von Einstein generierte Inhalte.
Ein Chatfenster mit einer beispielhaften Konversation mit Einstein AI.

Ihre Daten sind nicht unser Produkt.

Salesforce gibt Kunden die Kontrolle über die Verwendung ihrer Daten für KI. Unabhängig davon, ob Sie unsere eigenen, von Salesforce gehosteten Modelle oder externe Modelle, die zu unserer Shared Trust Boundary gehören (wie z. B. OpenAI) nutzen, es wird kein Kontext gespeichert.Das Large Language Model vergisst sowohl den Prompt als auch den Output, sobald der Output verarbeitet wurde.

Vermeiden Sie Toxizität und schädlichen Output.

Geben Sie Ihren Mitarbeiter:innen die Möglichkeit, die Weitergabe unangemessener oder schädlicher Inhalte zu verhindern, indem Sie jeden Prompt und jeden Output auf Toxizität prüfen und bewerten.Stellen Sie sicher, dass kein Output ausgegeben wird, bevor er von einem Menschen für unbedenklich erklärt oder verworfen wurde, und erfassen Sie jeden Schritt als Metadaten in unserem Audit Trail, um die maßstabsgerechte Einhaltung geltender Vorschriften zu vereinfachen.*

* In Kürze verfügbar

Mit unseren vertrauenswürdigen AppExchange Partnern erschließen Sie das volle Potenzial sicherer KI

Accenture Logo
Logo von Deloitte
Slalom Logo

Einstein Trust Layer – häufig gestellte Fragen (FAQs)

Sichere KI ist KI, die Ihre Kundendaten schützt, ohne Kompromisse bei der Qualität ihres Outputs einzugehen.Kunden- und Unternehmensdaten sind von entscheidender Bedeutung für das Anreichern und Personalisieren der Ergebnisse von KI-Modellen. Wichtig aber ist, dass man darauf vertrauen kann, wie die Daten verwendet werden.

Angesichts der Tatsache, dass viele Kund:innen Unternehmen mit ihren Daten nicht trauen, zählen Datenschutz und Datensicherheit zu den größten Sicherheitsbedenken im Zusammenhang mit KI. Generative KI wirft außerdem neue Bedenken bezüglich der Genauigkeit, Toxizität und Voreingenommenheit der von ihr erstellten Inhalte auf.

Salesforce schützt die Daten seiner Kund:innen mithilfe der Einstein Trust Layer, die direkt in die Plattform integriert ist. Die Einstein Trust Layer umfasst verschiedene Datenschutzmaßnahmen wie Datenmaskierung, TLS-In-Flight-Verschlüsselung und Zero Data Retention bei Large Language Models.

Durch den Einsatz von vertrauenswürdiger KI können Sie die Vorteile von KI nutzen, ohne Kompromisse bei Datensicherheit und Datenschutz machen zu müssen. Mit der Einstein Trust Layer wissen Sie genau, wo Ihre Daten landen und wer Zugriff auf sie hat. So können Sie sich in aller Ruhe darauf konzentrieren, mit KI die besten Ergebnisse zu erzielen.

So entwickeln Sie vertrauenswürdige, generative KI

Zunächst sollten Sie sich klarmachen, welche geschäftlichen Bedürfnisse KI in Ihrem Unternehmen erfüllen kann und welche Use Cases es gibt. Dann müssen Sie sich für einen Partner entscheiden, dem Sie vertrauen können und der eine nachweisliche Erfolgsbilanz bei der Bereitstellung von vertrauenswürdigen KI-Lösungen vorweisen kann. Zu guter Letzt müssen Sie feststellen, welche rechtlichen und Compliance-Anforderungen speziell für Ihre Branche gelten, die Sie bei Ihrer Reise mit vertrauenswürdiger KI berücksichtigen müssen.