Een afbeelding die laat zien hoe Einstein Trust Layer content maakt voor CRM-apps.

Einstein Trust Layer

De Einstein Trust Layer is een robuuste set functies en begrenzingen die de privacy en beveiliging van je data beschermen, de veiligheid en nauwkeurigheid van uw AI-resultaten verbeteren en het verantwoorde gebruik van AI in het Salesforce-ecosysteem bevorderen. Met functies zoals dynamische context, toxiciteitsdetectie en het feit dat niets wordt bewaard, is de Einstein Trust Layer ontworpen om je te helpen de kracht van generatieve AI te ontketenen zonder je veiligheids- of beveiligingsnormen in gevaar te brengen.

Een template van een gebruikersprompt die wordt gegenereerd in een Einstein AI-respons.

Betrouwbare AI begint met prompts die zijn voorzien van context.

Een prompt is een set instructies die een groot taalmodel (LLM) aanstuurt om een nuttig resultaat te retourneren. Hoe meer context je de prompt geeft, hoe beter het resultaat zal zijn. Functies van de Einstein Trust Layer zoals veilig ophalen van data en dynamische context stellen je in staat om AI-prompts veilig te voorzien van context over je bedrijf, terwijl dataanonimisering en het feit dat niets wordt bewaard de privacy en veiligheid van die data beschermen wanneer de prompt naar een LLM van derden wordt verstuurd.

Gestroomlijnde privacy- en databescherming.

Profiteer van de schaal en kosteneffectiviteit van externe LLM's van stichtingen terwijl je de privacy en veiligheid van je data beschermt bij elke stap van het generatieproces.

Geef gebruikers veilig toegang tot de data om generatieve AI-prompts te baseren op de context van je bedrijf, terwijl je de machtigingen en datatoegangscontroles handhaaft.

Een afbeelding die laat zien hoe Einstein Trust Layer CRM-data gebruikt.

Integreer AI-promps op een veilige manier met bedrijfscontext uit gestructureerde of niet-gestructureerde databronnen, met behulp van meerdere contexttechnieken die werken met promptsjablonen die je in je hele bedrijf kunt schalen.

Een template voor door Einstein gegenereerde content.

Anonimiseer gevoelige datatypen zoals persoonlijk identificeerbare informatie (PII) en informatie uit de betaalkaartsector (PCI) voordat je AI-prompts verzendt naar grote taalmodellen (LLM's) van derden en configureer anonimiseringsinstellingen volgens de behoeften van je organisatie.

*Beschikbaarheid verschilt per functie, taal en geografische regio.

Een chatvenster met een voorbeeld van een gesprek met Einstein AI.
Een afbeelding die laat zien hoe Einstein Trust Layer CRM-data gebruikt.
Een template voor door Einstein gegenereerde content.
Een chatvenster met een voorbeeld van een gesprek met Einstein AI.

Jouw data zijn niet ons product.

Salesforce geeft klanten de controle over de manier waarop ze hun data willen gebruiken voor AI. Er wordt nooit context opgeslagen, of je nu modellen gebruikt die door Salesforce worden gehost of kiest voor externe modellen die deel uitmaken van onze Shared Trust Boundary, zoals OpenAI. Het grote taalmodel vergeet zowel de prompt als de output zodra de output is verwerkt.

Beperk toxiciteit en schadelijke output.

Zorg ervoor dat medewerkers het delen van ongepaste of schadelijke content kunnen voorkomen door elke prompt en output te scannen en te beoordelen op toxiciteit. Garandeer dat output pas wordt gedeeld als deze is geaccepteerd of afgekeurd door een mens en registreer elke stap als metadata in ons audittraject. Dit maakt naleving op grote schaal een stuk eenvoudiger.*

* Binnenkort

Haal het maximale uit AI met betrouwbare partners op AppExchange.

Accenture-logo
Deloitte-logo
Slalom-logo

Veelgestelde vragen over Einstein Trust Layer

Veilige AI beschermt je klantdata zonder dat de kwaliteit van de output eronder lijdt. Klant- en bedrijfsdata zijn essentieel voor het verrijken en personaliseren van de resultaten van AI-modellen, maar het is even belangrijk dat je er op een betrouwbare manier mee omgaat.

Veel mensen vertrouwen hun data liever niet aan bedrijven toe, omdat ze zich zorgen maken over de privacy en beveiliging. Door de komst van generatieve AI zijn er ook zorgen rond de juistheid, toxiciteit en vooringenomenheid van de content die het genereert.

Salesforce houdt de data van zijn klanten veilig met behulp van de Einstein Trust Layer, die direct is geïntegreerd in het platform. De Einstein Trust Layer omvat diverse functies voor databeveiliging, zoals de maskering van data, directe TLS-versleuteling en het voorkomen van dataopslag in grote taalmodellen.

Vertrouwde AI betekent dat je profiteert van de kracht van AI zonder dat dit ten koste gaat van je databeveiliging en privacybescherming. Dankzij de Einstein Trust Layer hoef je je geen zorgen te maken over je data en wie er toegang toe heeft. Zo kun je je volledig concentreren op een optimaal gebruik van AI.

Zo ontwerp je betrouwbare generatieve AI

Allereerst moet je weten hoe AI kan voldoen aan je zakelijke behoeften en moet je zicht krijgen op je use cases. Vervolgens kies je een betrouwbare partner met een bewezen staat van dienst op het gebied van veilige AI-oplossingen. Ten slotte bepaal je de regelgevings- en nalevingsvereisten voor jouw sector, als basis voor een veilig en betrouwbaar AI-traject.