Grafik som visar hur Einstein Trust Layer skapar innehåll för CRM-appar.

Einstein Trust Layer

Einstein Trust Layer är en robust uppsättning funktioner och skydd som skyddar dina datas sekretess och säkerhet, förbättrar AI-resultatens säkerhet och exakthet och främjar ansvarsfull användning av AI i hela Salesforce-ekosystemet. Med funktioner som dynamisk grundning, ingen datakvarhållning och toxicitetsidentifiering har Einstein Trust Layer utformats för att hjälpa dig frigöra kraften i generativ AI utan att kompromissa med säkerheten eller säkerhetsstandarderna.

En mall med en användarprompt som genereras till ett svar av Einstein AI.

Betrodd AI börjar med säkert grundade promptar.

En prompt är en uppsättning instruktioner som styr en stor språkmodell (LLM) så att den returnerar ett resultat som är användbart. Ju mer sammanhang du ger prompten, desto bättre blir resultatet. Funktioner i Einstein Trust Layer som säker datahämtning och dynamisk grundning gör det möjligt att ange AI-promptar på ett säkert sätt med sammanhang om din verksamhet, samtidigt som datamaskning och ingen kvarhållning skyddar sekretess och säkerhet för dessa data när prompten skickas till en tredje parts LLM.

Smidiga sekretess- och datakontroller.

Dra nytta av skalan och kostnadseffektiviteten i tredjepartsgrundade LLM, samtidigt som du skyddar sekretess och säkerhet för data under varje steg av genereringsprocessen.

Gör det möjligt för användarna att komma åt data på ett säkert sätt för att grunda promptar för generativ AI i sammanhang om verksamheten, samtidigt som behörighet och dataåtkomstkontroller bibehålls.

Grafik som visar hur Einstein Trust Layer använder CRM-data.

Fyll AI-promptar med verksamhetssammanhang på ett säkert sätt från strukturerade eller ostrukturerade datakällor. Dra nytta av flera grundningstekniker som fungerar med promptmallar som du kan skala i hela företaget.

En mall för Einstein-genererat innehåll.

Maskera känsliga datatyper, som personuppgifter (PII) och information om betalkort (PCI) innan du skickar AI-promptar till tredje parts stora språkmodeller (LLM), och konfigurera maskningsinställningarna efter organisationens behov.

*Tillgängligheten varierar för olika funktioner, språk och geografiska regioner.

Ett chattfönster med ett exempel på en konversation med Einstein AI.
Grafik som visar hur Einstein Trust Layer använder CRM-data.
En mall för Einstein-genererat innehåll.
Ett chattfönster med ett exempel på en konversation med Einstein AI.

Dina data är inte vår produkt.

Salesforce ger kunderna kontrollen över användningen av deras data för AI. Oavsett om du använder våra egna modeller med Salesforce som värd eller externa modeller som ingår i vårt Shared Trust Boundary, till exempel OpenAI, lagras inget sammanhang. Den stora språkmodellen glömmer både prompten och utdata så snart som utdata har bearbetats.

Minska toxicitet och skadliga utdata.

Ge medarbetarna möjlighet att förhindra delning av olämpligt eller skadligt innehåll genom att genomsöka och poängsätta varje prompt och utdata beträffande toxicitet. Se till att inga utdata delas förrän en människa har godkänt eller avvisat det och registrera varje steg som metadata i vårt granskningsspår, vilket förenklar efterlevnad i stor skala.*

*Kommer snart

Distribuera AI med etisk design

Salesforce arbetar för att leverera programvara och lösningar som är avsiktligt etiska och humana i sin användning, särskilt när det gäller data och AI. För att ge kunder och användare möjlighet att använda AI på ett ansvarsfullt sätt har vi tagit fram en AI-policy för godtagbar användning som bemöter de områden som har störst risk. Generering av individualiserad medicinsk, juridisk eller finansiell rådgivning är förbjuden i ett försök att bibehålla mänskligt beslutsfattande inom dessa områden. På Salesforce bryr vi oss om den inverkan våra produkter har i den verkliga världen och därför har vi implementerat specifika skydd som upprätthåller våra värderingar, samtidigt som vi förser kunderna med de senaste verktygen på marknaden.

Få ut mesta möjliga av säker AI med betrodda partner på AppExchange.

Accenture-logotyp
Logotyp för Deloitte
Logotyp för Slalom

Vanliga frågor om Einstein Trust Layer

Säker AI är AI som skyddar dina kunddata utan att kompromissa med kvaliteten på utdata. Kund- och företagsdata är avgörande för att berika och personanpassa resultatet från AI-modeller, men det är viktigt att kunna lita på hur dessa data används.

Ett av de främsta säkerhetsbekymren med AI är datasekretess och säkerhet, med tanke på att många kunder inte litar på att överlämna sina data till företag. Generativ AI specifikt innebär även nya bekymmer vad gäller exakthet, toxicitet och bias i innehållet som skapas.

Salesforce skyddar kundernas data med hjälp av Einstein Trust Layer, som är inbyggt direkt i plattformen. Einstein Trust Layer omfattar ett antal skydd för datasäkerhet, till exempel datamaskning, TLS-kryptering under överföring och ingen datakvarhållning i stora språkmodeller.

Genom att distribuera betrodd AI får du möjlighet att dra nytta av alla fördelarna med AI utan att kompromissa med datasäkerheten och sekretesskontrollerna. Med Einstein Trust Layer kan du få sinnesro när det gäller var dina data hamnar och vem som har tillgång till dem, så att du kan fokusera på att få de bästa resultaten med AI.

Utforma betrodd generativ AI

Till att börja med behöver du förstå hur AI kan bemöta dina affärsbehov samt identifiera dina användningsfall. Välj sedan en partner som du kan lita på som har en bevisad historia av att leverera betrodda AI-lösningar. Till sist fastställer du regelverks- och efterlevnadskraven för just din bransch för att få veta vilken metod du ska använda för resan med betrodd AI.