Un'immagine che mostra come Einstein Trust Layer crea contenuti per le app CRM.

Einstein Trust Layer

Einstein Trust Layer è un ampio insieme di funzioni e limiti che proteggono la privacy e la sicurezza dei dati, migliorano la sicurezza e l'accuratezza dei risultati dell'AI e promuovono l'uso responsabile dell'AI in tutto l'ecosistema Salesforce. Con funzioni come il radicamento nel contesto dinamico, la conservazione dei dati azzerata e il rilevamento della tossicità, Einstein Trust Layer è progettato per aiutarti a sfruttare appieno l'intelligenza artificiale generativa senza compromettere i tuoi standard di sicurezza.

Un modello di prompt dell'utente generato in una risposta di Einstein AI.

L'intelligenza artificiale affidabile inizia con prompt sicuri e dotati di grounding.

Un prompt è un insieme di istruzioni che guida un modello LLM (Large Language Model) in modo che restituisca un risultato utile. Più contesto fornisci al prompt, migliore sarà il risultato. Funzioni di Einstein Trust Layer, come il recupero dei dati protetto e il radicamento nel contesto dinamico, consentono di creare in modo sicuro prompt di AI contestualizzati con la tua azienda, mentre il mascheramento dei dati e la conservazione dei dati azzerata proteggono la privacy e la sicurezza di tali dati quando il prompt viene inviato a un LLM di terze parti.

Controlli sulla privacy e sui dati senza soluzione di continuità.

Approfitta della scalabilità e dell'economicità degli LLM di base di terze parti, proteggendo al contempo la privacy e la sicurezza dei dati in ogni fase del processo di generazione.

Consenti agli utenti di accedere in modo sicuro ai dati su cui radicare i prompt di AI generativa nel contesto della tua azienda, mantenendo le autorizzazioni e i controlli di accesso ai dati.

Un'immagine che mostra come Einstein Trust Layer utilizza i dati del CRM.

Integra in modo sicuro i prompt di AI con il contesto aziendale da fonti di dati strutturati o non strutturati, utilizzando più tecniche di radicamento nel contesto che funzionano con modelli di prompt scalabili in tutta l'azienda.

Un modello per i contenuti generati da Einstein.

Maschera determinati tipi di dati sensibili, come le informazioni di identificazione personale (PII) e le informazioni dell'industria delle carte di pagamento (PCI), prima di inviare prompt di AI a modelli linguistici di grandi dimensioni (LLM) di terze parti e configura le impostazioni di mascheramento in base alle esigenze della tua organizzazione.

*La disponibilità varia in base alla funzione, alla lingua e all'area geografica.

Una finestra di chat con un esempio di conversazione con l'intelligenza artificiale Einstein.
Un'immagine che mostra come Einstein Trust Layer utilizza i dati del CRM.
Un modello per i contenuti generati da Einstein.
Una finestra di chat con un esempio di conversazione con l'intelligenza artificiale Einstein.

I tuoi dati non sono un nostro prodotto.

Salesforce offre ai clienti il controllo sull'uso che viene fatto dei loro dati per l'intelligenza artificiale. Sia che si utilizzino i nostri modelli ospitati da Salesforce, o modelli esterni che fanno parte del nostro Shared Trust Boundary, come OpenAI, non viene memorizzato alcun contesto. Il modello linguistico di grandi dimensioni dimentica sia il prompt che l'output non appena quest'ultimo viene elaborato.

Mitiga la tossicità e gli output dannosi.

Consenti ai dipendenti di prevenire la condivisione di contenuti inappropriati o dannosi, analizzando e valutando ogni prompt e output per verificarne la tossicità. Assicurati che nessun output venga condiviso prima che un umano lo accetti o lo respinga e registra ogni passaggio sotto forma di metadati nel nostro audit trail, semplificando la conformità su scala.*

* Disponibile prossimamente

Ottieni il massimo dall'AI sicura con partner fidati su AppExchange

Logo Accenture
Logo Deloitte
Logo Slalom

Domande frequenti sulla Einstein Trust Layer

L'AI sicura è un'intelligenza artificiale che protegge i dati dei clienti senza compromettere la qualità dei suoi risultati. I dati dei clienti e dell'azienda sono fondamentali per arricchire e personalizzare i risultati dei modelli di intelligenza artificiale, ma è importante avere fiducia nell'uso che ne viene fatto.

Uno dei principali problemi di sicurezza dell'intelligenza artificiale è la privacy e la sicurezza dei dati, in quanto molti clienti non si fidano dell'uso che fanno le aziende dei loro dati. L'intelligenza artificiale generativa, in particolare, introduce nuove preoccupazioni riguardo all'accuratezza, tossicità e faziosità dei contenuti generati.

Salesforce garantisce la sicurezza dei dati dei propri clienti utilizzando Einstein Trust Layer, integrato direttamente in Salesforce Platform. Einstein Trust Layer include una serie di limiti per la sicurezza dei dati, come il mascheramento, la crittografia TLS in-flight e l'architettura dei dati Zero Retention con modelli linguistici di grandi dimensioni.

L'implementazione dell'intelligenza artificiale affidabile ti consentirà di usufruire dei vantaggi dell'AI senza scendere a compromessi sulla sicurezza dei dati e il controllo della privacy. Einstein Trust Layer garantisce la massima tranquillità quando si tratta di sapere dove vanno a finire i tuoi dati e chi vi ha accesso, così ti puoi concentrare sul raggiungimento dei risultati migliori possibili con l'ausilio dell'AI.

Come progettare un'intelligenza artificiale generativa affidabile

In primo luogo, è necessario capire in che modo l'AI può rispondere alle tue esigenze aziendali e identificare i casi d'uso. Quindi, bisogna scegliere un partner di cui ci si possa fidare, con una comprovata esperienza nella fornitura di soluzioni di intelligenza artificiale affidabili. Infine, è necessario determinare i requisiti normativi e di conformità per il proprio settore specifico, in modo da poter definire l'approccio che si vuole adottare nei confronti dell'intelligenza artificiale.