Un'immagine che mostra come Einstein Trust Layer crea contenuti per le app CRM.

Einstein Trust Layer

Einstein Trust Layer è un'architettura AI sicura, integrata in modo nativo in Salesforce Platform. Sviluppato su Hyperforce per la residenza e la conformità dei dati, Einstein Trust Layer è dotato delle migliori barriere di sicurezza della categoria, dal prodotto alle nostre policy. Progettato per standard di sicurezza di livello aziendale, Einstein Trust Layer consente ai team di trarre vantaggio dall'intelligenza artificiale generativa senza compromettere i dati dei clienti.

Un modello di prompt dell'utente generato in una risposta di Einstein AI.

L'intelligenza artificiale affidabile inizia con prompt sicuri e dotati di grounding.

Un prompt è una tela che fornisce un contesto dettagliato e istruzioni ai modelli linguistici di grandi dimensioni. Einstein Trust Layer ti permette di fornire un grounding responsabile basato sui dati dei clienti per tutti i prompt, e di mascherare tali dati quando il prompt viene condiviso con i modelli linguistici di grandi dimensioni*. Con la nostra architettura Zero Retention, nessuno dei tuoi dati viene archiviato al di fuori di Salesforce.

* Disponibile prossimamente.

Controlli sulla privacy e sui dati senza soluzione di continuità

Proteggi automaticamente i dati sensibili da modelli linguistici di grandi dimensioni esterni.

Accedi in modo sicuro ed effettua un grounding dinamico dei prompt dell'intelligenza artificiale generativa con il tipo, la qualità e la portata dei dati pertinenti necessari per apprendere e fornire i risultati più affidabili. Unisci i campi in tutta sicurezza con i record di Salesforce. Utilizza il recupero semantico per inserire le informazioni pertinenti a partire dagli articoli di Knowledge di supporto.

Un'immagine che mostra come Einstein Trust Layer utilizza i dati del CRM.

Aggiungi al prompt le conoscenze specifiche del dominio e le informazioni sul cliente per dare al modello il contesto necessario per rispondere in modo più accurato. Riduci la possibilità di allucinazioni con l'aggiunta del contesto dei dati CRM, degli articoli di Knowledge, delle chat di assistenza e altro ancora. Recupera e utilizza automaticamente questi dati per generare risposte affidabili.

* Disponibile prossimamente

Un modello per i contenuti generati da Einstein.

Maschera i dati utilizzati nei tuoi prompt per aggiungere un ulteriore livello di protezione. Rileva automaticamente le informazioni di identificazione personale e i dati di pagamento ed eliminali dal prompt prima che venga inviato a un modello linguistico di grandi dimensioni. In seguito, smaschera i dati vengono una volta che la risposta è stata creata, in modo che il contesto corretto venga condiviso con gli utenti interni.

Una finestra di chat con un esempio di conversazione con l'intelligenza artificiale Einstein.
Un'immagine che mostra come Einstein Trust Layer utilizza i dati del CRM.
Un modello per i contenuti generati da Einstein.
Una finestra di chat con un esempio di conversazione con l'intelligenza artificiale Einstein.

I tuoi dati non sono un nostro prodotto

Salesforce offre ai clienti il controllo sull'uso che viene fatto dei loro dati per l'intelligenza artificiale. Sia che si utilizzino i nostri modelli ospitati da Salesforce, o modelli esterni che fanno parte del nostro Shared Trust Boundary, come OpenAI, non viene memorizzato alcun contesto. Il modello linguistico di grandi dimensioni dimentica sia il prompt che l'output non appena quest'ultimo viene elaborato.

Mitiga la tossicità e gli output dannosi

Consenti ai dipendenti di prevenire la condivisione di contenuti inappropriati o dannosi, analizzando e valutando ogni prompt e output per verificarne la tossicità. Assicurati che nessun output venga condiviso prima che un umano lo accetti o lo respinga e registra ogni passaggio sotto forma di metadati nel nostro audit trail, semplificando la conformità su scala.*

* Disponibile prossimamente

Ottieni il massimo dall'AI sicura con partner fidati su AppExchange

Logo Accenture
Logo Deloitte
Logo Slalom

Domande frequenti su Einstein Trust Layer

L'AI sicura è un'intelligenza artificiale che protegge i dati dei clienti senza compromettere la qualità dei suoi risultati. I dati dei clienti e dell'azienda sono fondamentali per arricchire e personalizzare i risultati dei modelli di intelligenza artificiale, ma è importante avere fiducia nell'uso che ne viene fatto.

Uno dei principali problemi di sicurezza dell'intelligenza artificiale è la privacy e la sicurezza dei dati, in quanto molti clienti non si fidano dell'uso che fanno le aziende dei loro dati. L'intelligenza artificiale generativa, in particolare, introduce nuove preoccupazioni riguardo all'accuratezza, tossicità e faziosità dei contenuti generati.

Salesforce garantisce la sicurezza dei dati dei propri clienti utilizzando il Einstein Trust Layer, integrato direttamente in Salesforce Platform. Einstein Trust Layer include una serie di garanzie di sicurezza dei dati, come il mascheramento dei dati, la crittografia TLS in-flight e l'architettura Zero Retention dei dati con i modelli linguistici di grandi dimensioni.

L'implementazione di un'intelligenza artificiale affidabile ti consentirà di godere dei vantaggi dell'AI senza scendere a compromessi in termini di controlli sulla sicurezza dei dati e sulla privacy. Einstein Trust Layer garantisce la massima tranquillità quando si tratta di sapere dove vanno a finire i tuoi dati e chi vi ha accesso, così tu ti puoi concentrare sul raggiungimento di risultati migliori con l'ausilio dell'intelligenza artificiale.

Come progettare un'intelligenza artificiale generativa affidabile.

In primo luogo, è necessario capire in che modo l'AI può rispondere alle tue esigenze aziendali e identificare i casi d'uso. Quindi, bisogna scegliere un partner di cui ci si possa fidare, con una comprovata esperienza nella fornitura di soluzioni di intelligenza artificiale affidabili. Infine, è necessario determinare i requisiti normativi e di conformità per il proprio settore specifico, in modo da poter definire l'approccio che si vuole adottare nei confronti dell'intelligenza artificiale.