Graphique montrant comment Einstein Trust Layer génère du contenu pour les applications de gestion de la relation client.

Einstein Trust Layer

Einstein Trust Layer est un ensemble robuste de fonctionnalités et de garde-fous qui protègent la confidentialité et la sécurité de vos données, améliorent la sécurité et la précision de vos résultats d'IA et encouragent l'utilisation responsable de l'IA dans l'écosystème Salesforce. Avec des fonctionnalités telles que la contextualisation dynamique, l'absence de rétention des données et la détection de la toxicité, Einstein Trust Layer est conçu pour vous aider à libérer toute la puissance de l'IA générative, sans compromettre vos normes de sûreté ou de sécurité.

Modèle de prompt d'utilisateur généré dans une réponse IA d'Einstein.

L'IA approuvée commence par des prompts sécurisés.

Un prompt est un ensemble d'instructions qui oriente un modèle de langage de grande taille (LLM) pour qu'il renvoie un résultat utile. Plus vous donnez de contexte au prompt, meilleure sera la réponse. Les fonctionnalités de Einstein Trust Layer, telles que la récupération sécurisée des données et la contextualisation dynamique, vous permettent de fournir en toute sécurité aux prompts d'IA le contexte sur votre entreprise, tandis que le masquage des données et l'absence de rétention des données protègent la confidentialité et la sécurité de ces données lorsque le prompt est envoyé à un LLM tiers.

Un contrôle sans faille du respect de la vie privée et des données.

Bénéficiez de l'échelle et de la rentabilité des LLM de fondations tierces tout en protégeant la confidentialité et la sécurité de vos données à chaque étape du processus de génération.

Permettez aux utilisateurs d'accéder en toute sécurité aux données pour créer des prompts d'IA génératives, dans le contexte de votre entreprise, tout en gérant les autorisations et les contrôles d'accès aux données.

Graphique montrant comment Einstein Trust Layer utilise les données du CRM.

Insérez en toute sécurité dans les prompts d'IA le contexte de l'entreprise, à partir de sources de données structurées ou non structurées, en utilisant plusieurs techniques de contextualisation qui fonctionnent avec des modèles de prompts que vous pouvez étendre à l'ensemble de votre entreprise.

Modèle pour les contenus générés par Einstein.

Masquez les données sensibles telles que les informations personnelles identifiables (PII) et les informations de l'industrie des cartes de paiement (PCI) avant d'envoyer des prompts d'IA à des modèles de langage de grande taille (LLM) tiers, et configurez les paramètres de masquage en fonction des besoins de votre entreprise.

*La disponibilité varie en fonction de la fonctionnalité, de la langue et de la région géographique.

Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.
Graphique montrant comment Einstein Trust Layer utilise les données du CRM.
Modèle pour les contenus générés par Einstein.
Fenêtre de messagerie instantanée montrant un exemple de conversation avec l'IA d'Einstein.

Vos données ne sont pas notre produit.

Salesforce permet aux clients de contrôler l'usage de leurs données avec l'IA. Aucun contexte n'est stocké, que ce soit avec nos propres modèles hébergés par Salesforce ou avec des modèles externes qui font partie de notre limite de confiance partagée, comme OpenAI. Le modèle de langage de grande taille oublie à la fois le prompt et la réponse dès que cette dernière est produite.

Atténuation de la toxicité et des réponses préjudiciables.

Donnez à vos collaborateurs les moyens d'empêcher le partage de contenus inappropriés ou préjudiciables en analysant et en évaluant la toxicité de chaque prompt et de chaque réponse. Aucun résultat ne sera partagé avant qu'un humain ne l'accepte ou ne le rejette, et chaque étape sera enregistrée sous forme de métadonnées dans notre audit, afin de simplifier le respect de la conformité à grande échelle.*

* Bientôt disponible

Exploitez tout le potentiel d'une IA sécurisée grâce à des partenaires de confiance sur AppExchange.

Logo de Accenture
Logo de Deloitte
Logo de Slalom

FAQ Einstein Trust Layer

Une IA sécurisée est une IA qui protège les données de vos clients sans sacrifier la qualité de ses réponses. Les données des clients et de l'entreprise sont essentielles pour enrichir et personnaliser les résultats des modèles d'IA, mais vous devez avoir la garantie qu'elles ne seront pas utilisées à mauvais escient.

L'une des principales préoccupations concernant l'IA est la confidentialité et la sécurité des données, car de nombreux clients ne font pas confiance à l'utilisation que peuvent faire les entreprises de leurs données. L'IA générative soulève également de nouvelles questions concernant l'exactitude, la toxicité et les biais du contenu qu'elle génère.

Salesforce protège les données de ses clients à l'aide d'Einstein Trust Layer, qui est directement intégrée à la plateforme. Einstein Trust Layer comporte un certain nombre de garde-fous pour la sécurité des données, tels que le masquage des données, le chiffrement TLS pendant le transit et l'absence de sauvegarde dans les modèles de langage de grande taille.

En déployant une intelligence artificielle approuvée, vous bénéficierez des avantages de l'IA tout en gardant le contrôle sur la sécurité et la confidentialité de vos données. Avec Einstein Trust Layer, vous savez où vont vos données et qui y a accès. Vous pouvez ainsi vous concentrer sur la réalisation de vos objectifs en vous aidant de l'IA.

Comment concevoir une IA générative fiable ?

Tout d'abord, vous devez comprendre en quoi l'IA peut répondre aux besoins de votre entreprise et identifier vos cas d'utilisation. Ensuite, choisissez un partenaire digne de confiance, ayant déjà prouvé sa capacité à fournir des solutions d'IA fiables. Enfin, identifiez les exigences réglementaires et les normes de conformité en vigueur dans votre secteur d'activité afin de guider votre choix.