Een afbeelding die laat zien hoe Einstein Trust Layer content maakt voor CRM-apps.

Einstein Trust Layer

De Einstein Trust Layer is een veilige AI-architectuur die volledig is geïntegreerd in het Salesforce-platform. Het is gebaseerd op Hyperforce voor dataopslag en compliance, wat betekent dat onze productbeveiliging en beleidsregels garant staan voor een optimale bescherming. De Einstein Trust Layer is ontworpen voor zakelijke beveiligingsstandaarden en laat teams profiteren van generatieve AI, zonder enig risico voor hun klantdata.

Een template van een gebruikersprompt die wordt gegenereerd in een Einstein AI-respons.

Betrouwbare AI begint met prompts die zijn voorzien van context.

Een prompt is een canvas met specifieke context en instructies voor grote taalmodellen. Met de Einstein Trust Layer kun je op verantwoorde wijze al je prompts voorzien van context uit klantdata en deze data maskeren als de prompt wordt gedeeld met grote taalmodellen*. Bovendien zorgt onze Zero Retention-architectuur ervoor dat je data uitsluitend bij Salesforce wordt opgeslagen.

* Binnenkort.

Gestroomlijnde privacy- en databescherming.

Bescherm gevoelige data automatisch tegen externe grote taalmodellen.

Krijg veilig toegang en genereer dynamisch generatieve AI-prompts gebaseerd op soort, de kwaliteit en relevantie om de meest betrouwbare output op te leveren. Voeg velden veilig samen met Salesforce-records en gebruik semantisch informatie uit ondersteunende supportartikelen om relevante data toe te voegen.

Een afbeelding die laat zien hoe Einstein Trust Layer CRM-data gebruikt.

Voeg domeinspecifieke kennis en klantinformatie toe aan de prompt om het model de context te geven die het nodig heeft om accurater te reageren. Verklein de kans op hallucinaties met toegevoegde context uit CRM-data, kennisartikelen, servicechats en meer. Haal deze data automatisch op en gebruik ze om betrouwbare antwoorden te genereren.

* Binnenkort.

Een template voor door Einstein gegenereerde content.

Maskeer de data in je prompt om een extra beschermingslaag toe te voegen. Detecteer automatisch PII- en betalingsdata en bewerk ze vanaf de prompt voordat ze naar een groot taalmodel worden verzonden. Verwijder de maskering van de data nadat de respons is gecreëerd, zodat je de correcte context kunt delen met interne gebruikers.

Een chatvenster met een voorbeeld van een gesprek met Einstein AI.
Een afbeelding die laat zien hoe Einstein Trust Layer CRM-data gebruikt.
Een template voor door Einstein gegenereerde content.
Een chatvenster met een voorbeeld van een gesprek met Einstein AI.

Jouw data zijn niet ons product.

Salesforce geeft klanten de controle over de manier waarop ze hun data willen gebruiken voor AI. Er wordt nooit context opgeslagen, of je nu modellen gebruikt die door Salesforce worden gehost of kiest voor externe modellen die deel uitmaken van onze Shared Trust Boundary, zoals OpenAI. Het grote taalmodel vergeet zowel de prompt als de output zodra de output is verwerkt.

Beperk toxiciteit en schadelijke output.

Zorg ervoor dat medewerkers het delen van ongepaste of schadelijke content kunnen voorkomen door elke prompt en output te scannen en te beoordelen op toxiciteit. Garandeer dat output pas wordt gedeeld als deze is geaccepteerd of afgekeurd door een mens en registreer elke stap als metadata in ons audittraject. Dit maakt naleving op grote schaal een stuk eenvoudiger.*

* Binnenkort.

Haal het maximale uit AI met betrouwbare partners op AppExchange.

Accenture-logo
Deloitte-logo
Slalom-logo

Veelgestelde vragen over Einstein Trust Layer.

Veilige AI beschermt je klantdata zonder dat de kwaliteit van de output eronder lijdt. Klant- en bedrijfsdata zijn essentieel voor het verrijken en personaliseren van de resultaten van AI-modellen, maar het is even belangrijk dat je er op een betrouwbare manier mee omgaat.

Veel mensen vertrouwen hun data liever niet aan bedrijven toe, omdat ze zich zorgen maken over de privacy en beveiliging. Door de komst van generatieve AI zijn er ook zorgen rond de juistheid, toxiciteit en vooringenomenheid van de content die het genereert.

Salesforce houdt de data van zijn klanten veilig met behulp van de Einstein Trust Layer, die direct is geïntegreerd in het platform. De Einstein Trust Layer omvat diverse functies voor databeveiliging, zoals de maskering van data, directe TLS-versleuteling en het voorkomen van dataopslag in grote taalmodellen.

Betrouwbare AI betekent dat je profiteert van de kracht van AI zonder dat dit ten koste gaat van je databeveiliging en privacybescherming. Dankzij de Einstein Trust Layer hoef je je geen zorgen te maken over je data en wie er toegang toe heeft. Zo kun je je volledig concentreren op een optimaal gebruik van AI.

Zo ontwerp je betrouwbare generatieve AI.

Allereerst moet je weten hoe AI kan voldoen aan je zakelijke behoeften en moet je zicht krijgen op je use cases. Vervolgens kies je een betrouwbare partner met een bewezen staat van dienst op het gebied van veilige AI-oplossingen. Ten slotte bepaal je de regelgevings- en nalevingsvereisten voor jouw sector, als basis voor een veilig en betrouwbaar AI-traject.