Un gráfico muestra cómo Einstein Trust Layer crea contenido para aplicaciones de CRM.

Einstein Trust Layer

Einstein Trust Layer es una arquitectura de IA segura y desarrollada de forma nativa en Salesforce Platform. Está desarrollada en Hyperforce por motivos de cumplimiento y ubicación de los datos, Einstein Trust Layer cuenta con las mejores medidas de seguridad, tanto a nivel del producto como de nuestras políticas. Diseñada teniendo en mente los estándares empresariales de seguridad, Einstein Trust Layer permite a los equipos beneficiarse de la IA generativa sin poner en peligro los datos de sus clientes.

Una plantilla de instrucciones de un usuario que se genera para una respuesta de Einstein AI.

La fiabilidad de la IA empieza por instrucciones fundamentadas de forma segura.

Una instrucción es el lienzo en el que se proporciona contexto e instrucciones a los modelos de lenguaje de gran tamaño. Einstein Trust Layer le permite fundamentar de forma responsable todas sus instrucciones en datos de los clientes, así como enmascarar los datos cuando la instrucción se comparte con modelos de lenguaje de gran tamaño. Gracias a nuestra arquitectura de retención cero, sus datos no se almacenan fuera de Salesforce.

Controles seguros de datos y privacidad.

Proteja automáticamente los datos más delicados de los modelos externos de lenguaje de gran tamaño.

Acceda y fundamente de forma segura y dinámica instrucciones de IA generativa con el tipo, calidad y alcance de datos necesarios para aprender y lograr los resultados más fiables. Combine campos de forma segura con los registros de Salesforce. Utilice la recuperación semántica para incorporar información relevante de artículos de conocimiento de asistencia.

Una gráfica muestra cómo Einstein Trust Layer utiliza los datos del CRM.

Agregue conocimientos específicos de su campo e información sobre sus clientes a la instrucción para proporcionarle al modelo el contexto que necesita para responder con más certeza. Reduzca las alucinaciones al aportar contexto de los datos del CRM, artículos de conocimiento, chats de servicio y mucho más. Recupere y utilice automáticamente sus datos para generar respuestas fiables.

Una plantilla para el contenido generado de Einstein.

Enmascare los datos que se utilizan en sus instrucciones para añadir una capa adicional de protección. Identifique automáticamente información personal identificable y datos de pago, y elimínelos de la instrucción antes de que se envíe a un modelo de lenguaje de gran tamaño. Una vez creada la respuesta, puede desenmascarar esos datos para que el contexto pertinente se comparta con usuarios internos.

Una ventana de chat con una conversación de ejemplo con Einstein AI.
Una gráfica muestra cómo Einstein Trust Layer utiliza los datos del CRM.
Una plantilla para el contenido generado de Einstein.
Una ventana de chat con una conversación de ejemplo con Einstein AI.

Sus datos no son nuestro producto.

Salesforce brinda a los clientes el control sobre cómo se utilizan sus datos en la IA. Tanto si utiliza modelos alojados en Salesforce, como modelos externos que forman parte de nuestro grupo de confianza compartida, como OpenAI, no se almacena ningún contexto. El modelo de lenguaje de gran tamaño olvida la instrucción y el resultado en el momento de su procesamiento.

Reduzca la nocividad y los resultados perjudiciales.

Evite que sus empleados compartan contenidos inapropiados o perjudiciales a través del análisis y la calificación de todas las instrucciones y sus resultados en función de su nivel de nocividad. Asegúrese de que no se comparte ningún resultado antes de que una persona lo acepte o rechace, y registre cada paso como metadatos en nuestra pista de auditoría, lo que simplificará el cumplimiento a escala.

Saque el máximo partido a la IA segura con socios de confianza en AppExchange.

Accenture logo
Deloitte logo
Slalom logo

Preguntas frecuentes sobre Einstein Trust Layer.

La IA segura es la que protege los datos de los clientes sin menoscabar la calidad de sus resultados. Los datos de clientes y de la empresa son fundamentales para enriquecer y personalizar los resultados de los modelos de IA, pero es importante saber con certeza cómo se utilizan esos datos.

Una de las preocupaciones más importantes sobre la seguridad de la IA es la privacidad y protección de los datos, ya que muchos clientes no confían en el uso que las empresas hacen de sus datos. Además, la IA generativa en concreto despierta nuevas dudas sobre la precisión, la nocividad y el sesgo de los contenidos que genera.

Salesforce protege los datos de sus clientes a través de Einstein Trust Layer, una solución integrada directamente en la plataforma. Einstein Trust Layer incluye varias medidas de seguridad de datos, como el enmascaramiento de datos, el cifrado en tránsito TLS y la retención cero de datos en los modelos de lenguaje de gran tamaño.

Implementar IA fiable le abrirá las puertas a que pueda beneficiarse de la IA sin poner en peligro los controles de privacidad y la seguridad de sus datos. Gracias a Einstein Trust Layer puede estar tranquilo sobre el destino de sus datos y sobre quién puede acceder a ellos, y centrarse en lograr los mejores resultados posibles con la IA.

Primero, debe entender cómo la IA puede responder a las necesidades de su empresa e identificar casos de uso. A continuación, debe escoger un socio en el que pueda confiar y que cuente con un historial probado en el área de soluciones de IA fiables. Por último, identifique cuáles son los requisitos normativos y de cumplimiento en su sector para fundamentar en ellos su recorrido con la IA fiable.