Un gráfico muestra cómo Einstein Trust Layer crea contenido para aplicaciones de CRM.

Einstein Trust Layer

Einstein Trust Layer es un conjunto sólido de funciones y barreras de seguridad que protegen la privacidad y la seguridad de sus datos, mejoran la seguridad y la precisión de sus resultados de IA y promueven el uso responsable de la IA en todo el ecosistema de Salesforce. Con funciones como la fundamentación dinámica, la retención de datos cero y la detección de toxicidad, Einstein Trust Layer está diseñado para ayudarle a aprovechar todo el potencial de la IA generativa sin poner en riesgo la seguridad.

Una plantilla de instrucciones de un usuario que se genera para una respuesta de Einstein AI.

La fiabilidad de la IA empieza por instrucciones fundamentadas de forma segura.

Una solicitud es un conjunto de instrucciones que guía a un modelo de lenguaje grande (LLM) para que devuelva un resultado que sea útil. Cuanto más contexto se proporcione en la solicitud, mejor será el resultado. Las funciones de Einstein Trust Layer, como la recuperación de datos segura y la fundamentación dinámica, le permiten proporcionar solicitudes de IA con contexto sobre su negocio de forma segura, mientras que el enmascaramiento de datos y la retención de datos cero protegen la privacidad y la seguridad de esos datos cuando la solicitud se envía a un LLM de terceros.

Controles de datos y privacidad sin fisuras.

Aproveche la escala y la rentabilidad de los LLM de base de terceros, al tiempo que protege la privacidad y la seguridad de sus datos en cada paso del proceso de generación.

Permita que los usuarios accedan de forma segura a los datos para fundamentar las solicitudes de IA generativa en el contexto de su negocio, sin menoscabar los controles de acceso a los datos y los permisos.

Una gráfica muestra cómo Einstein Trust Layer utiliza los datos del CRM.

Infunda de forma segura las solicitudes de IA con contexto empresarial a partir de fuentes de datos estructurados o no estructurados, utilizando múltiples técnicas de fundamentación que funcionan con plantillas de solicitud que se pueden llevar a toda la empresa.

Una plantilla para el contenido generado de Einstein.

Enmascare los tipos de datos confidenciales, como la información personal identificable (PII) y la información del sector de las tarjetas de pago (PCI), antes de enviar solicitudes de IA a grandes modelos de lenguaje (LLM) de terceros, y configure los ajustes de enmascaramiento según las necesidades de su organización.

*La disponibilidad varía según la función, el idioma y la región geográfica.

Una ventana de chat con una conversación de ejemplo con Einstein AI.
Una gráfica muestra cómo Einstein Trust Layer utiliza los datos del CRM.
Una plantilla para el contenido generado de Einstein.
Una ventana de chat con una conversación de ejemplo con Einstein AI.

Sus datos no son nuestro producto.

Salesforce brinda a los clientes el control sobre cómo se utilizan sus datos en la IA. Tanto si utiliza modelos alojados en Salesforce, como modelos externos que forman parte de nuestro grupo de confianza compartida, como OpenAI, no se almacena ningún contexto. El modelo de lenguaje de gran tamaño olvida la instrucción y el resultado en el momento de su procesamiento.

Reduzca la nocividad y los resultados perjudiciales.

Evite que sus empleados compartan contenidos inapropiados o perjudiciales a través del análisis y la calificación de todas las instrucciones y sus resultados en función de su nivel de nocividad. Asegúrese de que no se comparte ningún resultado antes de que una persona lo acepte o rechace, y registre cada paso como metadatos en nuestra pista de auditoría, lo que simplificará el cumplimiento a escala.*

* Próximamente

Saque el máximo partido a la IA fiable con socios de confianza en AppExchange.

Logotipo de Accenture
Logotipo de Deloitte
Logotipo de Slalom

Preguntas frecuentes sobre Einstein Trust Layer

La IA segura es la IA que protege los datos de los clientes sin menoscabar la calidad de sus resultados. Los datos de clientes y de la empresa son fundamentales para enriquecer y personalizar los resultados de los modelos de IA, pero es importante saber con certeza cómo se utilizan eso datos.

Una de las preocupaciones más importantes sobre la seguridad de la IA es la privacidad y la protección de las datos, ya que muchos clientes no confían en el uso que las empresas hacen de sus datos. Además, la IA generativa en concreto despierta nuevas dudas sobre la precisión, la nocividad y el sesgo de los contenidos que genera.

Salesforce protege los datos de sus clientes a través de Einstein Trust Layer, una solución integrada directamente en la plataforma. Einstein Trust Layer incluye varias medidas de seguridad de datos, como el enmascaramiento de datos, el cifrado en tránsito TLS y la retención cero de datos en los modelos de lenguaje de gran tamaño.

Implementar una inteligencia artificial de confianza le abrirá las puertas para que pueda aprovechar esta tecnología sin poner en peligro los controles de privacidad y la seguridad de sus datos. Einstein Trust Layer aporta tranquilidad, ya que sabrá dónde van sus datos y quién puede acceder a ellos. Así podrá centrarse en lograr los mejores resultados posibles con la IA.

¿Cómo diseñar IA generativa fiable?

Primero, debe entender cómo la IA puede responder a las necesidades de su empresa e identificar casos de uso. A continuación, debe escoger un socio en el que pueda confiar y que cuente con un historial probado en el área de soluciones de IA fiables. Por último, identifique cuáles son los requisitos normativos y de cumplimiento en su sector para fundamentar en ellos su recorrido con la IA fiable.