Un gráfico que muestra cómo la Capa de Confianza de Einstein crea contenido para aplicaciones de CRM.

Einstein Trust Layer

La Einstein Trust Layer es un conjunto robusto de funciones y barreras de seguridad que protegen la privacidad y la seguridad de tus datos, mejoran la seguridad y la precisión de los resultados de IA y promueven el uso responsable de la IA en todo el ecosistema de Salesforce. Con características como puesta a tierra dinámica, retención de datos cero y detección de toxicidad, la Einstein Trust Layer se diseñó para ayudarte a liberar el poder de la IA generativa sin comprometer tus estándares de seguridad.

Una plantilla de una solicitud de usuario que se genera en una respuesta de IA de Einstein.

La IA de confianza comienza con solicitudes basadas de forma segura.

Una solicitud es un conjunto de instrucciones que dirige un modelo de lenguaje grande (LLM) para devolver un resultado que sea útil. Cuanto más contexto le des al mensaje, mejor será el resultado. Las características de la Einstein Trust Layer como la recuperación segura de datos y la puesta a tierra dinámica te permiten proporcionar de forma segura solicitudes de IA con contexto sobre tu negocio, mientras que el enmascaramiento de datos y la retención de datos cero protegen la privacidad y la seguridad de esos datos cuando se envía la solicitud a un LLM de terceros.

Controles de privacidad y datos sin inconvenientes.

Benefíciate del crecimiento y la rentabilidad de los LLM de fundación de terceros y, al mismo tiempo, protege la privacidad y la seguridad de tus datos en cada paso del proceso de generación.

Permite que los usuarios accedan de forma segura a los datos para fundamentar las solicitudes de IA generativa en contexto sobre tu negocio, manteniendo los permisos y los controles de acceso a los datos.

Un gráfico que muestra cómo la Capa de Confianza de Einstein utiliza los datos de CRM.

Infunde de forma segura solicitudes de IA con contexto empresarial a partir de fuentes de datos estructurados o no estructurados, utilizando múltiples técnicas de puesta a tierra que funcionan con plantillas de solicitudes que puedes ampliar a toda tu empresa.

Una plantilla para el contenido generado por Einstein.

Enmascara los tipos de datos confidenciales, como la información de identificación personal (PII) y la información del sector de las tarjetas de pago (PCI), antes de enviar solicitudes de IA a grandes modelos de lenguaje (LLM) de terceros, y configura los ajustes del enmascaramiento según las necesidades de tu organización.

* La disponibilidad varía según la función, el idioma y la región geográfica.

Una ventana de chat con un ejemplo de una plática con la IA de Einstein.
Un gráfico que muestra cómo la Capa de Confianza de Einstein utiliza los datos de CRM.
Una plantilla para el contenido generado por Einstein.
Una ventana de chat con un ejemplo de una plática con la IA de Einstein.

Tus datos no son nuestro producto.

Salesforce les ofrece a los clientes el control sobre el uso de sus datos para la IA. Ya sea que utilicemos nuestros propios modelos alojados en Salesforce o modelos externos dentro de nuestro límite de confianza compartida, como OpenAI, no se almacena ningún contexto. El modelo de lenguaje grande olvida tanto la solicitud como la salida tan pronto como se procesa la salida.

Mitigar la toxicidad y las salidas nocivas.

Empodera a los empleados y evita que se comparta contenido inapropiado o dañino escaneando y calificando cada solicitud y salida para detectar toxicidad. Asegúrate de que no se comparta ninguna salida antes de que un humano lo acepte o lo rechace y registre cada paso como metadatos en nuestra pista de auditoría, lo que simplifica el cumplimiento a escala.*

* Próximamente

Saque el máximo partido a la IA segura con socios de confianza en AppExchange.

Accenture logo
Deloitte logo
Slalom logo

Einstein Trust Layer PREGUNTAS FRECUENTES

Una IA segura es la IA que protege los datos de tus clientes sin comprometer la calidad de las salidas. Los datos de los clientes y de la compañía son clave para enriquecer y personalizar los resultados de los modelos de IA, pero es importante confiar en cómo se utilizan esos datos.

Una de las principales preocupaciones de seguridad en torno a la IA es la privacidad y la seguridad de los datos, dado que muchos clientes no les confían sus datos a las compañías. En concreto, la IA generativa también introduce nuevas preocupaciones en relación con la precisión, la toxicidad y el sesgo del contenido que genera.

Salesforce mantiene seguros los datos de sus clientes utilizando la Einstein Trust Layer, que está integrada directamente en la Plataforma. La Einstein Trust Layer incluye una serie de medidas de seguridad de datos, como el enmascaramiento de datos, el cifrado TLS en curso y la retención de datos cero con modelos de lenguaje grandes.

La implementación de una IA de confianza te permitirá aprovechar los beneficios de la IA sin comprometer la seguridad de tus datos y los controles de privacidad. La Einstein Trust Layer te permite no preocuparte por dónde van tus datos y quién tiene acceso a ellos para que puedas concentrarte en lograr los mejores resultados con la IA.

Cómo diseñar una IA generativa de confianza

En primer lugar, debes comprender cómo la IA puede abordar las necesidades de tu negocio e identifica tus casos de uso. A continuación, elije un socio en el que puedas confiar con un registro probado de entrega de soluciones de IA de confianza. Por último, determina los requisitos normativos y de cumplimiento normativos de tu sector específico para informar el enfoque de tu recorrido con la IA de confianza.