5 Formas de Construir Agentes de IA Confiables
![](https://www.salesforce.com/mx/blog/wp-content/uploads/sites/11/2025/01/trustworthy-ai-agents.webp?w=300)
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/hero-legacy-back.png)
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/hero-legacy-front.png)
Descubre cómo Agentforce construye confianza en la IA con diseño ético, pruebas rigurosas y patrones innovadores de transparencia y seguridad, fomentando una colaboración fluida entre humanos e IA.
Imagina un mundo donde los agentes de IA gestionen muchas de tus tareas diarias, liberándote para enfocarte en lo que realmente importa: construir relaciones, tomar decisiones estratégicas e innovar.
Esto no es un sueño distante, es la realidad que estamos construyendo en colaboración con nuestros clientes en Salesforce. Sin embargo, el potencial de los agentes de inteligencia artificial (IA) solo puede realizarse si se confía en ellos para actuar en nombre de alguien. Al entrar en esta nueva era de IA agente, es crucial desarrollar agentes de IA que no solo sean efectivos, sino también confiables.
¿Cómo construimos agentes de IA confiables? Comenzamos diseñando sistemas de IA que permitan a los humanos colaborar de manera segura y sencilla con la IA. Nuestro enfoque se basa en un diseño intencional y controles a nivel de sistema que destacan y priorizan la transparencia, la rendición de cuentas y las medidas de protección.
Lo que aprenderás:
6 estrategias para preparar una IA generativa confiable
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-illustration-layout-two.png)
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-accent-layout-two.png)
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-cloud-layout-two.png)
Patrones de Confianza para Agentforce
La confianza en la IA aún está en sus primeras etapas. Muchos clientes esperan que los humanos sigan involucrados en casi todos los casos de uso, especialmente en aquellos considerados de alto riesgo. Nuestra Oficina de Uso Ético y Humano aborda esto mediante el codiseño y codiseño de controles y procesos éticos. Colaboramos con los equipos de Producto, Ingeniería y Diseño de Agentforce, así como con nuestros colegas de Legal, Seguridad, Privacidad, Investigación de IA y el equipo de Investigación y Perspectivas, para implementar patrones de confianza que contribuyan a crear agentes de IA confiables.
Estos patrones —directrices estándar implementadas en todos nuestros productos de IA— están diseñados para mejorar la seguridad, la precisión y la confianza, al tiempo que empoderan a los usuarios humanos. Nuestro conjunto más reciente de patrones está diseñado para garantizar que nuestras soluciones de IA agente, incluido Agentforce, cumplan con estos objetivos. A continuación, presentamos nuestros cinco principales patrones para construir agentes de IA confiables.
1. Reducir alucinaciones con la clasificación de temas
Un tema es una categoría de acciones relacionadas con una tarea específica que debe realizar un agente. Los temas incluyen acciones, que son las herramientas disponibles para el trabajo, e instrucciones, que guían al agente sobre cómo tomar decisiones. En conjunto, los temas definen el alcance de las capacidades que un agente puede manejar.
Por ejemplo, un agente de servicio de IA podría tener definidos temas para gestionar el estado de pedidos, garantías, devoluciones, reembolsos e intercambios. Cualquier asunto fuera de estos temas se escalará a la cola de un humano. De este modo, el agente de IA evita intentar responder preguntas que no le corresponden, reduciendo la propensión a generar respuestas alucinadas.
Además, los temas pueden gestionar y redirigir entradas y salidas no deseadas. Por ejemplo, un administrador puede configurar un tema específico para abordar inyecciones de prompts, que el agente puede utilizar cuando una persona pregunte sobre información propietaria o del sistema que esté fuera del alcance previsto del agente.
2. Limitar la frecuencia de correos electrónicos generados por agentes
Los administradores pueden establecer límites en la frecuencia de los contactos realizados por la IA para garantizar una mejor experiencia para el destinatario. Por ejemplo, no sería apropiado que un Representante de Desarrollo de Ventas de Agentforce (ASDR, por sus siglas en inglés) contacte al mismo prospecto 100 veces en un minuto. Configurar límites de frecuencia de correos electrónicos durante la etapa de configuración previene excesos, reduce el riesgo de fatiga por correos electrónicos y de bajas de suscripción, y preserva la integridad del dominio de correo electrónico.
3. Respetar la privacidad del usuario con funciones de exclusión
Los productos de Agentforce permiten que clientes y prospectos se den de baja de las comunicaciones. Esta función, integrada directamente en nuestro software de gestión de relaciones con clientes (CRM), ofrece una experiencia fluida para el cliente, permitiendo a las personas controlar la cantidad de comunicaciones y correos electrónicos que reciben.
4. Crear transparencia desde el diseño
Para fomentar la confianza, es fundamental que los usuarios sepan cuándo están interactuando con un agente de IA. Por defecto, los productos de Agentforce utilizan un lenguaje estándar para alertar a los administradores y gestores de agentes cuando están a punto de implementar o usar agentes de IA. Estas notas destacan las capacidades y limitaciones de la IA, asegurando una comprensión clara de su impacto y potencial.
Herramientas como ASDR incluyen divulgaciones predeterminadas para garantizar que los destinatarios de los correos generados por agentes sepan que fueron creados y ejecutados por IA. Una declaración estándar aparece dentro de las primeras dos oraciones de un correo generado y puede ser editada por el empleado que supervisa al agente. Además, un descargo de responsabilidad no editable debajo de la línea de firma agrega un nivel adicional de transparencia.
5. Garantizar transiciones fluidas entre IA y humanos
Una implementación exitosa de IA agente requiere transiciones sin problemas entre los agentes de IA y los trabajadores humanos que los respaldan. Por ejemplo, ASDR logra esto copiando a un gerente de ventas en cada correo enviado por el agente o compartiendo información relevante en canales de Slack. Lo mismo aplica para Agentforce Service Agent, que asegura una transición fluida entre el agente de servicio de IA y el representante de servicio. Este enfoque fomenta una colaboración efectiva entre IA y humanos en cada interacción, construyendo confianza.
En el futuro, los paneles de control podrán ofrecer una manera más eficiente de garantizar la supervisión humana y la rendición de cuentas de los agentes de IA.
Estos patrones de confianza se implementan además de la Einstein trust layer, un elemento fundamental de nuestros sistemas de IA que garantiza transparencia y control. Dentro de la Capa de Confianza se encuentra nuestra función de Rastro de Auditoría, que permite a los usuarios ver qué hizo el agente de IA, por qué lo hizo y cuáles fueron los resultados de sus acciones. Este nivel de transparencia es crucial para construir confianza y asegurar que la IA opere dentro de límites éticos.
Orientación y límites para el usuario
Hemos trabajado estrechamente con los equipos de Agentforce para integrar guías éticas y límites en la interfaz del producto y en los documentos de apoyo. Esto incluye recursos completos de ayuda y capacitación para garantizar que la persona que configure y utilice la herramienta comprenda cómo trabajar con IA.
También hemos desarrollado prácticas recomendadas basadas en investigaciones y pruebas que ayudan a los clientes a sacar el máximo provecho de sus agentes. Algunas de estas prácticas incluyen:
- Comenzar con instrucciones mínimas sobre los temas. Al configurar un nuevo tema, empieza con el conjunto más simple de instrucciones necesario para lograr un flujo de trabajo básico de principio a fin.
- Ser transparente sobre el uso de IA. Al enviar comunicaciones, no representes falsamente al remitente como una persona. Agrega texto que identifique claramente al remitente como un agente de IA y mencione la naturaleza autogenerada de las comunicaciones.
- Respetar las horas laborales. Asegúrate de que los mensajes se envíen en horarios en los que los destinatarios tengan más probabilidades de estar disponibles. Ten en cuenta la zona horaria del destinatario.
Verificar la confianza con pruebas éticas
Para garantizar la fiabilidad de nuestros agentes de IA y las salvaguardas correspondientes, realizamos pruebas rigurosas y red teaming, incluyendo pruebas adversariales. Antes de lanzar Agentforce, sometimos a nuestros agentes de IA a más de 8,000 entradas adversariales para poner a prueba sus límites. También involucramos a empleados que representan diversas perspectivas, antecedentes y experiencias para realizar pruebas de confianza, asegurándonos de que nuestros sistemas de IA cumplan con los más altos estándares de confiabilidad y confianza.
Agentforce: Construido sobre una IA confiable
Construir confianza en la IA es un proceso continuo que requiere diseño cuidadoso, pruebas rigurosas e innovación constante. A medida que miramos hacia el futuro, estamos entusiasmados por continuar evolucionando nuestros patrones de confianza y capacidades de IA para incluir salvaguardas en las restricciones de temas, escalamiento automático a humanos, funcionalidades de monitoreo e innovaciones mejoradas en la Capa de Confianza.
Al centrarnos en un diseño intencional, controles a nivel de sistema e implementación de patrones de confianza, estamos allanando el camino hacia un futuro donde humanos e IA puedan trabajar juntos de manera fluida y efectiva. A medida que continuamos desarrollando nuestras capacidades de IA, seguimos comprometidos con guiar a nuestros clientes hacia un futuro más autónomo mediante controles y procesos reflexivos.
Conoce el Agentforce
Humanos y Agentes se unen por el éxito del cliente. Cree y personalice agentes de IA autónomos para ayudar continuamente a sus colaboradores y clientes.
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-illustration-layout-three.png)
![](https://www.salesforce.com/mx/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-accent-layout-three.png)