Skip to Content

IA generativa: 5 pautas para un desarrollo responsable

La inteligencia artificial (IA) generativa tiene el potencial de transformar la forma en que vivimos y trabajamos de formas profundas y supondrá un reto para incluso la empresa más innovadora durante años.

La IA generativa en Salesforce

El potencial de la IA generativa en Salesforce, y de la tecnología empresarial en general, es enorme.

La IA ya forma parte integral de la plataforma Customer 360, y las tecnologías presentes en nuestra solución Einstein AI proporcionan casi 200.000 millones de predicciones al día en todos los usos prácticos empresariales de Salesforce, como:

  • Ventas, que recurre a datos valiosos de IA para identificar los siguientes pasos óptimos y permite cerrar tratos rápidamente.
  • Asistencia, que usa la IA para mantener conversaciones como las que tendría un humano y proporciona respuestas a preguntas y tareas repetitivas, lo cual libera a los agentes para que se encarguen de solicitudes más complejas.
  • Marketing, que aprovecha la IA para comprender el comportamiento del cliente y personalizar el momento de contacto, la segmentación y el contenido de las actividades de marketing.
  • El comercio, que se vale de la IA para impulsar experiencias de compra altamente personalizadas y ecommerce más inteligente.

Ahora, la IA generativa tiene el potencial de ayudar a nuestros clientes a conectar con sus audiencias de formas nuevas y más personalizadas en multitud de interacciones de ventas, asistencia al cliente, marketing, comercio y TI. Incluso estamos explorando el uso de código generado por IA para ayudar a nuestros clientes, incluso los que no tienen desarrolladores de Salesforce certificados en plantilla, a escribir código de alta calidad más rápidamente mediante menos líneas de código, lo que a su vez consumirá menos CPU y supondrá un ahorro adicional.

3rd edición del informe State of IT

Descubre cambio de prioridades y métricas de éxito en medio de las cambiantes necesidades de negocio y de los clientes.

Pautas para una IA generativa de confianza

Como todas nuestras innovaciones, integramos salvaguardas éticas y pautas en todos nuestros productos para ayudar a nuestros clientes a innovar de forma responsable y a detectar problemas potenciales antes de que sucedan.

Teniendo en cuenta las enormes oportunidades y retos que se presentan en el área tecnológica, estamos desarrollando nuestros Principios de IA de confianza con un nuevo conjunto de pautas centradas en el desarrollo responsable y en la implementación de la IA generativa.

Estamos en los inicios de esta tecnología tan transformadora y estas pautas están todavía en desarrollo, pero tenemos un compromiso firme en aprender y trabajar de forma iterativa con otras organizaciones para encontrar soluciones.

A continuación, presentamos las cinco pautas que usamos para guiar el desarrollo de la IA generativa de confianza en Salesforce y en otras organizaciones.

  1. Precisión: Necesitamos ofrecer resultados verificables que ofrezcan un equilibrio entre la precisión y la posibilidad de permitir a los clientes entrenar modelos con sus propios datos. Debemos revelar cuándo existe incerteza sobre la veracidad de una respuesta de IA y permitir a los usuarios validar las respuestas. Esto se puede lograr citando fuentes, ofreciendo explicabilidad sobre por qué la IA facilita las respuestas que facilita (por ejemplo, peticiones de cadenas de pensamiento), resaltando las áreas que hay que volver a verificar (por ejemplo, estadísticas, recomendaciones o fechas) y creando protecciones que eviten que algunas tareas se automaticen por completo (por ejemplo, lanzar código en un entorno de producción sin previa revisión humana).
  2. Seguridad: Al igual que con todos nuestros modelos de IA, debemos hacer todos los esfuerzos posibles para mitigar los sesgos, la toxicidad y los resultados dañinos, valiéndonos para ello de evaluaciones de sesgo, explicabilidad y robustez, así como el uso de red teaming. También debemos proteger la privacidad de cualquier fragmento de información personal identificable (IPI) presente en los datos usados para entrenar los modelos, y crear protecciones para evitar daños adicionales (por ejemplo, forzar la publicación del código en un entorno de pruebas en lugar de enviarlo directamente a producción).
  3. Honestidad: Al recopilar datos para entrenar y evaluar nuestros modelos, debemos respetar el origen de los datos y garantizar que tenemos el consentimiento pertinente para usarlos (por ejemplo, usar datos abiertos o proporcionados por los usuarios). También debemos ser transparentes y revelar que una IA ha creado el contenido cuando se entrega de forma autónoma (por ejemplo, las respuestas de chatbots a un consumidor o el uso de marcas de agua)
  4. Empoderamiento: Hay algunos casos en que es mejor automatizar por completo los procesos, pero hay otros en que la IA debería actuar como apoyo al factor humano (o donde se requiere el criterio de una persona). Debemos identificar el equilibrio adecuado para dar las máximas posibilidades al talento humano y hacer que estas soluciones estén disponibles para todo el mundo (por ejemplo, generar texto ALT para acompañar imágenes).
  5. Sostenibilidad: En nuestro esfuerzo por crear modelos precisos, debemos desarrollar modelos del tamaño adecuado siempre que sea posible para reducir nuestra huella de carbono. Cuando hablamos de modelos de IA, un mayor tamaño no siempre significa resultados mejores. En algunos casos, los modelos más pequeños, pero con mejor entrenamiento, tienen un mejor rendimiento que los modelos grandes sin apenas entrenamiento.

3rd edición del informe State of IT

Descubre cambio de prioridades y métricas de éxito en medio de las cambiantes necesidades de negocio y de los clientes.