El 60 % de las personas que planean usar la IA afirman que no saben cómo hacerlo y mantener, a la vez, la seguridad de sus datos.
Algunas empresas están añadiendo la IA a sus productos sin garantizar que los datos de sus clientes estén protegidos al 100 %. Aquí mostramos cómo tu empresa puede aprovechar las mejoras de productividad de la IA sin regalar tus datos más sensibles.
Cuesta creerlo a día de hoy, pero en su momento los consumidores no se fiaban del ecommerce. Antes de que estas plataformas que a día de hoy suponen un negocio de 1 billón de dólares anual llegaran a florecer, los usuarios temían por la seguridad de sus datos personales y financieros. Eso es lo que llamaríamos una brecha de confianza.
Si pasamos a cámara rápida hasta el presente, vemos que la confianza explica el grado de éxito y la amplitud con la que las empresas y los clientes adoptan la tecnología emergente de la IA generativa. Algunas empresas están añadiendo la IA a sus productos sin llevar a cabo el arduo trabajo de eliminar el sesgo que presenta la tecnología, ofrecer transparencia a sus usuarios y garantizar que los datos del cliente estén protegidos al 100 %. Pero, tal y como cada vez más líderes se dan cuenta, es precisamente este bulto que están escurriendo el que marcará la diferencia entre que la gente confíe, o no, en tu IA.
“Todos nuestros departamentos tienen grandes ideas sobre cómo usar la IA generativa”, indica Shoreh Abedi, vicepresidenta ejecutiva, directora de operaciones y directora de tecnología en AAA. “No quiero poner trabas a la creatividad, pero tampoco quiero lo mejor del mundo si ello deja una puerta trasera abierta en mi empresa”.
3rd edición del informe State of IT
Descubre cambio de prioridades y métricas de éxito en medio de las cambiantes necesidades de negocio y de los clientes.
Cómo lo ven los empleados
- En una encuesta a más de 4000 empleados entre los equipos de ventas, asistencia, marketing y comercio, un 73 % opinan que la IA generativa introduce nuevos riesgos de seguridad.
- El 60 % que planean usar la IA afirman que no saben cómo lograrlo y a la vez lograr mantener a buen recaudo los datos sensibles.
- Estos riesgos preocupan particularmente a los sectores muy regulados, como los servicios financieros y de salud.
Qué puedes hacer ahora
Asóciate con empresas que desarrollen protecciones en el tejido de sus sistemas de IA. Estos son los motivos por los que esto es importante:
- Los grandes modelos de lenguaje (LLM) contienen grandes cantidades de datos, pero son distintos a otros repositorios de datos, como las bases de datos o las hojas de cálculo de Excel. No cuentan con las protecciones de seguridad ni los controles de acceso que encontramos en las grandes bases de datos ni las funciones de privacidad de bloqueo de celda de las hojas de cálculo.
- “No puedes incluir los datos más sensibles, privados y seguros de tus clientes en un gran modelo de lenguaje al que puedan acceder todos tus empleados”, indica Marc Benioff, director general de Salesforce.
Cómo incorporar la privacidad de datos de IA en tus sistemas
Patrick Stokes, vicepresidente ejecutivo de Marketing Sectorial en Salesforce, explicó que con AI Cloud se pueden aprovechar las ventajas de productividad de la IA sin regalar los datos de tu empresa. La privacidad de los datos de IA, afirma, requiere varias salvaguardas:
El anclado dinámico orienta las respuestas de un LLM usando la información más actualizada y correcta, “anclando” el modelo en datos reales y un contexto relevante. Esto evita las llamadas alucinaciones de IA y las respuestas incorrectas que no guardan relación con la realidad.
El enmascarado de datos sustituye los datos sensibles con datos anonimizados para proteger la información privada y cumplir con los requisitos de privacidad. El enmascarado de datos es particularmente útil para garantizar que se ha eliminado toda la información personalmente identificable, como nombres, números de teléfono y direcciones, al escribir peticiones de IA.
La detección de toxicidad es un método para detectar contenido tóxico como la incitación al odio y los estereotipos negativos. Para lograrlo, utiliza un modelo de aprendizaje automático para analizar y puntuar las respuestas que proporciona un LLM, lo cual garantiza que el texto generado por el modelo es apto para el uso en un contexto empresarial.
La retención cero significa que ni un ápice de los datos del cliente se almacena fuera de Salesforce. Las peticiones de IA generativa y los resultados nunca se almacenan en el LLM y este no aprende de ellos, sino que simplemente desaparecen.
La auditoría evalúa continuamente los sistemas para garantizar que funcionan según lo esperado, sin sesgos, con datos de alta calidad y en alineación con los marcos normativos y de la organización. Las auditorías también ayudan a las organizaciones a satisfacer los requisitos de cumplimiento, puesto que registran las peticiones, los datos usados, los resultados y las modificaciones del usuario final en una pista de auditoría segura.
La recuperación de datos segura es la forma en que Einstein (la primera solución de IA generativa para la gestión de las relaciones con los clientes (CRM)) obtiene datos de Salesforce, incluido Data Cloud, como parte del proceso de anclado dinámico. Esto permite aportar los datos necesarios para construir peticiones contextuales. En cada interacción, se aplican las políticas de gobernanza y los permisos para garantizar que solo las personas con autorización pueden acceder a los datos.
Julie Sweet, directora ejecutiva de Accenture, afirmó que los riesgos se mitigan cuando las salvaguardas de privacidad y seguridad como estas se integran directamente en la tecnología.
La confianza en la privacidad de los datos de IA empieza con una buena gobernanza
Toda la tecnología del mundo no basta para garantizar que la IA sea transparente, responsable y segura. Para ello, también hace falta una buena gobernanza, empezando por arriba, y llevar a cabo una supervisión humana de los sistemas de IA.
Según un informe de KPMG, el 75 % de las personas que participaron en la encuesta estarían más dispuestos a confiar en los sistemas de IA si hubiera mecanismos para garantizar el uso ético y responsable de la tecnología.
Según este informe, “estos mecanismos incluyen un sistema de monitorización que sea preciso y fiable, un código de conducta de IA, la supervisión por parte de una junta de revisión ética independiente de IA y una certificación de ética de IA para establecer los principios de gobernanza”.
En Accenture, el comité de auditoría de su junta de dirección supervisa el programa de cumplimiento de IA para los 55.000 empleados de la firma.
“Si no puedes llamar a alguien al azar de tu empresa y que te indiquen dónde se está utilizando la IA, qué riesgos existen, cómo se están mitigando y quién es la persona responsable, no tienes todavía un sistema de IA responsable”, sentencia Sweet.
La IA de confianza es especialmente decisiva en sectores regulados
Los líderes de sectores altamente regulados como los servicios financieros y los proveedores de salud son cautos a la hora de implementar la IA para no sacrificar la confianza y la seguridad del cliente. Para garantizar el cumplimiento de la normativa, estos sectores deben explorar casos prácticos que no ponen en riesgo la privacidad de los datos ni la seguridad.
- Para los servicios bancarios, esto puede incluir el uso de la automatización para hacer más eficientes las tareas y procesos rutinarios, como las disputas sobre transacciones, o el uso de IA para impulsar chatbots más inteligentes que personalicen más las interacciones con los clientes y mejoren el autoservicio.
- Para los proveedores de salud, la IA puede ayudarles a segmentar la población de pacientes más eficazmente para que puedan enviar comunicaciones más personalizadas y pertinentes, como consejos para pacientes de diabetes sobre niveles bajos de azúcar en la sangre cuando sus niveles de glucosa llegan a puntos críticos.
Benioff afirmó hace poco que la IA generativa podía ser la “tecnología más importante de cualquier vida”. Está claro que la IA generativa podría hacer que el ecommerce, que cambió para siempre el comportamiento del cliente, los sectores y los modelos de negocio, parezca ahora un avance relativo. McKinsey ha estimado recientemente que el impacto de la IA en la productividad puede añadir billones de dólares cada año a la economía global. Pero debemos tener un alto grado de confianza en estos sistemas antes de que esto pueda suceder.
“Es esencial que la IA sea fiable”, concluyó KPMG en un estudio. “Si más personas perciben que los sistemas de IA son de confianza y están dispuestos a confiar en ellos, también tendrán más probabilidades de aceptarlos”.
Una gran IA comporta una gran responsabilidad
Este módulo de aprendizaje te mostrará cómo eliminar los sesgos de tus datos y algoritmos para crear sistemas de IA éticos en tu empresa.
3rd edición del informe State of IT
Descubre cambio de prioridades y métricas de éxito en medio de las cambiantes necesidades de negocio y de los clientes.