Consola de servicios que muestra una ventana de chat con Einstein ayudando a responder preguntas

¿Qué es la generación aumentada de recuperación (RAG)?

Cómo llevar las solicitudes de la IA generativa al siguiente nivel con la generación aumentada de recuperación o RAG.

Ari Bendersky

En 2023, Algo Communications, con sede en Canadá, se enfrentaba a un reto. La empresa estaba preparada para un rápido crecimiento, pero no podía formar a los representantes de servicio atención al cliente (CSR) lo suficientemente rápido como para mantenerse al día con su expansión. Para hacer frente a este reto, la empresa recurrió a una solución novedosa: la IA generativa.

Algo Communications adoptó un modelo de lenguaje de gran tamaño (LLM) para ayudar a incorporar nuevos CSR más rápido. Con el fin de entrenarlos para responder a preguntas complejas de los clientes con precisión y fluidez, Algo sabía que necesitaba algo más sólido que un LLM estándar, que generalmente se entrena con los datos públicos disponibles en Internet y carece del contexto empresarial específico necesario para responder a las preguntas con precisión. Aquí es donde entra en juego la generación aumentada de recuperación, más conocida simplemente como la RAG.

A estas alturas, muchos de nosotros ya hemos utilizado un LLM de IA generativa a través de aplicaciones de chat como ChatGPT de OpenAI o Gemini de Google (antes Bard) para que nos ayudara a escribir un correo electrónico o crear un texto inteligente para las redes sociales. Pero obtener los mejores resultados no siempre es fácil, especialmente si no has dominado el arte y la ciencia de elaborar una gran solicitud.

¿Por qué? Porque para que un modelo de IA sea bueno, lo que se le enseña también tiene que ser bueno. Para que mejore, necesita el contexto adecuado y muchísimos datos fácticos, y no información genérica. Un LLM estándar no siempre está actualizado, ni tendrá acceso fiable a sus datos ni comprenderá sus relaciones con los clientes. Aquí es donde la RAG puede ayudar.

La RAG es una técnica de IA que permite a las empresas incrustar automáticamente sus propios datos más actuales y relevantes directamente en su solicitud de LLM. Y no estamos hablando solo de datos estructurados como una hoja de cálculo o una base de datos relacional. Nos referimos a recuperar todos los datos disponibles, incluidos los datos no estructurados: correos electrónicos, PDF, registros de chat, publicaciones en redes sociales y otros tipos de información que podrían generar un mejor resultado de IA.

Calcule su ROI con Agentforce.

Descubra cuánto tiempo y dinero puede ahorrar con un equipo de agentes impulsados por IA que trabajan codo con codo con sus empleados y su plantilla. Para averiguar qué es posible con Agentforce solo tiene que responder a cuatro sencillas preguntas.

¿Cómo funciona la generación aumentada de recuperación?

En pocas palabras, la RAG ayuda a las empresas a recuperar y utilizar sus datos de diversas fuentes internas para obtener mejores resultados de IA generativa. Debido a que el material de origen proviene de sus propios datos fiables, ayuda a reducir o incluso eliminar las alucinaciones y otros resultados incorrectos. En pocas palabras: puede confiar en que las respuestas serán relevantes y precisas.

Para lograr esta precisión mejorada, la RAG trabaja en conjunto con un tipo especializado de base de datos llamada base de datos de vectores para almacenar datos en un formato numérico que tenga sentido para la IA y recuperarlos cuando se le solicite.

"La RAG no puede hacer su trabajo sin que la base de datos de vectores haga el suyo", dijo Ryan Schellack, director de marketing de productos de IA en Salesforce. "Ambas van de la mano. Cuando oiga a una empresa hablar de respaldar la generación aumentada de recuperación, como mínimo están respaldando dos cosas: un almacén de vectores para almacenar información y luego algún tipo de mecanismo de búsqueda de aprendizaje automático diseñado para trabajar con ese tipo de datos".

Cuando funciona en conjunto con una base de datos de vectores, la RAG puede ser una herramienta potente para generar mejores resultados de LLM, pero no obra milagros. Los usuarios aún deben comprender los conceptos básicos de cómo escribir una solicitud clara.

Personajes de Agentblazer

Unirse a la comunidad de Agentblazer.

Conéctese con Agentblazers de todo el mundo para mejorar sus habilidades en IA, descubrir casos de uso, conocer las opiniones de expertos en productos y más. Aumente su experiencia en IA y mejore su carrera profesional.

Plazos de respuesta más cortos a preguntas complejas

Después de agregar una enorme cantidad de datos no estructurados a su base de datos de vectores, incluidos registros de chat y dos años de historial de correo electrónico, Algo Communications comenzó a probar esta tecnología en diciembre de 2023 con algunos de sus CSR. Trabajaron en un pequeño conjunto de muestras: alrededor del 10 % de la base de productos de la empresa. Los CSR tardaron unos dos meses en familiarizarse con la herramienta. Durante la implementación, la dirección de la empresa se mostró entusiasmada al ver que los CSR cada vez se sentían con más confianza para responder a preguntas en profundidad con la ayuda de la RAG. En este punto, la compañía inició la implementación de la RAG en toda la empresa.

"Explorar la RAG nos ayudó a entender que íbamos a ser capaces de utilizar muchos más datos", dijo Ryan Zoehner, vicepresidente de operaciones comerciales de Algo Communications. "Nos iba a permitir desglosar muchas de esas respuestas realmente complejas y ofrecer respuestas de cinco y seis partes de manera que los clientes supieran que había alguien con conocimientos técnicos adecuados ofreciendo las respuestas".

En tan solo dos meses después de agregar la RAG, el equipo de servicio de atención al cliente de Algo pudo completar los casos de manera más rápida y eficiente, lo que les ayudó a pasar a nuevas consultas un 67 % más rápido. En la actualidad, la RAG aborda un 60 % de sus productos y seguirá expandiéndose. La compañía también comenzó a agregar nuevos registros de chat y conversaciones a la base de datos, reforzando su solución con contexto aún más relevante. El uso de la RAG también ha permitido a Algo reducir su tiempo de incorporación a la mitad, lo que le ha permitido crecer mucho más rápido.

"La RAG nos está haciendo más eficientes", dijo Zoehner. "Está haciendo que nuestros empleados estén más contentos con su trabajo y nos está ayudando a incorporar todo más rápido. Lo que ha hecho que esto sea diferente de todo lo demás que hemos intentado hacer con los LLM es que nos permitió mantener nuestra marca, nuestra identidad y el espíritu de lo que somos como empresa".

Dado que la RAG proporciona a los CSR de Algo asistencia basada en IA, el equipo ha podido dedicar más tiempo a añadir un toque humano a las interacciones con los clientes.

"Permite a nuestro equipo dedicar un poquito de tiempo adicional a asegurarse de que la respuesta llegue de la manera correcta", dijo Zoehner. "Esa humanidad nos permite imprimir nuestra marca en todo. También nos da garantía de calidad en todos los ámbitos".