Consola de servicio que muestra una ventana de chat con Einstein ayudando a responder preguntas

¿Qué es la generación aumentada de recuperación (RAG)?

Cómo llevar las solicitudes de la IA generativa al siguiente nivel con la generación aumentada de recuperación o la RAG.

Ari Bendersky

En 2023, Algo Communications, con sede en Canadá, se enfrentó a un reto. La compañía estaba preparada para un crecimiento rápido, pero no pudo capacitar a los representantes del Servicio de Atención al Cliente (CSR) lo suficientemente rápido como para mantenerse al día con su expansión. Para hacer frente a este reto, la compañía recurrió a una solución novedosa: la IA generativa.

Algo Communications adoptó un modelo de lenguaje de gran tamaño (LLM) para ayudar a incorporar CSR nuevos de una forma más rápida. Con el objetivo de entrenarlos para responder preguntas complejas de los clientes con precisión y fluidez, Algo sabía que necesitaba algo más sólido que un LLM estándar, que generalmente se entrena en la internet pública y carece del contexto comercial específico necesario para responder preguntas con exactitud. Aquí entra en juego la generación aumentada de recuperación, más conocida simplemente como RAG.

A estas alturas, muchos de nosotros ya hemos utilizado un LLM de IA generativa a través de aplicaciones de chat como ChatGPT de OpenAI o Gemini de Google (anteriormente Bard) para ayudar a escribir un correo electrónico o crear un texto inteligente para las redes sociales. Pero obtener los mejores resultados no siempre es fácil, especialmente si no has dominado el arte y la ciencia de elaborar un gran comando.

Y esta es la razón: un modelo de IA es tan bueno como lo que se le enseñe. Para que prospere, necesita el contexto adecuado y montones de datos fácticos, y no información genérica. Un LLM estándar no siempre está actualizado, ni tendrá acceso confiable a tus datos ni comprenderá las relaciones con tus clientes. Allí es donde la RAG puede ayudar.

RAG es una técnica de IA que les permite a las compañías incrustar automáticamente sus datos patentados más actuales y relevantes directamente en su solicitud del LLM. Y no estamos hablando solo de datos estructurados como una hoja de cálculo o una base de datos relacional. Nos referimos a recuperar todos los datos disponibles, incluidos los datos no estructurados: correos electrónicos, PDF, registros de chat, publicaciones en redes sociales y otros tipos de información que podrían conducir a una mejor salida de la IA.

Calcula tu ROI con Agentforce.

Descubre cuánto tiempo y dinero puedes ahorrar con un equipo de agentes impulsados por la IA que trabajan codo con codo con tus empleados y fuerza laboral. Solo tienes que responder cuatro preguntas sencillas para conocer todo lo que puedes hacer con Agentforce.

¿Cómo funciona la generación aumentada de recuperación?

En pocas palabras, la RAG ayuda a las compañías a recuperar y utilizar sus datos de diversas fuentes internas para obtener mejores resultados de la IA generativa. Debido a que el material fuente proviene de sus propios datos confiables, ayuda a reducir o incluso eliminar las alucinaciones y demás salidas incorrectas. En conclusión, puedes confiar en que las respuestas serán relevantes y precisas.

Para lograr esta precisión mejorada, la RAG trabaja junto con un tipo especializado de base de datos, que se denomina base de datos vectorial, para almacenar datos en un formato numérico que tenga sentido para la IA y recuperarlos cuando se le solicite.

"La RAG no puede cumplir su función sin que la base de datos vectorial haga su trabajo", dijo Ryan Schellack, director de marketing de productos de IA en Salesforce. "Las dos van de la mano. Cuando ves a una compañía hablar sobre apoyar la generación aumentada de recuperación, como mínimo están apoyando dos cosas: un almacén de vectores para almacenar información y además algún tipo de mecanismo de búsqueda con aprendizaje automático diseñado para trabajar con ese tipo de datos".

Al trabajar en conjunto con una base de datos vectorial, la RAG puede ser una herramienta poderosa para generar mejores salidas del LLM, pero no es una solución milagrosa. Los usuarios aún deben comprender las reglas básicas de escribir una solicitud clara.

Personajes de Agentblazer

Súmate a la comunidad de Agentblazer.

Conéctate con Agentblazers de todo el mundo para mejorar tus habilidades en IA, descubrir casos de uso, escuchar a expertos en productos y mucho más. Aumenta tus conocimientos en IA e impulsa tu carrera.

Tiempos de respuesta más rápidos a preguntas complejas

Después de agregar una gran cantidad de datos no estructurados a su base de datos vectoriales, incluidos registros de chat y un historial de correos electrónicos de dos años, Algo Communications comenzó a probar esta tecnología en diciembre de 2023 con algunos de sus CSR. Trabajaron en un pequeño conjunto de muestras: alrededor del 10 % de la base de productos de la compañía. Los CSR tardaron alrededor de dos meses en familiarizarse con la herramienta. Durante la implementación, el equipo de liderazgo de la compañía se mostró entusiasmado al ver que los CSR ganaban mayor confianza para responder preguntas detalladas con la ayuda de la RAG. En ese momento, comenzaron a implementar la RAG en toda la compañía.

"Explorar la RAG nos ayudó a comprender que íbamos a ser capaces de introducir muchos más datos", dijo Ryan Zoehner, vicepresidente de Operaciones Comerciales en Algo Communications. "Nos iba a permitir desglosar muchas de esas respuestas realmente complejas y ofrecer respuestas de cinco y seis partes de una manera que los clientes supieran que había alguien respondiendo que conocía el asunto a nivel técnico".

Tan solo dos meses después de incorporar la RAG, el equipo de Servicio de Atención al Cliente de Algo pudo completar los casos de manera más rápida y eficiente, lo que les ayudó a pasar a consultas nuevas un 67 % más rápido. En la actualidad, la RAG llega al 60 % de sus productos y seguirá expandiéndose. La compañía también comenzó a agregar nuevos registros de chat y conversaciones a la base de datos, lo que refuerza la solución con un contexto aún más relevante. El uso de la RAG también le ha permitido a Algo reducir el tiempo de inducción a la mitad, lo que le ha permitido crecer más rápido.

"RAG nos está volviendo más eficientes", afirmó Zoehner. "Está haciendo que nuestros empleados estén más contentos con su trabajo y nos ayuda a incorporar todo más rápido. Lo que ha hecho que esto sea diferente de todo lo demás que intentamos hacer con los LLM es que nos permitió mantener nuestra marca, nuestra identidad y los valores de quiénes somos como compañía".

Con la RAG que les brinda a los CSR de Algo una asistencia de IA, el equipo ha podido dedicar más tiempo a añadir un toque humano a las interacciones con los clientes.

"Permite a nuestro equipo dedicar un poquito de tiempo adicional a asegurarse de que la respuesta llegue de la manera correcta", dijo Zoehner. "Esa humanidad nos permite llevar nuestra marca a todo. También nos da garantía de calidad en todos los ámbitos".