Skip to Content

RAG – las 3 letras más populares del momento en IA generativa

El uso de RAG, o generación aumentada de recuperación, puede ayudarte a impulsar el uso de la IA generativa en tu negocio.

Cómo llevar las indicaciones generativas de IA al siguiente nivel con la generación aumentada de recuperación o RAG.

En 2023, la empresa Algo Communications, con sede en Canadá, se enfrentó a un desafío. Estaban preparados para un rápido crecimiento, pero no lograron capacitar a los representantes de servicio al cliente (CSR) lo suficientemente rápido como para mantenerse al día con su expansión. Para abordar este desafío, la empresa recurrió a una solución novedosa: la IA generativa. 

Algo adoptó un modelo de lenguaje grande (LLM) para incorporar nuevos representantes más rápido. Con el fin de capacitarlos para responder preguntas complejas de los clientes con precisión y fluidez, Algo sabía que necesitaba una solución más robusta que un LLM estándar, normalmente entrenado en el Internet público, y que carece del contexto empresarial específico necesario para responder preguntas con precisión. Es aquí donde entra la generación aumentada de recuperación, más conocida simplemente como RAG. 

A estas alturas, muchos de nosotros ya hemos utilizado los LLM de IA generativa mediante aplicaciones de chat como ChatGPT de OpenAI, o Gemini de Google (anteriormente Bard), para ayudar a escribir un correo electrónico o crear publicaciones inteligentes en redes sociales. Sin embargo, obtener los mejores resultados no siempre es fácil, especialmente si no se domina el arte y la ciencia de crear un gran mensaje.  

Estas son las razones: Un modelo de IA solo será tan bueno como se le enseñe. Para que prospere, necesita el contexto adecuado y una gran cantidad de datos fácticos, y no información genérica. Los LLM listos para usar no siempre están actualizados, ni tendrán acceso confiable a tus datos ni comprenderá cómo tu empresa se relaciona con los clientes. Ahí es donde la RAG puede ayudar.  

Una RAG es una técnica de IA que permite a las empresas incrustar automáticamente sus datos protegidos más actuales y relevantes directamente en la solicitud de LLM. Y no solo se trata de datos estructurados como una hoja de cálculo o una base de datos relacional. Esta recupera todos los datos disponibles, incluidos los datos no estructurados: correos electrónicos, archivos PDF, registros de chat, publicaciones en redes sociales y otros tipos de información que podrían conducir a un mejor resultado de IA.   

Inteligencia Artificial para CRM

En este e-book, aprenderás sobre la IA, qué es y cómo está transformando los negocios.

¿Cómo funciona la generación aumentada de recuperación?  

En pocas palabras, la RAG ayuda a las empresas a recuperar y utilizar sus datos de diversas fuentes internas para obtener mejores resultados de IA generativa. Debido a que el material de origen proviene de sus propios datos confiables, ayuda a reducir o incluso eliminar las alucinaciones y otros tipos de información incorrecta. En conclusión: Es posible confiar en que las respuestas son relevantes y precisas. 

Para lograr esta precisión mejorada, la RAG trabaja en conjunto con un tipo especializado de base de datos, llamada base de datos vectorial, para almacenar datos en un formato numérico que tenga sentido para la IA y recuperarlos cuando se le solicite.  

“Una RAG no puede hacer su trabajo sin que la base de datos vectorial haga el suyo”, asevera Ryan Schellack, director de marketing de productos de IA en Salesforce. “Ambos van de la mano. Cuando ves que una empresa habla de admitir la generación aumentada de recuperación, como mínimo admite dos cosas: un almacén vectorial para almacenar información y luego algún tipo de mecanismo de búsqueda de aprendizaje automático diseñado para funcionar contra ese tipo de datos”.  

Al trabajar en conjunto con una base de datos vectorial, la RAG puede ser una herramienta poderosa para generar mejores resultados de LLM, pero no es una solución mágica. Los usuarios aún deben comprender los fundamentos de redactar una entrada o prompt claro

Tiempos de respuesta más rápidos a preguntas complejas 

Después de añadir una enorme cantidad de datos no estructurados a su base de datos vectorial, incluidos los registros de chat y dos años de historial de correo electrónico, Algo Communications comenzó a probar esta tecnología en diciembre de 2023 con algunos de sus representantes de servicio al cliente. Trabajaron en un pequeño conjunto de muestras: de alrededor del 10% de la base de productos de la empresa. Los representantes tardaron alrededor de dos meses en sentirse cómodos con la herramienta. Durante la implementación, los líderes de la empresa se entusiasmaron al ver que los representantes adquieren una mayor confianza al responder preguntas a profundidad con la ayuda de la RAG. En ese momento, comenzaron a implementar la RAG en toda la empresa. 

En solo dos meses después de añadir la RAG, el equipo de servicio al cliente de Algo pudo completar los casos de manera más rápida y eficiente, lo que les ayudó a pasar a atender nuevas consultas un 67 % más rápido. 

“Explorar la RAG nos ayudó a comprender que íbamos a poder aportar muchos más datos”, dijo Ryan Zoehner, vicepresidente de operaciones comerciales de Algo Communications. “Nos permitiría desglosar muchas de esas respuestas realmente complejas y entregar respuestas de cinco y seis partes, de forma en que los clientes supieran que [había] alguien técnicamente experto respondiéndoles”. 

“En solo dos meses después de añadir la RAG, el equipo de servicio al cliente de Algo pudo completar los casos de manera más rápida y eficiente, lo que les ayudó a pasar a atender nuevas consultas un 67 % más rápido”. La RAG ahora impacta el 60 % de sus productos y seguirá expandiéndose. La empresa también comenzó a añadir nuevos registros de chat y conversaciones a la base de datos, reforzando esta solución con un contexto aún más relevante. El uso de la RAG también ha permitido a Algo reducir su tiempo de incorporación de nuevos empleados a la mitad, lo que les permite crecer más rápido.  

“La RAG nos está haciendo más eficientes”, expresó Zoehner. “Está haciendo que nuestros empleados estén más contentos con su trabajo y nos está ayudando a incorporar todo más rápido. La diferencia de todo lo demás que hemos intentado hacer con los LLM es que nos ha permitido mantener nuestra marca, nuestra identidad y el espíritu de lo que somos como empresa”. 

Al proporcionar a los representantes de servicio al cliente de Algo una asistencia de IA con la RAG, el equipo ha podido dedicar más tiempo a añadir un toque humano a las interacciones con los clientes.  

“Permite a nuestro equipo dedicarse un poco más a asegurarse de que la respuesta llegue de la manera correcta”, dijo Zoehner. “Esa humanidad nos permite llevar nuestra marca a todas partes. También nos proporciona garantía de calidad en todos los ámbitos”.  

¿Te gustó saber más sobre RAG?

Nuestro blog y Centro de Recursos están siempre actualizados con novedades y contenidos sobre CRM e inteligencia artificial. A continuación, te sugerimos otros materiales que te podrían resultar útiles.

Aprovecha para conocer todas las funcionalidades del Einstein y entender cómo puede transformar tus resultados.