Skip to Content

RAG – as três letras mais populares em IA generativa no momento

Usar RAG, ou geração aumentada de recuperação, pode ajudar a impulsionar seu trabalho generativo de IA. [Adobe Estoque | Ciência do Estúdio]

Como levar os prompts generativos de IA para o próximo nível com geração aumentada de recuperação, ou RAG.

Em 2023, a Algo Communications, com sede no Canadá, enfrentou um desafio. A empresa estava preparada para um rápido crescimento, mas não conseguia treinar representantes de Atendimento ao Cliente (CSRs) com rapidez suficiente para acompanhar sua expansão. Para enfrentar este desafio, a empresa recorreu a uma solução inovadora: IA generativa. 

A empresa Algo adotou um grande modelo de linguagem (LLM) para ajudar a integrar novos CSRs com mais rapidez. Para treiná-los para responder questões complexas dos clientes com precisão e fluência, a Algo sabia que precisava de algo mais robusto do que um LLM pronto para uso, que normalmente é treinado na Internet pública e não possui o contexto de negócios específico necessário para responder perguntas com precisão. É aqui que entra a geração aumentada de recuperação, mais conhecida simplesmente como RAG. 
 
Até agora, muitos de nós já usamos uma Inteligência Artificial Generativa com um Modelo de Linguagem de Grande Porte por meio de aplicativos de bate-papo como ChatGPT, da OpenAI, ou Gemini, do Google, (anteriormente Bard) para ajudar a escrever um e-mail ou criar um conteúdo para redes sociais. Mas obter os melhores resultados nem sempre é fácil – especialmente se você não domina a arte e a ciência de criar um ótimo prompt. 

Eis o porquê: um modelo de IA é tão bom quanto aquilo que é ensinado. Para prosperar, precisa do contexto adequado e de uma grande quantidade de dados factuais – e não de informações genéricas. Um LLM pronto para uso nem sempre está atualizado, nem terá acesso confiável aos seus dados ou compreenderá o relacionamento com o cliente. É aí que a RAG pode ajudar. 

Inteligência Artificial para CRM

Neste e-book, você aprenderá sobre IA, o que é e como ela está transformando os negócios.

O que é RAG?

RAG é uma técnica de IA que permite às empresas incorporarem automaticamente seus dados proprietários mais atuais e relevantes diretamente em seu prompt LLM. E não estamos falando apenas de dados estruturados como uma planilha ou um banco de dados relacional. Queremos dizer recuperar todos os dados disponíveis, incluindo dados não estruturados: e-mails, PDFs, registros de bate-papo, postagens em mídias sociais e outros tipos de informações que possam levar a um melhor resultado de IA.   

Como funciona a Geração Aumentada de Recuperação?  

Resumindo, o RAG ajuda as empresas a recuperar e usar seus dados de diversas fontes internas para obter melhores resultados generativos de IA. Como o material de origem provém de seus próprios dados confiáveis, ele ajuda a reduzir ou até eliminar distorções e outros resultados incorretos. Resumindo: você pode confiar que as respostas serão relevantes e precisas. 

Para alcançar essa precisão aprimorada, o RAG trabalha em conjunto com um tipo especializado de banco de dados – chamado banco de dados vetorial – para armazenar dados em um formato numérico que faça sentido para a IA e recuperá-los quando solicitado.  

Segundo Ryan Schellack, diretor de marketing de produtos de IA da Salesforce “o RAG não pode fazer seu trabalho sem que o banco de dados vetorial faça seu trabalho. Os dois vão de mãos dadas. Quando você vê uma empresa falando sobre o suporte à geração aumentada de recuperação, ela está apoiando, no mínimo, duas coisas: um armazenamento de vetores para guardar informações e, em seguida, algum tipo de mecanismo de pesquisa de aprendizado de máquina projetado para funcionar com esse tipo de dado.”  

Trabalhando em conjunto com um banco de dados vetorial, o RAG pode ser uma ferramenta poderosa para gerar melhores resultados de LLM, mas não é uma solução mágica. Os usuários ainda devem compreender os fundamentos da escrita de um prompt claro

Resposta rápidas para perguntas complexas

Depois de adicionar uma enorme quantidade de dados não estruturados ao seu banco de dados vetorial, incluindo registros de bate-papo e dois anos de histórico de e-mail, a Algo Communications começou a testar essa tecnologia em dezembro de 2023 com alguns de seus CSRs. Eles trabalharam com uma pequena amostra: aproximadamente 10% da base de produtos da empresa. Demorou cerca de dois meses para que os CSRs se sentissem confortáveis com a ferramenta. Durante a implementação, a liderança da empresa ficou entusiasmada ao ver os CSRs ganharem maior confiança para responder a perguntas aprofundadas com a assistência do RAG. Nesse ponto, a Algo começou a implantar o RAG de forma mais ampla em toda a empresa.  

Em apenas dois meses após a adição do RAG, a equipe de atendimento ao cliente da Algo conseguiu concluir os casos com mais rapidez e eficiência, o que os ajudou a avançar para novas consultas 67% mais rápido.” 

“Explorar o RAG nos ajudou a entender que seríamos capazes de trazer muito mais dados”, disse Ryan Zoehner, vice-presidente de operações comerciais da Algo Communications. “Isso nos permitiria decompor muitas dessas respostas realmente complexas e fornecer respostas em cinco e seis partes de uma forma que os clientes soubessem que [havia] alguém com experiência técnica para respondê-las.” 

Em apenas dois meses após a adição do RAG, a equipe de atendimento ao cliente da Algo conseguiu concluir os casos com mais rapidez e eficiência, o que os ajudou a avançar para novas consultas 67% mais rápido. A RAG agora atinge 60% de seus produtos e continuará a se expandir. A empresa também passou a adicionar novos logs de chat e conversas ao banco de dados, reforçando sua solução com um contexto ainda mais relevante. O uso do RAG também permitiu que a Algo reduzisse pela metade o tempo de integração, permitindo-lhe crescer mais rapidamente.  

A RAG está nos tornando mais eficientes”, é que confirma Zoehner. “Isso está deixando nossos funcionários mais felizes com seu trabalho e nos ajudando a integrar tudo com mais rapidez. O que tornou isso diferente de tudo o que tentamos fazer com os LLMs é que nos permitiu manter nossa marca, nossa identidade e o espírito de quem somos como empresa.” 

Com a RAG fornecendo aos CSRs da Algo assistência de IA, a equipe conseguiu dedicar mais tempo para adicionar um toque humano às interações com os clientes.  

“Isso permite que nossa equipe gaste um pouco mais para garantir que a resposta chegue da maneira certa”, disse Zoehner. “Essa humanidade nos permite levar nossa marca a tudo. Também nos dá garantia de qualidade em todos os aspectos.”

Gostou de saber mais sobre RAG?

Nosso blog e Centro de Recursos estão sempre atualizados com novidades e conteúdos sobre CRM tecnologia. Abaixo sugerimos outras leituras que podem ser úteis a você:

Aproveite para conferir todas as funcionalidades do Einstein GPT e entender como nosso CRM transforma os recursos tecnológicos da sua empresa. Bom trabalho e até a próxima!