Che cos'è la Generazione aumentata di recupero (RAG)?
Come portare i prompt dell'intelligenza artificiale generativa a un livello superiore con la Generazione aumentata di recupero, o RAG.
Ari Bendersky
Come portare i prompt dell'intelligenza artificiale generativa a un livello superiore con la Generazione aumentata di recupero, o RAG.
Ari Bendersky
Nel 2023, la canadese Algo Communications si è trovata ad affrontare una sfida. L'azienda era pronta per una rapida crescita, ma non riusciva a formare i rappresentanti del servizio clienti abbastanza velocemente per stare al passo con la sua espansione. Per affrontare questa sfida, l'azienda si è rivolta a una soluzione innovativa: l'intelligenza artificiale generativa.
Algo ha adottato un modello linguistico di grandi dimensioni (LLM) per favorire un più rapido onboarding dei nuovi rappresentanti. Per formarli a rispondere alle domande complesse dei clienti con precisione e scioltezza, Algo sapeva di aver bisogno di qualcosa di più robusto di un LLM standard, che di solito viene addestrato su internet e non dispone del contesto aziendale specifico necessario per rispondere alle domande in modo accurato. Ecco che entra in gioco la Generazione aumentata di recupero, meglio conosciuta semplicemente come RAG.
Molti di noi hanno già utilizzato un'intelligenza artificiale generativa attraverso app di chat come ChatGPT di OpenAI o Gemini di Google (ex Bard) per scrivere e-mail o creare un testo efficace per i social media. Tuttavia, ottenere risultati ottimali non è sempre facile, soprattutto se non si è ancora acquisita l'arte e la scienza di creare un prompt eccellente.
Ecco perché un modello AI è valido solo quanto lo sono i contenuti che apprende. Per svilupparsi, ha bisogno di un contesto adeguato e di una serie di dati concreti, e non di informazioni generiche. Un LLM standard non è sempre aggiornato, né può accedere in modo affidabile ai tuoi dati o comprendere le relazioni con i tuoi clienti. È qui che la RAG può aiutare.
La RAG è una tecnica di AI che permette alle aziende di incorporare automaticamente i dati proprietari più attuali e rilevanti direttamente nei prompt LLM, e non parliamo solo di dati strutturati, come un foglio di calcolo o un database relazionale; ci riferiamo al recupero di tutti i dati disponibili, compresi quelli non strutturati, come e-mail, PDF, registri di chat, post sui social media e altri tipi di informazioni che potrebbero portare a un migliore output dell'AI.
Scopri quanto tempo e denaro puoi risparmiare con un team di agenti basati sull'AI che lavorano fianco a fianco con i tuoi dipendenti e la tua forza lavoro. Rispondi a quattro semplici domande per scoprire cosa è possibile fare con Agentforce.
In poche parole, la RAG aiuta le aziende a recuperare e utilizzare i loro dati da varie fonti interne per ottenere migliori risultati di intelligenza artificiale generativa. Poiché il materiale di partenza proviene dai tuoi dati affidabili, aiuta a ridurre o addirittura eliminare le allucinazioni e altri risultati errati. In conclusione, puoi fidarti del fatto che le risposte siano pertinenti e accurate.
Per ottenere questa maggiore precisione, la RAG opera insieme a un tipo di database specializzato, detto database vettoriale, per memorizzare i dati in un formato numerico che abbia senso per l'AI e recuperarli quando richiesto.
“La RAG non può funzionare se il database vettoriale non fa il suo lavoro”, ha dichiarato Ryan Schellack, direttore marketing dei prodotti AI di Salesforce. "Le due cose vanno di pari passo. Quando un'azienda parla di supporto alla Generazione aumentata di recupero, intende almeno due elementi: un archivio vettoriale per la memorizzazione delle informazioni e un meccanismo di ricerca ad apprendimento automatico progettato per funzionare con quel tipo di dati”.
Lavorando in tandem con un database vettoriale, la RAG può rivelarsi uno strumento potente per generare output LLM migliori, ma non è una soluzione definitiva. Gli utenti devono comunque conoscere le basi della scrittura di un prompt chiaro.
Connettiti con Agentblazer di tutto il mondo per migliorare le tue competenze sull'AI, scoprire casi d'uso, ascoltare esperti di prodotto e altro ancora. Migliora le tue competenze di AI – e la tua carriera.
Dopo aver aggiunto un'enorme quantità di dati non strutturati al suo database di vettori, compresi i log delle chat e due anni di cronologia delle e-mail, Algo Communications ha iniziato a testare questa tecnologia nel dicembre 2023 con alcuni rappresentanti del servizio clienti, lavorando su un piccolo campione di circa il 10% della base prodotti dell'azienda. Ci sono voluti circa due mesi prima che i rappresentanti prendessero confidenza con lo strumento. Durante l'implementazione, la leadership aziendale è stata entusiasta di vederli acquisire maggiore sicurezza nel rispondere a domande approfondite con l'assistenza della RAG. A questo punto, l'azienda ha iniziato a implementare la RAG in tutta l'azienda.
"Conoscere la RAG ci ha aiutato a capire che avremmo potuto acquisire molti più dati", ha dichiarato Ryan Zoehner, Vice Presidente delle operazioni commerciali di Algo Communications. "Ci avrebbe permesso di scomporre molte delle risposte più complesse e di fornire risposte in cinque o sei parti in modo da far capire ai clienti che c'era una persona tecnicamente esperta a rispondere".
In soli due mesi dall'aggiunta della RAG, il team dell'assistenza clienti di Algo è stato in grado di completare i casi in modo più rapido ed efficiente, consentendo di passare alle nuove richieste il 67% più velocemente. La RAG ora tocca il 60% dei suoi prodotti e continuerà ad espandersi. L'azienda ha anche iniziato ad aggiungere nuovi log di chat e conversazioni al database, rafforzando la soluzione con un contesto ancora più rilevante. L'utilizzo della RAG ha inoltre permesso ad Algo di dimezzare i tempi di onboarding, consentendole di crescere più rapidamente.
“La RAG sta migliorando la nostra efficienza”, ha detto Zoehner. "Rende i nostri collaboratori più soddisfatti del loro lavoro e ci aiuta ad avviare tutte le attività più velocemente. Ciò che ha reso questo progetto diverso da tutti gli altri che abbiamo cercato di realizzare con gli LLM è che ci ha permesso di mantenere il nostro marchio, la nostra identità e la nostra etica come azienda”.
Con la RAG che fornisce ai rappresentanti del servizio clienti di Algo un'assistenza AI, il team ha potuto dedicare più tempo ad aggiungere un contributo umano alle interazioni con i clienti.
“Permette al nostro team di dedicare un po' di tempo in più ad assicurarsi che la risposta arrivi nel modo giusto”, ha detto Zoehner. "Questa umanità ci permette di includere il nostro marchio in tutto, oltre a offrirci una garanzia di qualità su tutta la linea".
Scopri tutti i dettagli di come funziona la creazione di agenti nella nostra libreria.
Collabora con gli esperti Professional Services per creare rapidamente agenti e sfruttarne subito il valore.
Parlaci delle esigenze della tua azienda e ti aiuteremo a trovare le risposte.