La console di assistenza mostra una finestra di chat con Einstein che aiuta a rispondere alle domande.

Che cos'è un motore di ragionamento?

Scopri di più sul mondo degli LLM e sfrutta al meglio il tuo copilota conversazionale.

Shipra Gupta

Immagina se l'intelligenza artificiale potesse automatizzare le attività aziendali di routine come la stesura di e-mail, la generazione di briefing per le campagne, la creazione di pagine web, la ricerca di concorrenti, l'analisi dei dati e la sintesi delle chiamate. L'automazione di queste attività ripetitive può liberare un'immensa quantità di tempo e sforzi umani preziosi per attività più complesse e creative, come la strategia di business e la creazione di relazioni.

L'automazione di queste attività di routine richiede la simulazione dell'intelligenza umana, facendo funzionare l'AI come motore di ragionamento. È l'intelligenza artificiale generativa a un livello superiore. Oltre a comunicare in linguaggio naturale, l'AI aiuterà anche a risolvere i problemi e a prendere decisioni. Imparerà dalle informazioni fornite, valuterà pro e contro, predirà i risultati e prenderà decisioni logiche. Visti i progressi tecnologici degli ultimi tempi, siamo alle soglie di questa capacità AI e ciò entusiasma molte persone nella comunità scientifica e imprenditoriale.

L'AI di livello enterprise integrata nel CRM per le aziende

Intelligenza artificiale di Salesforce

Salesforce AI offre un'intelligenza artificiale affidabile ed estensibile, integrata nel tessuto della nostra Salesforce Platform. Utilizza la nostra intelligenza artificiale nei dati dei tuoi clienti per creare esperienze con un'AI personalizzabile, predittiva e generativa in grado di adattarsi in modo sicuro a tutte le tue esigenze aziendali. Integra l'AI conversazionale in qualsiasi workflow, utente, reparto e settore con Einstein.

Che cos'è un motore di ragionamento?

Un motore di ragionamento è un sistema AI che imita il processo decisionale e le capacità di risoluzione dei problemi degli esseri umani sulla base di regole, logica e dati specifici. Esistono tre tipi di ragionamento umano o di meccanismi di inferenza che i motori di ragionamento tendono a emulare:

  1. Ragionamento deduttivo: compie un'inferenza basata su fatti universali e generalmente accettati. Ad esempio: "Tutti gli uccelli depongono le uova. Il piccione è un uccello. Pertanto, i piccioni depongono le uova".
  2. Ragionamento induttivo: deriva una conclusione da istanze o esempi specifici. Un simile ragionamento potrebbe essere: "Ogni cane che incontro è amichevole. Pertanto, tutti i cani sono amichevoli!"
  3. Ragionamento abduttivo: trae una probabile conclusione da informazioni incomplete (e spesso ambigue), come ad esempio: "Ci sono fogli strappati su tutto il pavimento e il nostro cane era solo nell'appartamento. Pertanto, deve essere stato il cane a strappare i documenti".

Ormai tutti sanno che i modelli linguistici di grandi dimensioni (LLM) sono speciali modelli di apprendimento automatico in grado di generare nuovi contenuti utili dai dati su cui vengono addestrati. Oltre a ciò, gli LLM oggi mostrano anche la capacità di comprendere il contesto, trarre inferenze logiche dai dati e collegare varie informazioni per risolvere un problema. Queste caratteristiche consentono a un LLM di agire come un motore di ragionamento.

Quindi, come fa un LLM a risolvere un comune problema di matematica aziendale valutando le informazioni, generando un piano e applicando una serie di regole note?

Supponiamo che la proprietaria di un bar voglia sapere quanti caffè deve vendere al mese per andare in pareggio. Il prezzo è di 3,95 EUR a tazza, i costi fissi mensili sono di 2.500 EUR e i costi variabili per unità sono di 1,40 EUR.

L'LLM applica una serie di regole matematiche note per ottenere sistematicamente la risposta:

Fase 1

Identificare i valori pertinenti.

Fase 2

Calcolare il margine di contribuzione per caffè. Il margine di contribuzione è il prezzo di vendita meno il costo variabile.
= 3,95 EUR - 1,40 EUR = 2,55 EUR

Fase 3

Applicare la formula di calcolo del punto di pareggio. Il punto di pareggio è il costo fisso diviso per il margine di contribuzione.
= 2.500 EUR/2,55 EUR = 980,39

Fase 4:

Arrotondare per eccesso al numero intero più vicino.
Punto di pareggio = 981 caffè

Messaggio di benvenuto con Astro che tiene in mano il logo di Einstein.

L'AI pensata per il business

L'AI per le aziende direttamente integrata nel tuo CRM. Massimizza la produttività in tutta l'organizzazione integrando l'AI per il business in ogni app e workflow per renderla accessibile a tutti gli utenti. Consenti agli utenti di offrire ai clienti, con l'aiuto dell'AI, un'esperienza di maggiore impatto nell'ambito delle vendite, dell'assistenza, dell'e-commerce e non solo.

Come far funzionare gli LLM come motori di ragionamento efficaci

La popolarità dei modelli linguistici di grandi dimensioni è salita alle stelle nell'autunno del 2022, ma gli scienziati sono stati impegnati a sperimentare questi modelli attraverso vari prompt. Il "Prompting", o ingegneria dei prompt, è un settore in rapida ascesa in cui una serie di istruzioni di input (prompt) accuratamente elaborate vengono inviate all'LLM per generare i risultati desiderati. Quando usiamo dei prompt per generare un piano logico di passaggi per raggiungere un obiettivo, si parla anche di “strategie di ragionamento”. Vediamo di seguito alcune delle strategie di ragionamento più diffuse:

  • Chain-of-Thought (CoT): si tratta di una delle strategie di ragionamento più diffuse. Questo approccio imita il processo decisionale in stile umano, istruendo un LLM a scomporre un problema complesso in una sequenza di passaggi. Questa strategia viene anche definita "pianificatore sequenziale". Il ragionamento CoTSi apre una nuova finestra è in grado di risolvere problemi matematici a parole, di portare a termine ragionamenti di buon senso e di risolvere compiti che un essere umano può risolvere con il linguaggio. Un vantaggio del CoT è che permette agli ingegneri di sbirciare nel processo e, se le cose vanno male, di identificare cosa è andato storto per risolverlo.
  • Ragionamento e azione (ReAct): questa strategia sfrutta le informazioni del mondo reale per ragionare, oltre ai dati su cui l'LLM è stato addestrato. Il ragionamento basato su ReActSi apre una nuova finestra è considerato più simile alla risoluzione di un compito umano che implica un processo decisionale interattivo e un ragionamento verbale, che porta a una migliore gestione degli errori e a un minor tasso di allucinazioni. Sinergizza il ragionamento e l'azione attraverso l'azione dell'utente, aumentando l'interpretabilità e l'affidabilità delle risposte. Questa strategia viene anche definita “pianificatore a tappe” perché si avvicina alla risoluzione dei problemi in modo graduale e cerca di ottenere un feedback dall'utente in ogni fase.
  • Tree of Thoughts (ToT): questa variante dell'approccio Chain-of-Thought genera pensieri multipli ad ogni passaggio intermedio. Invece di scegliere un solo percorso di ragionamento, esplora e valuta lo stato attuale dell'ambiente a ogni passo per guardare avanti o tornare indietro e prendere decisioni più ponderate. È stato dimostrato che questa strategia supera in modo significativo il CoT in compiti complessi come i giochi matematici, gli esercizi di scrittura creativa e i mini cruciverba. Il ragionamento TOTSi apre una nuova finestra è ritenuto ancora più vicino a un paradigma decisionale umano che esplora più opzioni, soppesa i pro e i contro e poi sceglie la migliore.
  • Reasoning via Planning (RAP): questa strategia utilizza gli LLM come motore di ragionamento e modello del mondo per prevedere lo stato dell'ambiente e simulare l'impatto a lungo termine delle azioni. Integra diversi concetti, come l'esplorazione di percorsi di ragionamento alternativi, l'anticipazione di stati e ricompense future e il perfezionamento iterativo delle fasi di ragionamento esistenti per ottenere migliori prestazioni di ragionamento. Il ragionamento basato su RAPSi apre una nuova finestra vanta prestazioni superiori rispetto a vari parametri di base per compiti che riguardano la pianificazione, il ragionamento matematico e l'inferenza logica.

Queste sono solo alcune delle strategie più promettenti oggi. Il processo di applicazione di queste strategie a un'applicazione AI reale è iterativo e comporta la modifica e la combinazione di varie strategie per ottenere le prestazioni migliori.

In che modo le applicazioni reali possono utilizzare i motori di ragionamento?

È piuttosto entusiasmante che gli LLM funzionino come motori di ragionamento, ma come si fa a renderli utili nel mondo reale? Per fare un'analogia con gli esseri umani, se gli LLM sono come il cervello con capacità argomentative, progettuali e decisionali, abbiamo comunque bisogno di mani e gambe per agire. Ecco quindi che nasce l'"agente AI", un sistema di intelligenza artificiale che contiene sia capacità di ragionamento che di azione. Alcuni dei termini prevalenti per definire la capacità di agire sono “strumenti”, “plug-in” e “azioni”.

Esistono due tipi di agenti AI: completamente autonomi e semi-autonomi. Gli agenti completamente autonomi sono in grado di prendere decisioni autonomamente senza alcun intervento umano e di agire di conseguenza. Questi tipi di agenti sono attualmente in modalità sperimentale. Gli agenti semi-autonomi sono quegli agenti che "coinvolgono un umano nel ciclo" per attivare le richieste. Si inizia a vedere l'adozione di agenti semi-autonomi soprattutto nelle applicazioni AI come i chatbot conversazionali, tra cui Einstein Copilot, ChatGPT e Duet AI.

Un agente AI ha quattro componenti chiave:

  1. Obiettivo: l'obiettivo o il compito primario dell'agente.
  2. Ambiente: le informazioni contestuali, come l'obiettivo, l'input iniziale dell'utente, la cronologia delle attività o delle conversazioni precedenti, i dati di base per la rilevanza, il feedback dell'utente e i dati su cui l'LLM è stato addestrato.
  3. Ragionamento: la capacità intrinseca dell'LLM di fare osservazioni, pianificare le azioni successive e ricalibrare per ottimizzare l'obiettivo.
  4. Azione: in genere indica strumenti esterni per consentire a un agente di raggiungere l'obiettivo. Alcuni esempi comuni di azioni sono il recupero di informazioni, la ricerca, la generazione di codici, l'interpretazione di codici e la generazione di dialoghi.

In che modo Einstein Copilot utilizza gli LLM come motore di ragionamento?

Einstein Copilot è l'assistente conversazionale avanzato basato sull'AI di Salesforce, che interagisce con i dipendenti e i clienti di un'azienda in linguaggio naturale. I dipendenti possono usarlo per svolgere una serie di compiti nel flusso di lavoro, contribuendo ad aumentare la produttività su scala. I consumatori possono invece utilizzarlo per chattare con i brand e ottenere risposte immediate alle loro domande, con conseguente aumento della soddisfazione e della fidelizzazione. Einstein Copilot utilizza gli LLM per le abilità linguistiche, come la comprensione e la generazione di contenuti e anche come motore di ragionamento, per pianificare compiti complessi, riducendo così il carico cognitivo degli utenti.

Ecco quali sono le sue caratteristiche:

  1. L'utente digita l'obiettivo che vuole raggiungere, ad esempio: “Creare una pagina web”.
  2. Einstein Copilot utilizza un prompt curato per inviare l'input dell'utente a un LLM sicuro che deduca l'intento dell'utente.
  3. In base all'intento, Einstein Copilot invia un altro prompt curato per indicare all'LLM di generare un piano per soddisfare tale intento.
  4. Il piano generato è un insieme di azioni concatenate in una sequenza logica. Al fine di garantire che Einstein Copilot agisca in modo affidabile, l'LLM è incaricato di generare piani rigorosamente con le azioni che gli vengono messe a disposizione.
  5. Non appena l'LLM restituisce un piano, Einstein Copilot esegue le azioni nella sequenza prescritta per generare il risultato desiderato e lo trasmette all'utente.

Visivamente, questo avrà l'aspetto seguente:

Einstein Copilot e motore di ragionamento grafico

Quali vantaggi può trarre la tua azienda da Einstein Copilot?

Einstein Copilot offre alle aziende la possibilità di sfruttare gli LLM come motori di ragionamento. Grazie a questo strumento, le aziende possono utilizzare l'intelligenza artificiale per svolgere una serie di compiti che fino a pochi mesi fa non erano considerati realizzabili.

  • Se un team di vendita vede una pipeline ridotta, Einstein Copilot può scansionare i database per trovare lead di alta qualità che valgano la pena di coinvolgere.
  • Copilot analizza le potenziali trattative per trovare quelle a rischio e, se richiesto, può riepilogare i record per i manager.
  • Copilot può aiutare gli agenti dell'assistenza a risolvere un problema di fatturazione multipla per un cliente, raccogliendo le informazioni giuste per la risoluzione dei problemi.
  • Copilot può analizzare l'attuale sentiment dei clienti per una potenziale trattativa e consigliare le azioni necessarie per chiudere la trattativa nei tre mesi successivi.

In questi casi d'uso e in molti altri simili, Einstein Copilot agisce essenzialmente come un agente semi-autonomo, utilizzando gli LLM come motori di ragionamento e compiendo azioni per portare a termine i compiti quando gli utenti lo richiedono. Questo è solo l'inizio; la prossima frontiera è rendere Einstein Copilot completamente autonomo in modo che non si limiti a fornire assistenza, ma sia proattivo e onnipresente. Il futuro dell'AI è entusiasmante, ma ancora più entusiasmanti sono i risultati in termini di efficienza globale che sicuramente arriveranno.