Oggi è difficile da credere, ma un tempo i consumatori diffidavano dell’e-commerce. Prima di accogliere a braccia aperte quella che è diventata un’attività da 1.000 miliardi di dollari l’anno, avevano dubbi sulla sicurezza dei loro dati personali e finanziari. Mancava la fiducia.
Oggi, invece, la fiducia è il fulcro della diffusione e del successo con cui le aziende e i clienti accoglieranno l’emergere dell’AI generativa. Alcune aziende stanno integrando l’intelligenza artificiale nei loro prodotti senza fare il duro lavoro di eliminare i pregiudizi, fornire trasparenza e garantire che i dati dei clienti siano protetti al 100%. Sempre più leader, però, stanno capendo che è proprio questo lavoro che farà la differenza per quanto riguarda la fiducia delle persone nella AI.
“Tutti i nostri reparti hanno grandi idee su come utilizzare l’AI generativa”, ha dichiarato Shohreh Abedi, EVP, COO e CTO di AAA. “Non voglio soffocare la creatività, ma non voglio nemmeno rischiare di essere vulnerabile”.
Il punto di vista dei dipendenti
- In un sondaggio condotto su oltre 4.000 dipendenti dei settori vendite, assistenza, marketing e commercio, il 73% ha dichiarato di ritenere che l’AI generativa introduca nuovi rischi per la sicurezza
- Il 60% di coloro che hanno intenzione di utilizzare l’intelligenza artificiale ha dichiarato di non sapere come farlo mantenendo al sicuro i dati sensibili
- Questi rischi sono particolarmente preoccupanti in settori altamente regolamentati come quello dei servizi finanziari e quello sanitario
Cosa puoi fare ora
Collaborare con aziende che creano protezioni nel tessuto dei loro sistemi di intelligenza artificiale. Perché è importante?
- I modelli linguistici di grandi dimensioni (LLM) contengono enormi quantità di dati, ma sono diversi da altri archivi di dati come i database o i fogli di calcolo Excel. Non hanno le protezioni di sicurezza e i controlli di accesso dei grandi database, né le funzioni di privacy di un foglio di calcolo
- “Non si possono prendere tutte le informazioni più sensibili, private e sicure dei clienti e metterle in un modello linguistico di grandi dimensioni a cui tutti i dipendenti avranno accesso”, spiega Marc Benioff, CEO di Salesforce
Il report “State of IT”
Un nuovo sondaggio condotto su 4.000 leader IT rivela il potenziale e le sfide dell’AI generativa. Vuoi saperne di più?



Come integrare la privacy dei dati dell’AI nel tessuto dei sistemi
Patrick Stokes, EVP, Product and Industries Marketing di Salesforce, ha spiegato che con AI Cloud è possibile sfruttare i guadagni di produttività dell’AI senza cedere i dati dell’azienda. La privacy dei dati dell’intelligenza artificiale, spiega, richiede garanzie diverse:
- Il dynamic grounding orienta le risposte di un LLM utilizzando le informazioni corrette e più aggiornate, “ancorando” il modello a dati di fatto e a un contesto rilevante. In questo modo si evitano le allucinazioni dell’intelligenza artificiale o le risposte errate non basate sui fatti o sulla realtà
- Il mascheramento dei dati sostituisce i dati sensibili con dati anonimizzati per proteggere le informazioni private e rispettare i requisiti di privacy. Il mascheramento dei dati è particolarmente utile per assicurarsi di aver eliminato tutte le informazioni di identificazione personale come nomi, numeri di telefono e indirizzi, quando si scrivono i prompt dell’intelligenza artificiale
- Il rilevamento della tossicità è un metodo per segnalare i contenuti tossici come i discorsi d’odio e gli stereotipi negativi. Lo fa utilizzando un modello di machine learning per analizzare e attribuire un punteggio alle risposte fornite da un LLM, garantendo che le generazioni di un modello siano utilizzabili in un contesto aziendale
- Zero retention significa che i dati dei clienti non vengono archiviati al di fuori di Salesforce. I suggerimenti e gli output dell’AI generativa non vengono mai memorizzati nell’LLM e non vengono appresi dall’LLM. Semplicemente, scompaiono
- Gli audit valutano continuamente i sistemi per assicurarsi che funzionino come previsto, senza pregiudizi, con dati di alta qualità e in linea con i quadri normativi e organizzativi. Gli audit aiutano inoltre le organizzazioni a soddisfare le esigenze di conformità, registrando le richieste, i dati utilizzati, gli output e le modifiche dell’utente finale in un audit trail sicuro
- Il recupero sicuro dei dati è il modo in cui Einstein, la prima AI generativa al mondo per la gestione delle relazioni con i clienti (CRM), estrae i dati da Salesforce, e include Data Cloud nel processo di dynamic grounding. In questo modo è possibile inserire i dati necessari per creare suggerimenti contestuali. In ogni interazione, vengono applicate politiche di governance e autorizzazioni per garantire che solo chi ha l’autorizzazione abbia accesso ai dati.
Julie Sweet, CEO di Accenture, ha affermato che i rischi vengono mitigati quando le garanzie di privacy e sicurezza come queste sono incorporate nella tecnologia.
La fiducia nella privacy dei dati dell’intelligenza artificiale inizia con una buona governance
Tutta la tecnologia del mondo non è sufficiente per garantire un’AI trasparente, responsabile e sicura. Occorrono una buona governance, a partire dai vertici, e una supervisione umana dei sistemi di intelligenza artificiale.
Un report di KPMG ha rilevato che il 75% degli intervistati sarebbe più disposto a fidarsi dei sistemi di AI quando esistono meccanismi di garanzia a supporto di un uso etico e responsabile.
Secondo il report, “questi meccanismi includono il monitoraggio dell’accuratezza e dell’affidabilità del sistema, l’utilizzo di un codice di condotta per l’AI, la supervisione da parte di un comitato di revisione etica dell’AI indipendente, l’adesione agli standard per un’AI spiegabile e trasparente e una certificazione etica dell’AI per stabilire i principi di governance”.
In Accenture, il comitato di revisione del consiglio di amministrazione supervisiona un programma di conformità all’AI per i 55.000 dipendenti.
“Se non si è in grado di chiamare qualcuno in azienda e farsi dire dove viene utilizzata l’AI, quali sono i rischi, come vengono mitigati e chi è responsabile, non si ha ancora un’AI responsabile”, spiega Julie Sweet.
L’AI affidabile è particolarmente importante nei settori regolamentati
I leader di settori altamente regolamentati come quello dei servizi finanziari e quello sanitario sono cauti su come implementare l’AI senza compromettere la fiducia e la sicurezza dei clienti. Per garantire la conformità alle normative, questi settori devono esplorare casi d’uso che non mettano a rischio la privacy e la sicurezza dei dati.
- Nel settore bancario, questo potrebbe includere l’utilizzo dell’automazione per rendere più efficienti le attività e i processi di routine, come le controversie sulle transazioni o l’utilizzo dell’intelligenza artificiale per alimentare chatbot più intelligenti che personalizzino le interazioni con i clienti e migliorino i servizi self-service.
- Per i fornitori di servizi sanitari, l’intelligenza artificiale può aiutare a segmentare le popolazioni di pazienti in modo più efficiente, così da poter inviare comunicazioni più personalizzate e tempestive, come i consigli per i pazienti diabetici per abbassare la glicemia quando i livelli di glucosio aumentano.
Benioff ha recentemente affermato che l’AI generativa potrebbe essere “la tecnologia più importante di tutta la nostra vita”. Di sicuro, l’AI generativa potrebbe far sembrare l’e-commerce, che ha cambiato per sempre il comportamento dei consumatori, le industrie e i modelli di business, una cosa da poco. McKinsey ha recentemente stimato che l’impatto dell’AI sulla produttività potrebbe aggiungere trilioni all’anno all’economia globale. Ma perché ciò accada è necessario avere un alto grado di fiducia in questi sistemi.
“L’AI affidabile è importante”, scrive KPMG nella sua indagine. “Se le persone percepiscono i sistemi di AI come affidabili e sono disposte a fidarsi di loro, è più probabile che li accettino”.
Da una grande intelligenza artificiale derivano grandi responsabilità
Questo modulo di apprendimento mostra come eliminare i pregiudizi dai dati e dagli algoritmi per creare sistemi di intelligenza artificiale etici in azienda.


