Il Regolamento UE sull’Intelligenza Artificiale (EU AI Act) è stato recentemente approvato dal Parlamento Europeo a livello di commissioni parlamentari competenti – si tratta del penultimo step prima di diventare legge dell’Unione Europea.
L’AI Act è il primo quadro giuridico completo di questo tipo a livello globale.
Se da un lato le aziende hanno già iniziato ad adottare rapidamente servizi basati sull’AI per aumentare la propria produttività, i governi di tutto il mondo continuano a confrontarsi per garantire che l’Intelligenza Artificiale sia costruita e utilizzata in modo sicuro, affidabile ed equo. Proposto dai legislatori europei nel 2021, l’AI Act fornisce un quadro di riferimento per guidare gli enti pubblici e privati nell’evoluzione e nell’adozione di tale tecnologia.
Eric Loeb, EVP of Global Government Affairs in Salesforce, ha spiegato come la regolamentazione possa allinearsi all’impegno di Salesforce per un’AI affidabile.
“Salesforce ritiene che per sfruttare la potenza dell’AI in modo affidabile sia necessario che i governi, le aziende e la società civile lavorino insieme per promuovere politiche sull’Intelligenza Artificiale che siano responsabili, sicure, basate sul rischio e interoperabili a livello globale”, ha dichiarato Loeb.
“Il progresso dell’AI Act nell’UE ha fatto progredire in modo significativo le discussioni sulle politiche relative all’AI in tutto il mondo. Salesforce si congratula con i responsabili politici di questa legge europea per aver dedicato grande attenzione ai dettagli e alle sfumature, come nel caso di un approccio basato sul rischio e sull’uso etico della tecnologia “, ha proseguito Loeb. “Lo sviluppo di quadri di riferimento basati sul rischio dovrebbe riguardare l’intera catena del valore delle attività di AI. L’Intelligenza Artificiale non è un approccio univoco, e angolazioni efficaci dovrebbero proteggere i cittadini incoraggiando al contempo l’innovazione inclusiva e la concorrenza”.