L’intelligence artificielle a parcouru un long chemin depuis ses balbutiements, passant de technologie de science-fiction à force réelle touchant avec vigueur tous les secteurs d’activité dans le monde entier. Deux experts de Salesforce, acteurs de l’IA depuis ses débuts, analysent dans cet article cette évolution : le directeur scientifique Silvio Savarese et le chief futurist Peter Schwartz.
L’IA n’est pas une nouveauté, alors qu’est-ce qui a bien pu changer ?
Itai Asseo, Senior Director of Incubation and Brand Strategy, AI Research – Merci à vous deux de venir discuter d’un sujet si déterminant dans votre carrière. Peter, vous aimez rappeler que vous êtes le plus ancien collaborateur de Salesforce. En cinq décennies, vous avez connu de nombreux cycles d’innovation. L’IA en elle-même n’est pas nouvelle, elle existe depuis longtemps. Quel est votre aperçu de la situation ?
Peter Schwartz – J’ai 78 ans et cela fait plus de 50 ans que je m’attèle à penser le futur. J’ai commencé ma carrière au Stanford Research Institute, qui était l’un des deux centres de recherche sur l’IA en Amérique, avec le MIT. J’ai participé activement au débat sur l’IA à partir de 1972. La vérité est que l’IA a tout d’abord été un échec.
À l’origine, le projet autour de l’IA consistait à comprendre le fonctionnement du cerveau humain pour construire des modèles informatiques qui le simulaient. Problème : ça s’est avéré beaucoup plus difficile que prévu. C’est ainsi qu’a débuté le premier « hiver de l’IA » à la fin des années 1970 – expression qui désigne une période de baisse du financement et de l’intérêt pour le sujet.
S’en est suivi un regain d’attention avec l’essor de l’informatique parallèle, inventée par un ami cher, Danny Hillis, qui a créé au milieu des années 1980 une société appelée Thinking Machines. Il avait un slogan génial sur sa porte : « Je veux construire une machine qui sera fière de moi ». Il n’y est par parvenu mais il s’est rendu compte que nous avions besoin d’une approche complètement différente.
Dans les années 1990 et au début des années 2000, le fonctionnement de l’IA n’avait plus rien à voir avec celui du cerveau. Il n’y avait aucun modèle cognitif derrière les mathématiques de l’IA ; ça a ouvert de nouvelles possibilités, car nous n’étions plus contraints par les limites de notre compréhension du cerveau.
Itai Asseo – Silvio, vous êtes à la pointe de la recherche sur l’IA depuis de nombreuses années. Pouvez-vous nous aider à lier l’histoire que Peter nous a racontée et la situation actuelle ?
Silvio Savarese – J’ai commencé mon doctorat en 2000, pendant l’un de ces hivers de l’IA –peut-être le septième ou le huitième. À l’époque, l’IA n’était pas en vogue, la technologie n’était pas suffisamment mûre pour être mise en production. C’était une période difficile. Le sujet était néanmoins fascinant.
Nous utilisions alors des modèles bayésiens, qui sont des outils statistiques puissants pour la prise de décisions. Pour rebondir sur le propos de Peter, ces réseaux reposaient sur des modèles pilotés par les données et ne s’inspiraient pas du fonctionnement du cerveau. Le problème est qu’ils nécessitaient beaucoup de feature engineering – ou ingénierie des fonctionnalités, soit un grand volume de prétraitement des données pour les rendre compatibles avec le modèle, incapable de les absorber telles quelles. Par conséquent, les performances n’étaient pas excellentes…
Avançons jusqu’en 2010, quand nous avons recommencé à utiliser les réseaux neuronaux, autrefois à la mode, pour traiter des données en se passant d’ingénierie des fonctionnalités. Ils se sont soudainement révélés beaucoup plus intéressants car ils pouvaient exploiter les données consommées telles quelles, sans prétraitement, ce qui les rendait applicables à de nombreux cas d’usage. Tout à coup, les performances sont montées en flèche !
Une décennie plus tard, nous entrons dans l’ère des transformers et des modèles d’attention. Nous n’avons plus besoin ni d’ingénierie des fonctionnalités ni d’annotations, ce qui signifie que les modèles peuvent consommer des milliards de tokens de données. C’est pourquoi nous les appelons « grands modèles de langage ». Nous avons observé un comportement toutefois inattendu : nous pouvions soudain leur parler en langage naturel, raisonner et générer du contenu, du texte, des vidéos, des images et même des plans. Et c’est ce qui rend ces modèles si passionnants.
Itai Asseo – Quelle est la prochaine étape ?
Silvio Savarese – La suite de l’histoire, ce sont les grands modèles d’action (large action models), qui constituent à notre avis l’évolution des LLM. Une fois entraînés, ils peuvent prédire, générer du texte, agir et utiliser le feedback de leur environnement pour améliorer leur performance.
Peter Schwartz – De l’idée originale des grands modèles d’action au lancement d’Agentforce, l’espace et le temps écoulé entre le concept de base et la capacité à créer un produit commercial a été si rapide !
L’IA entre dans une formidable période de croissance
Itai Asseo – Peu de gens savent les recherches sur l’IA chez Salesforce, qui a rédigé certains des tout premiers articles sur les transformers, sont à l’origine de ce que nous connaissons tous aujourd’hui sous le nom de Generative Pre-trained Transformers (transformeurs génératifs pré-entraînés), ou GPT.
Parlons maintenant du présent. En deux ans seulement, l’effervescence autour de l’IA générative a entraîné énormément de changements. L’année dernière nous parlions de copilotes, aujourd’hui nous parlons d’agents IA. Tout bouge à une vitesse stupéfiante, ce qui apporte aussi beaucoup d’incertitude. Peter, en tant que futuriste, que vous confient les chefs d’entreprise et les clients ?
Peter Schwartz – Les décideurs et les organisations se posent bien des questions. À quelle vitesse la technologie va-t-elle se développer ? Dans quels délais les applications seront-elles opérationnelles ? Quelles sont les conséquences ? Quelles sont les réglementations qui accompagnent l’utilisation de l’IA ?
Quel que soit leur secteur, j’entends la même chose de la part des dirigeants d’entreprise. Ils se montrent enthousiastes tout en restant très prudents en matière de réglementation, en particulier au sujet des données des clients, ou celles des patients dans le domaine de la santé. Et ce n’est qu’un aspect de la question. De multiples scénarios sont ainsi envisageables. Au fur et à mesure que les gens essaient des choses, certaines fonctionnent et d’autres non. Il s’agit d’un cycle de produit classique, avec une phase de tassement.
Il y a des milliers de startups dans ce secteur. Si la plupart d’entre elles échoueront, certaines deviendront les géants de demain. Il y a peut-être un Apple ou un Google qui se cache là. Salesforce vient de racheter une société spécialisée dans l’IA vocale, Tenyx ; bientôt, vous pourrez donc parler à votre IA dans Salesforce.
Je pense que nous allons vivre un certain temps avec les incertitudes autour de l’IA. Il existe un très bon livre d’Ethan Mollick intitulé « Co-Intelligence », qui conseille de planifier des scénarios pour y faire face.
Itai Asseo – Selon un célèbre dicton, « la meilleure façon de prédire l’avenir, c’est de le créer ». Le groupe de recherche de Salesforce sur l’IA est à l’origine de tant d’innovations ! C’est le cas par exemple du moteur de raisonnement Atlas. Silvio, pouvez-vous nous parler de certaines de ces technologies clés qui nourrissent et stimulent l’innovation pour Agentforce ?
Silvio Savarese – Prenons d’abord du recul en détaillant ce que nous sommes en train de construire avec Agentforce. Nous créons deux types de systèmes autonomes : l’assistant IA et l’agent IA.
Les assistants IA travailleront en étroite collaboration avec les humains et les aideront à accomplir des tâches quotidiennes telles que la rédaction d’e-mails, la prise de rendez-vous, les réservations, etc. Cela requiert un niveau élevé de personnalisation, afin que l’assistant puisse comprendre les préférences de l’utilisateur et les aligner pour réaliser une tâche avec succès. Dans ce scénario, un humain doit guider l’assistant (« human in the loop ») dans son exécution.
Les agents IA, quant à eux, ne sont pas seulement personnalisés pour un seul utilisateur, mais pour un groupe d’utilisateurs ou même une organisation entière. Ils sont spécialisés par compétences et sont affectés à des rôles précis. Ils peuvent être introduits à la demande pour aider une organisation à passer à l’échelle et à effectuer des tâches complexes.
Avec Agentforce, nous incluons les deux types de systèmes. Tous ces agents et assistants ont deux points communs : la mémoire et le cerveau.
La mémoire leur permet de se rappeler ce qui s’est passé auparavant, comme les conversations, et d’extraire les informations essentielles à l’exécution des tâches, telles que les données sur les produits, les clients, les règles ou les meilleures pratiques. En partenariat avec les équipes d’ingénieurs, nous construisons également la prochaine version de notre système de génération augmentée de récupération (RAG). Cela nous permet d’extraire efficacement des informations des référentiels et de les fournir aux agents IA.
Le deuxième élément clé en commun est le cerveau, qui constitue, d’un point de vue plus technique, le moteur de raisonnement (Salesforce a incubé le sien au sein de son équipe de recherche sur l’IA). Il est utilisé pour décomposer une tâche en une série d’étapes à exécuter par un agent IA. Ce qui nous demande aussi d’être capables de collecter le feedback de l’environnement.
Itai Asseo – Si nous passons d’une IA qui génère du texte à une IA qui agit, tout en permettant une plus grande autonomie, cela peut aussi fragiliser la confiance. Et si ces agents faisaient quelque chose que nous ne voulions ou n’attendions pas, ou s’ils offensaient quelqu’un, ou pire encore ? Comment appréhendons-nous la confiance en cette technologie agentique ?
Silvio Savarese – Rendre ces agents dignes de confiance est une question complexe. Nous devons nous assurer que tout ce que nous élaborons reste sûr pour les clients. C’est un gros challenge à relever. L’IA générative pour les consommateurs présente beaucoup moins de risques. Si par exemple un agent IA produit une mauvaise recommandation pour une réservation de restaurant, vous serez certes contrarié mais il ne se passera pas grand-chose d’autre. En revanche, pour les entreprises, si un agent IA se trompe dans l’exécution d’un plan, les conséquences peuvent être désastreuses.
Transformez votre CRM avec les insights de l’IA.
Découvrez comment l’IA améliore le CRM en instaurant la confiance, en introduisant de nouveaux cas d’usage et en renforçant les compétences. Lisez notre rapport pour obtenir des insights stratégiques.
![](https://www.salesforce.com/fr/blog/wp-content/uploads/sites/15/2024/12/TrendsInAI_FormConf_1268x714.png)
À cet égard, en nous appuyant sur les meilleures pratiques et une logique métier, nous mettons en place un certain nombre de garde-fous qui permettent aux agents IA d’opérer dans un périmètre sûr et fiable.
Il est important de procéder par itération, de recueillir le feedback des utilisateurs et comprendre les axes d’amélioration des agents IA. La transparence joue ici un rôle essentiel ; les agents IA doivent faire part de leurs intentions aux utilisateurs à certains points de décision critiques et face à des situations potentiellement risquées pour l’entreprise.
Itai Asseo – C’est un propos nuancé et je me demande, Peter, qu’est-ce que la confiance et l’autonomie des agents IA impliquent à l’échelle de la société ?
Peter Schwartz – Je pense qu’il s’agit d’un bouleversement historique. Nous sommes dans un monde nouveau, fait d’une part d’inconnu et de beaucoup d’incertitudes. Néanmoins, les agents IA vont devenir omniprésents, dans des contextes différents. Ils s’occuperont des choses en coulisses, sans qu’on s’en rende compte. C’est un point opérationnel clé : vous n’aurez plus à y penser.
De fait, comme l’a dit Silvio, nous avons besoin d’humains dans cette boucle technologique, pendant un certain temps encore. War Games, l’un des films dont j’ai contribué à l’écriture, comporte un moment vers la fin où Matthew Broderick se trouve dans la « war room », alors que les missiles soviétiques semblent arriver depuis le pôle. John Wood, l’informaticien, montre l’écran et dit : « Vous ne vous rendez pas compte qu’il s’agit d’une hallucination informatique ? ».
C’est un humain qui comprend qu’il s’agit d’une simulation et que l’ordinateur hallucine. Et je pense que c’est le genre de situation va se répéter : nous aurons besoin d’une intervention humaine pour nous assurer que ce que font les agents IA est conforme à nos intentions.
De quoi sera fait le futur de l’IA ?
Itai Asseo – Peter, vous nous embarquez maintenant vers le futur ! Imaginons un monde surpeuplé d’agents autonomes, où nous aurons tous nos assistants personnels. Silvio, à quoi ressemblera le monde lorsque l’on combinera les agents IA et la robotique ?
Silvio Savarese – Pendant de nombreuses années, à Stanford, j’ai travaillé sur la perception robotique, qui permet aux robots de comprendre et de voir le monde. À l’époque, nous utilisions d’énormes robots dotés de grands bras et nous leur apprenions à faire des choses telles que cuire une omelette ou préparer un espresso. De fait, un agent qui vous réserve un voyage ou un robot qui vous cuisine une omelette réalisent des tâches très proches. Tous deux doivent être dotés de mémoire, pour se souvenir des ingrédients de l’omelette et se rappeler où trouver les ustensiles, ou pour retrouver les sites web auxquels se connecter pour réserver un vol.
Ils ont également besoin d’un cerveau, car le robot doit élaborer un plan pour faire une omelette, en suivant des étapes et des procédures ; et pour la réservation d’un voyage, l’agent doit établir et réussir une certaine succession d’étapes.
Un autre élément important en commun tient à l’environnement, qui peut être hostile. Le robot peut parfois ne pas trouver les œufs, l’huile ou les casseroles. Que se passe-t-il alors ? Il ne peut pas se contenter d’abandonner, n’est-ce pas ? Il doit imaginer un plan B. De même, si un agent essaie de réserver un voyage et ne parvient pas à trouver les billets ou le bon vol, qu’advient-il ? Il doit proposer une solution. Cette capacité à s’adapter à un environnement dynamique, voire hostile, est essentielle.
Ce qui les distingue, c’est la nature numérique de l’agent, alors que le robot existe physiquement ; ce qui signifie que nous devons encore développer les bonnes capacités, à partir de systèmes sensoriels (vision, toucher, son) qui ouvriront la voie aux prochaines générations d’agents.
Itai Asseo – Quels conseils donneriez-vous aux chefs d’entreprise, et même à tous ceux qui commencent à expérimenter l’IA au travail ?
Peter Schwartz – Mettez les deux mains dans le cambouis. Créez un agent. Commencez à jouer avec différents modèles. Voyez ce qui fonctionne pour vous, dans vos domaines. Nous n’en sommes qu’au début de l’histoire, l’expérimentation est encore largement récompensée.
Silvio Savarese – Et ne mettons pas de côté la confiance. N’oublions pas de construire ces agents de manière fiable. Je voudrais souligner deux points importants. Assurons-nous de pouvoir distinguer en toute transparence ce qui est généré par l’IA et ce qui est produit par les humains. Il faut un discernement clair dans notre esprit et dans celui de nos consommateurs. Le deuxième point concerne la responsabilité légale. Dans un scénario où les agents IA d’un acteur vont essayer de faire quelque chose qui peut entrer en conflit avec ceux d’un autre acteur, qui sera responsable en cas de désaccord ? Comment allons-nous réglementer ces cas de figure ? C’est un problème d’autant plus important qu’il va se poser très prochainement…