Skip to Content

L’IA sans stress

L’IA sans stress

Certaines entreprises intègrent l'IA à leurs produits sans s'assurer au préalable que leurs données clients sont protégées à 100 %. Voici comment une entreprise peut tirer profit de l'IA sans mettre en péril ses données confidentielles.

Certaines entreprises intègrent l’IA à leurs produits sans s’assurer au préalable que leurs données clients sont protégées à 100 %. Voici comment une entreprise peut tirer profit de l’IA sans mettre en péril ses données confidentielles.

Difficile de l’imaginer aujourd’hui, mais à une époque, les consommateurs se sont méfiés de l’e-commerce. Avant qu’ils ne se mettent à adopter ce nouveau canal de consommation – qui génère à présent des milliers de milliards de chiffre d’affaires annuel – beaucoup ont eu des réticences liées à la sécurité de leurs données personnelles et financières. Il y avait en fait un déficit de confiance.

Le scénario se répète avec l’IA générative. La confiance est ici encore, l’élément clé qui affectera le degré d’adoption des entreprises et des consommateurs. Certaines entreprises intègrent l’IA à leurs produits sans se donner la peine d’éliminer ses biais de réflexion, sans transparence et sans s’assurer que leurs données des clients sont protégées à 100 %. Or, comme de plus en plus de dirigeants s’en rendent compte, c’est précisément ce travail qui fera la différence et pèsera dans la confiance que les gens accordent à votre IA.

 

Le point de vue des employés

 

  • Dans une enquête menée auprès de plus de 4 000 employés à travers les départements ventes, service client, marketing et commerce, 73 % estiment que l’IA générative introduit de nouveaux risques de sécurité.
  • 60 % des personnes qui prévoient d’utiliser l’IA admettent ne pas savoir comment y parvenir tout en protégeant les données confidentielles.
  • Ces risques sont particulièrement préoccupants dans les secteurs fortement réglementés comme les services financiers et la santé.

 

Par où commencer ?

 

Choisissez comme partenaires des entreprises qui intègrent des mesures de sécurité dans la structure de leurs systèmes d’IA.

  • Les grands modèles de langage (LLM) contiennent d’énormes quantités de données. Cependant à la différence des autres référentiels de données (bases de données, feuilles de calcul Excel…), ils ne disposent pas des options de sécurité et de contrôles d’accès des grandes bases de données, ni même des fonctions de confidentialité et de verrouillage des cellules des feuilles de calcul.
  •  « Vous n’allez pas prendre les informations les plus sensibles et les plus confidentielles de vos clients et les mettre dans un grand modèle de langage auquel tous vos employés auront accès », explique Marc Benioff, PDG de Salesforce.

Glossaire de l’IA

32 définitions pour gagner en confiance à l’ère de l’Intelligence Artificielle.

Couverture du glossaire de l'IA

Comment intégrer la confidentialité des données confiées à l’IA dans la structure de vos systèmes

 

Patrick Stokes, Executive Vice President, Product and Industries Marketing chez Salesforce, explique qu’en utilisant Einstein, vous gagnez  en productivité grâce à l’IA, sans mettre en péril les données de votre entreprise. La confidentialité des données confiées à l’IA nécessite différentes mesures de protection, ajoute-t-il :

Le Dynamic grounding oriente les réponses d’un LLM en utilisant des informations récentes et correctes. Celles-ci permettent d’ « ancrer » le modèle dans un contexte pertinent avec des données factuelles. Ainsi, on évite les hallucinations de l’IA, c’est-à-dire des réponses plausibles, mais incorrectes car elles ne sont pas fondées sur des faits ou sur la réalité. 

  • Le masquage des données remplace les données sensibles par des données anonymisées afin de protéger les informations privées et de se conformer aux exigences de confidentialité. Le masquage des données est particulièrement utile pour s’assurer que vous avez éliminé toutes les informations à caractère personnel identifiables, telles que les noms, les numéros de téléphone et les adresses lors de la rédaction des prompts d’IA.
  • La détection des discours toxiques repère les discours haineux et les stéréotypes négatifs. Elle utilise un modèle d’apprentissage automatique pour analyser et noter les réponses (outputs) fournies par le LLM afin de s’assurer qu’elles sont appropriées à un contexte professionnel.
  • La non conservation des données signifie qu’aucune des données clients n’est stockée en dehors de Salesforce. Les prompts et les réponses (outputs) de l’IA générative ne sont jamais stockées dans le LLM et ne sont pas mémorisées par celui-ci. Elles disparaissent tout simplement.
  • L’audit permet d’évaluer les systèmes en continu afin de s’assurer qu’ils fonctionnent comme prévu, sans biais, avec des données de qualité et conformément aux cadres réglementaires et organisationnels. L’audit aide également les organisations à répondre aux normes de conformité en enregistrant les requêtes, les données utilisées, les réponses et les modifications apportées par les utilisateurs finaux dans une piste d’audit sécurisée.
  • La récupération sécurisée des données est la manière dont Einstein, l’IA générative spécialisée pour le CRM, extrait les données de Salesforce (y compris de Data Cloud), lors du dynamic grounding. Cette technique vous permet d’importer les données dont vous avez besoin pour créer des prompts contextuels. À chaque interaction, les règles de gouvernance et d’autorisations sont appliquées pour garantir que seuls les utilisateurs autorisés ont accès aux données.

La confiance commence par une bonne gouvernance

La technologie ne suffit pas à garantir un usage de l’IA transparent, responsable et sûr. Il faut également une gouvernance efficace, aux plus hautes sphères de l’entreprise, et une supervision humaine des systèmes d’IA.

Un rapport de KPMG a révélé que 75 % des répondants seraient davantage disposés à faire confiance aux systèmes d’IA si des mécanismes d’assurance étaient mis en place pour soutenir leur utilisation éthique et responsable.

Selon cette étude, « ces mécanismes comprennent entre autres : la surveillance de la précision et de la fiabilité du système, l’adhésion à un code de conduite de l’IA, la supervision par un comité indépendant d’éthique de l’IA, le respect des normes pour une IA explicable et transparente, et une certification d’éthique de l’IA qui définit des principes de gouvernance. »

Chez Accenture, le comité d’audit de son conseil d’administration supervise un programme de conformité de l’IA pour les 55 000 employés de l’entreprise.

« Si vous n’êtes pas en mesure d’appeler quelqu’un dans votre entreprise et de lui demander dans quelles circonstance l’IA est utilisée, quels sont les risques, comment ils sont atténués et qui est garant, alors, vous n’avez pas encore d’IA responsable », affirme Sweet.

L’IA de confiance est particulièrement cruciale dans les secteurs réglementés

Les dirigeants des secteurs fortement réglementés comme les services financiers et la santé sont inquiets quant à la manière de déployer l’IA sans mettre en péril la confiance et la sécurité des clients. Pour garantir la conformité aux réglementations en vigueur, ces secteurs doivent explorer des cas d’utilisation qui ne mettent pas en danger la confidentialité et la sécurité des données.

  • Le secteur bancaire peut par exemple tirer parti de l’automatisation pour faciliter l’exécution des tâches et des processus routiniers tels que les litiges liés aux transactions. Il peut aussi exploiter l’IA en proposant des chatbots encore plus intelligents, pour des interactions clients toujours plus personnalisées et pour améliorer les options de self-service.
  • Pour les prestataires de la santé, l’IA peut s’avérer utile pour segmenter plus efficacement les populations de patients et ainsi, envoyer des communications plus personnalisées et plus pertinentes. Par exemple, envoyer des conseils aux patients diabétiques pour réduire leur glycémie, lorsque celle-ci augmente.

Marc Benioff a récemment déclaré que l’IA générative pourrait être « la technologie la plus importante de tous les temps ». Il est vrai que l’IA générative pourrait bien reléguer l’e-commerce (qui a changé à jamais le comportement des consommateurs et le monde des affaires) au rang des avancées technologiques de piètre importance. Le cabinet McKinsey a récemment estimé que l’impact de l’IA sur la productivité pourrait ajouter plusieurs milliards de dollars à l’économie mondiale chaque année. Mais pour que cela se produise, la confiance dans ces technologies est indispensable.

« La confiance dans l’intelligence artificielle est un élément clé », souligne KPMG dans son enquête. « Si les personnes perçoivent les systèmes d’IA comme dignes de confiance et sont disposés à leur faire confiance, ils seront plus enclins à les accepter. »

Libérez la puissance de l’IA générative avec Einstein et Sales Cloud

Utilisez dès aujourd’hui toutes nos fonctionnalités d’IA prédictive et générative avec Sales Cloud. Déployez Einstein pour effectuer des recherches sur les clients, créer des e-mails de prospection attrayants et obtenir des informations pertinentes sur les transactions, le tout en quelques clics.