Skip to Content

IA de confiance : les 5 principes de Salesforce

Les 5 principes de Salesforce pour une IA éthique

L’IA de confiance doit répondre aux considérables quant au respect des normes éthiques, des biais d’apprentissage ou de la protection des données les plus sensibles.

Si spectaculaire, si révolutionnaire… et désormais indispensable, l’intelligence artificielle n’est pas sans soulever des doutes considérables quant au respect des normes éthiques, des biais d’apprentissage ou de la protection des données les plus sensibles dans le cadre de son entraînement. L’IA ne peut prospérer sans définir un cadre de confiance, reflets de nos valeurs humaines.

En 2018, après deux années de développement de l’IA pour nos solutions, nous avons pris conscience du rôle majeur qu’elle serait appelée à jouer dans les années suivantes. Nous avons donc entrepris de définir les principes fondateurs d’une IA de confiance, en veillant à ce qu’ils soient compatibles à l’usage que voudrait en faire nos clients.

Glossaire de l’IA

32 définitions pour gagner en confiance à l’ère de l’Intelligence Artificielle.

Couverture du glossaire de l'IA

Pour cela, nous avons consulté durant une année entière toutes nos équipes, représentantes de la variété de nos activités. Comme nous l’expliquons dans notre modèle de maturité, cette étape est cruciale pour que chacun au sein de l’entreprise s’approprie ces principes et contribue à leur mise en œuvre au quotidien. Voici les 5 principes qui ont émergé.

1. Éthique

Nous nous efforçons de garantir le respect des droits humains et des normes de sécurité, et plus spécifiquement de protéger les données qui nous sont confiées. Nous attendons également de nos clients qu’ils utilisent l’IA de manière responsable, en conformité avec les engagements décrits dans notre charte

En pratique :

Avant de créer une nouvelle fonctionnalité basée sur l’IA, nous commençons toujours par nous demander si nous avons la capacité de la réaliser, et surtout si elle est nécessaire. Pour garantir le respect des droits humains, nous collaborons avec des spécialistes ad hoc afin de développer les pratiques les plus respectueuses. Parallèlement, nous informons nos clients et leur donnons les clés pour utiliser notre IA de façon responsable. Nous mettons aussi à la disposition de nos collaborateurs, clients et partenaires des outils et des ressources pour identifier et atténuer les biais des systèmes qu’ils développent et utilisent.

De plus, nous nous conformons aux normes les plus exigeantes en matière de sécurité et de confidentialité pour anticiper les dommages potentiels, et les diminuer s’ils surviennent. Bien sûr, nous respectons aussi les régulations liées à l’IA. Nous veillons enfin à publier nos recherches dans la presse scientifique et lors de conférences ou d’événements spécialisés.

2. Responsabilité

Chez Salesforce, être responsable n’est pas un vain mot ! C’est pourquoi nous recueillons les retours d’expérience de nos parties prenantes afin d’améliorer continuellement nos pratiques et nos politiques, tout en réduisant les risques pour nos clients.

En pratique :

Nous collaborons étroitement avec des experts des droits de l’homme et de l’éthique appliquée à la technologie à travers notre comité consultatif. Nous invitons également nos clients à nous partager leurs conseils et retours d’expérience, en faveur d’un dialogue ouvert et d’un processus de réflexion et d’amélioration continues.

Nous croyons fermement à l’importance de « redonner » à notre industrie et à la société dans son ensemble. Pour ce faire, nous travaillons avec nos parties prenantes pour améliorer nos pratiques et contribuer à l’évolution des réglementations.

Enfin, nous encourageons nos équipes à poser des questions et à exprimer leurs préoccupations en toute confiance grâce à divers canaux, notamment notre système de signalement anonyme en ligne, les canaux Slack, et une adresse e-mail dédiée.

3. Transparence

Nous souhaitons que nos clients comprennent les tenants et aboutissants de chaque suggestion générée par l’IA. Nous nous assurons ainsi que les décisions de l’utilisateur soient éclairées par une explication du raisonnement de l’IA.

En pratique :

Expliquer comment nous élaborons nos modèles est important ne suffit pas. Nous devons également préciser l’origine des prédictions et des recommandations qu’ils formulent. Pour cela, nous publions des cartes de modèles qui décrivent la manière dont ils ont été créés, les cas d’usage potentiels, les implications éthiques ou sociétales connues ainsi que les indices de performance.

Les données et les modèles de nos clients leur appartiennent, c’est pourquoi nous nous assurons qu’ils en gardent toujours le contrôle. Nous leur fournissons également une charte clarifiant les conditions d’utilisation et les applications des solutions d’IA.

4. Autonomie

Nous croyons que l’IA atteint son paroxysme lorsqu’elle est combinée aux capacités d’un être humain. Nous aspirons à livrer une technologie qui permette d’être plus productif et de prendre de meilleures décisions, pour un impact maximisé au sein des organisations.

En pratique :

Nous nous engageons à rendre l’IA accessible à tous, quel que soit le niveau de compétence technique des utilisateurs. Vous n’avez pas besoin d’être data scientist pour créer des applications d’IA : quelques clics suffisent, et ce, sans écrire une seule ligne de code. Grâce à notre plateforme Trailhead, nous offrons des formations gratuites sur l’IA pour permettre à chacun de développer les compétences requises sur le marché de l’emploi.

Nos équipes s’attachent également à partager les dernières avancées technologiques, pour s’assurer que nos clients restent toujours à la pointe de l’innovation.

5. Inclusion

L’IA doit bénéficier à toutes les parties prenantes, et pas seulement ses créateurs. C’est pourquoi nous promouvons la diversité, l’égalité et l’équité à travers l’IA.

En pratique :

Nous testons nos modèles d’IA avec des ensembles de données diversifiés et représentatifs. Notre objectif est de comprendre l’impact des fonctionnalités de l’IA sur un large éventail de clients et d’utilisateurs finaux. Pour ce faire, nous organisons des ateliers build with intention  et consequence scanning pour identifier les impacts positifs et négatifs de nos produits, et garantir un développement réfléchi et responsable. Enfin, nous mettons en pratique nos principes fondamentaux en matière d’égalité en formant des équipes inclusives qui élargissent le champ des expertises et des expériences. 

En matière d’IA, nous jouons tous dans la même équipe

Chez Salesforce, nous estimons que l’utilisation éthique de technologies avancées telles que l’IA est une question de plus en plus complexe, qui mérite d’être abordée de manière claire et proactive par toute notre filière. Nous aspirons à créer un dialogue inclusif, englobant nos collaborateurs, nos clients, nos partenaires et nos communautés, afin de discuter des enjeux et des solutions possibles.

En travaillant ensemble pour relever ces défis, nous pouvons exploiter pleinement le potentiel de l’IA et en faire bénéficier au mieux toutes les parties prenantes.

Libérez la puissance de l’IA générative avec Einstein et Sales Cloud

Utilisez dès aujourd’hui toutes nos fonctionnalités d’IA prédictive et générative avec Sales Cloud. Déployez Einstein pour effectuer des recherches sur les clients, créer des e-mails de prospection attrayants et obtenir des informations pertinentes sur les transactions, le tout en quelques clics.