Skip to Content
フッターにスキップ

AIの信頼性を確保することが最も重要な理由

※本記事は、2024年1月19日に米国で公開されたWhy Trust in AI Is Job Number Oneの抄訳です。本資料の正式言語は英語であり、その内容および解釈については英語が優先されます。


AIはある意味、宝くじに似ており、ヒットした場合の可能性は容易に想像がつきます。しかし、AIにおける大当たり — AIアシスタントが就業者の生産性を大幅に引き上げ、あらゆる場所で新たな機会を創出するテクノロジーの理想郷 — を引き当てるにはある一つの重要な要素、すなわち信頼が鍵となります。

研究者やデータサイエンティスト、デザイナーから未来学者まで、SalesforceをリードするAIの識者が、信頼の基盤を構築することがAIで最も重要である理由について語りました。

AIの将来は、信頼を正しく獲得できるかどうかにかかっており、それは今すぐに取りかかる必要があります。

優れたAIには人間の理解が必要 

顔認識による携帯電話のロック解除やライドシェアでの車の呼び出しから、出会い系アプリのマッチングに至るまで、人々は何年も前からAIを利用してきました。

SalesforceのEVP兼チーフ・デザイン・オフィサーのキャット・ホームズ(Kat Holmes)は、これらを「マッチメイキング(個人のニーズとテクノロジーの能力を結びつけること)」と呼んでいます。

ホームズは次のように語ります。「人工知能と機械学習は私たちの社会の重要な一部を占めてきました。これらのテクノロジーの成功は人間との相性がマッチした時、つまり、人々がこれこそ自分のために作られたものだと感じた時に達成されます」

しかし今日、AIは第二波の真っ只中にあり、生成AIが導入されビジネスと社会の幅広い範囲で影響を及ぼし始めています。そして、信頼を中心に置いたAI を構築することが喫緊の課題となっています。

技術者や企業が今日問うているのは信頼性のあるAIを構築する方法です。

信頼できるAIを設計する

開発者がAIのUI(ユーザーインターフェース)をどのようにデザインするかは、信頼性を高めるうえで重要な要素です。

「最も重要でやりがいのあるデザインの仕事の一つは、人々が新しいテクノロジーの新しい世界への最初の一歩を踏み出せるよう支援することです。人々は、その第一歩を信じ切るための簡単な根拠を必要としているのです」

ホームズはこの最初のステップについて考えすぎてはいけない、と言います。

「それはレコメンデーションを表示する簡単なボタンかもしれません。その小さなシンプルな根拠は、人と人が出会ったときの最初の挨拶やアイコンタクトした瞬間のようなものです」

その小さなシンプルな根拠は、人と人が出会ったときの最初の挨拶やアイコンタクトした瞬間のようなものです。

Salesforce EVP 兼 チーフデザインオフィサーキャット・ホームズ(KAT HOLMES)

そして、人間との関係構築同様、AIに対する信頼は、AIを活用した出力が有用かどうか、または再利用や改善が可能かどうかを判断するといった、継続的なやり取りを通じて育まれます。

「そして、私自身とこのテクノロジーは次第に相互関係的になります。最初のやり取りをした後、私は自分のフィードバックをもとにそのテクノロジーを形づくり、改善できるようになります。フィードバックを繰り返すことで、信頼のサイクルを構築し、将来的により複雑かつエキサイティングなシナリオへとつなげていくことができるのです。しかし、すべては何か新しいことに挑戦しようというシンプルで説得力のある、一つの働きかけから始まります」

AIに対する従業員の信頼を得る方法

しかし、最初の一歩を踏み出すためには、企業はAIを中心に従業員を勇気づける必要があります。

ハーバード・ビジネス・レビューの最近の調査では、AIに対する信頼の格差があることが明らかになりました。ほとんどの人(57%)はAIを信頼しておらず、22%は中立です。Salesforceの調査によると、お客様の68%が、AIの進歩により信頼性があることは、企業にとってさらに重要になると答えています。

Salesforceとその顧客が未来を予測し、想像し、形作るのを支援する専門チームであるSalesforce Futuresのシニアディレクター、ダニエル・リム(Daniel Lim)によると、幸いなことにAIへの信頼を得るために従業員が取るべき道はいくつかあリます。

重要な手段のひとつはトレーニングです。リムは、オーストラリアのクイーンズランド大学とKPMGによるAIへの信頼に関するグローバル調査の結果を指摘し、次のように述べています。「人々が、いつ、どのように使用されるかを理解し、AIを使うための十分なスキルを持ち合わせている時に、AIを信頼する可能性は高くなります。人々のAIリテラシーとスキルを向上させることは、信頼を築くのに役立ちます」

もう一つの道は社会的および制度的なものです。人々は権威ある情報源に信頼を寄せる傾向があります。たとえば、自分の会社や政府が特定のテクノロジーに対してセーフガード(安全措置)を講じていると確信する、といったことです。

これはリムが、「企業には、従業員にトレーニングを提供し、AIを使うべきときとそうでないときについてのセーフガードを確立する義務がある」と言う理由のひとつです。「これこそが、従業員が職場でAIを信頼するかどうかの議論の出発点となります」

また、組織は人間がAIの舵取りを行い、適切な時と場所でAIを調整し、モデルの監視を行わなければなりません。たとえば、Salesforceは、信頼性の高い、責任あるAIへのコミットメントの一環として、Trailheadでいくつかのトレーニングコースを提供し、ユーザーが責任を持ってAIを使うための知識と能力のレベルアップを支援しています。

最後に、リムはAIを使わないと言う選択肢はないと強調します。「フォークのようなツールであれ、ハンマーのようなツールであれ、あらゆるテクノロジーと同じく、時間の経過とともにAIが有用であることが証明されると信頼が醸成されます」

AIを信頼することは、役員室の中で解決されるような類のものではありません。ペンシルベニア大学ウォートン校のアダム・グラント教授は『Think Again 』​​に次のように記しています。「環境変化に対応するのは、企業がやることではありません。それはそこで働く人々が日々行う数多くの意思決定の中で行われることなのです」

技術的な懸念を克服するAIを構築する

Salesforceのエンジニアリング担当EVPのムラリダール・クリシュナプラサド(Muralidhar Krishnaprasad)は次のように語ります。「人類は社会を進歩させるために常に新しいテクノロジーを生み出してきましたが、それは必ずしも平坦な道のりではありませんでした」

そして次のように続けます。「こういった破壊的なトレンドが生まれるとき、常に人々の間で、何が起こるかわからないという恐怖が存在することを認識することが重要です。しかし同時に、破壊的な変化であるがために、これを無視すれば、企業やビジネスは存続できなくなる可能性があります」

こういった破壊的なトレンドが生まれるとき、常に人々の間で、何が起こるかわからないという恐怖が存在することを認識することが重要です。しかし同時に、破壊的な変化であるがために、これを無視すれば、企業やビジネスは存続できなくなる可能性があります。

Salesforce エンジニアリング担当EVP、ムラリダール・クリシュナプラサド(Muralidhar Krishnaprasad)

クリシュナプラサドは、AIのハルシネーションや有害性、あるいはバイアスのある出力に対する懸念に対処するため、特に生成AIに関しては、モデルが高品質なデータに基づいていることを保証する必要があると強調します。

「特に生成AIの場合は、モデル全体が創造的になるように構築されているため、たとえ存在しないものであっても、多くのものを創造しようとします。まずは、正しいデータとグラウンディングから始めることが重要です。質問する場合は、どのようなデータを与えれば回答を得られるのかを必ず確認する必要があります」

特にユーザーが生成AIを使用する際、ツールの背後にある大規模言語モデル(LLM)が学習のためにデータをキャプチャしている場合、データがどこに送られるのかを理解する必要があります。「グラウンディングはセキュリティの観点からも重要です。なぜなら、すべてのモデルをある LLM に提供すると、その LLM プロバイダーがすべてのデータを吸い上げてモデルに組み込むことになるためです。これは、そのデータがパブリック ドメイン(著作権が適用されていない状態)になることを意味します」

この懸念を払拭するため、Salesforceはゼロデータリテンションポリシーを導入しており、サードパーティのLLMプロバイダーが顧客データを保持することはありません。2023年に発表されたEinstein Trust Layerは、「どのように生成AIを信頼すればいいのか」という疑問に対する答えです。つまり、個人を特定できる情報(PII)をマスキングして、保護されたデータがLLMプロバイダーに送信されないようにし、顧客データを侵害することなく生成AIの恩恵を受けられるようにするものです。

さらに、正確なAI出力を確かなものにするためには、迅速なプロンプト・エンジニアリング(ユーザーがAIにどのようなタスクを実行させるか)は極めて重要です。生成AIモデルに何を作成するかを指示するだけでなく、プロンプトを使用すると、ユーザーはモデルが使用するデータを制限できるため、出力の精度を向上できます。

信頼できるAIは倫理的なAI

AIは有望なテクノロジーではありますが、リスクが全くないわけではありません。

Salesforceで最高倫理・人道的利用責任者を務めるポーラ・ゴールドマン(Paula Goldman)と、Salesforceの倫理的 AI プラクティスの主任アーキテクトを務めるキャシー・バクスター(Kathy Baxter)は共著の記事で、責任あるイノベーションを優先させ、この革新的なテクノロジーをどのように活用できるか、また使用すべきか、その指針を示す必要があると述べています。また、当社の従業員、パートナー、顧客がこれらのテクノロジーを安全、正確、かつ倫理的に開発および使用するために必要なツールを確実に入手することも必要であると警告しています。

ゴールドマンとバクスターは記事の中で、信頼できる生成AIを開発するためのSalesforceの5つのガイドライン(「正確性」「安全性の確保」「誠実さ」「権限移譲」「サステナビリティ」)に言及しています。

また、Salesforceで調査およびインサイト担当VPを務めるカイ・ヌニェス(Kai Nunez)は、技術者の「ヒポクラテスの誓い(倫理規範)」の必要性を強調しています。 

「害のない製品を提供するために、私たちは技術者としてより責任を持たなければなりません。私たちは世に送り出した機能やコードに対して責任を持たなければなりません。AIテクノロジーのリーダーは、製品開発のライフサイクルのあらゆる段階に倫理を織り込むことで、バイアスを最小限に抑えることができます。倫理を後付けすることはできません。それは 製品の「完成の定義」の一部でなければなりません」

AIがステレオタイプや偏見を反映したコンテンツを生成することはこれまでにもありましたが、だからこそ、ヌニェスは、特に歴史的に過小評価されてきたグループの間において、AI開発は包括的である必要があり、また、テクノロジーに対する信頼を得るためにさらなる努力が必要であると述べています。信頼はレプレゼンテーション(多様性が公正に表現されていること)を通じて築かれます。人々は自分の声やニーズ、独自の経験を反映したツールを使うことを好みます。 モデルにおけるレプレゼンテーション不足の悪循環を避けるためには、基本的にこれらの過小評価されたグループの経験を取り入れることが必要なのです。

信頼できるAIの構築

その一方、ホームズは、AIによって各職務への障壁が取り除かれ、技術職の雇用が民主化される可能性が開けていると見ています。AIモデルがデータや分析業務を担う能力が高まるにつれ、そのようなスキルを持たず、これまで技術的な職務に就くことを検討できなかった人々も、それぞれの独自の視点を持ち込むことができるようになります。

ホームズは次のように語ります。「私たちは、あらゆる背景を持つ人々がテクノロジーに携わることができるようになり、その形や設計に貢献できるようにしたいと考えています。AIはそうした扉を広く開き、あらゆる背景をもつ人々が貢献できる機会なのです」

私たちは、あらゆる背景を持つ人々がテクノロジーに携わることができるようになり、その形や設計に貢献できるようにしたいと考えています。AIはそうした扉を広く開き、あらゆる背景をもつ人々が貢献できる機会なのです

Salesforce EVP 兼 チーフデザインオフィサーキャット・ホームズ(KAT HOLMES)

さらにホームズは次のように続けます。 「すべては、私たちが作る玄関のドアと、ひとたび人々がその玄関を入ってAIを使い始めたときに、その体験がどれだけ歓迎されるかにかかっています。人々がこの革命の真っ只中に自分たちの居場所があると感じれば、将来に向けた変革の形成に貢献してくれるでしょう」

SalesforceのAIリサーチでチーフ・サイエンティストを務めるシルビオ・サバレーゼ(Silvio Savarese)も信頼性のあるAIを構築するための具体的な実践方法について概説します。

サバレーゼはAIに対するユーザーからの認知を高め、彼らがAIの利点や欠点を理解できるようにするためにはさらに多くのことをする必要があると話します。AIモデル自体、ある出力をどれほど正しいと判断しているのかの度合いを示すことで、これに役立つことがあります。

また、AIモデルは信頼性と正確性に対する人々の懸念に直接対処するために、どのようなデータに基づいて回答がなされたかをユーザーに示す必要があります。基本的には、透明性と説明可能性が鍵となります。

信頼のパズルのピースを組み立てる

従業員や顧客、そして規制当局から一般市民まで、すべてのステークホルダーがAIを信頼できるようにするには、複雑なパズルのピースをたくさん組み合わせる必要があります。幸いなことに、企業は同じものを一から作る必要はありません。AIの信頼への道のりは、先行するテクノロジーや大きなアイデアによって十分に踏み固められています。

結局のところ、AIは宝くじとはまったく異なるものなのかもしれません。企業やリーダーは、他社の信頼できる足跡をたどるだけで、AIの幸運を切り開くことができるのです。

詳細情報

  • Salesforce AIリサーチについてはこちら(英語)。
  • 信頼できる生成 AI を構築する方法についてはこちら(英語)。
  • Salesforce Data Cloud の詳細はこちら
  • TrailheadのAIコースはこちら