Skip to Content
フッターにスキップ

※本記事は、2023年9月20日に米国で公開された How Salesforce Develops Ethical Generative AI from the Start の抄訳です。本資料の正式言語は英語であり、その内容および解釈については英語が優先されます。


さまざまな業種において、企業はビジネスの成長を促進するために生成AIを積極的に取り入れています。実際、生成AIは世界経済に年間4兆ドル以上を供給するとも言われています。

上級ITリーダーの67%が自社のビジネスにおける優先事項として生成AIを挙げており、また30%以上が主要な検討事項として挙げている一方で、顧客からの信頼の欠如が課題となっている可能性があります。最近のデータによると、消費者の75%近くが、AIによって生成されたコンテンツの正確性や信頼性に依然として懐疑的な態度を示しています。同様に、専門職に就く60%以上は、AIを効果的かつ安全に使用するために必要なスキルが欠けていると考えています。

信頼できる生成AIを構築するには、AI開発の初期段階で強固な基盤が必要です。今年初めにSalesforceは、「信頼されるAI (Trusted AI)の原則」と「AI Acceptable Use Policy(AI利用規定)」に基づいた生成AIの倫理的開発に関する、5つのガイドラインを発表しました。このガイドラインは、正確性、安全性の確保、誠実さ、権限移譲、サステナビリティに重点を置いており、SalesforceのAIエンジニアが倫理的な生成AIを開発できるよう支援します。

生成AIモデルの正確性を高め

Salesforce のお客様は、生成 AI モデルを使用して、営業プロセスの自動化から、パーソナライズされた顧客サービスのやりとり、カスタマイズされた購入者および販売者のエクスペリエンスの作成に至るまで、さまざまなタスクを処理しています。その結果、高精度なモデルによる応答は、コミュニケーションの強化と顧客体験の向上につながります。モデルの精度を検証するために、Salesforceでは顧客データポイントに基づくアウトプットと、顧客からのインプットによる継続的な反復改善という2つのアプローチを採用しています。

動的グラウンディング(古いデータセットではなく、事実に基づいた最新のデータを使用するように生成AIモデルを制限するプロセス)は、関連性の高い正確なアウトプットを提供するうえで依然として重要な要素となります。たとえば、生成AIモデルを特定の顧客データ(サービスの問い合わせに関するナレッジ記事など)を使ってグラウンディングすることで、正確で信頼できるソースから回答を得られるようになります。

顧客からのフィードバックも、モデルの精度を検証するのに役立ちます。多くの場合、Salesforceのお客様は、AIのアウトプットをどのように使用または変更するかといった、明示的、定性的、定量的なフィードバックを提供してくださいます。これらは、当社の製品設計を改良し、最終的な成果物の向上につながります。

安全性の確保:生成AIのバイアスを回避し、顧客データのプライバシーを保護する

最近の調査によると、ITリーダーの73%が、生成AIによって生じるバイアスの可能性に対して懸念を抱いています。有害なバイアスを軽減するために、Salesforceではシミュレーション環境で厳格なAIテストを実施しています。

有害なバイアスを軽減するために、Salesforceではシミュレーション環境で厳格なAIテストを実施しています

私たちは過去のデータのパターンを分析し、企業の先行きを予測する予測AIから取り組みを開始しました。これらのアルゴリズムを長期にわたってテストし、バイアスと公平性の定量的な尺度を開発することでバイアスを軽減しています。これにより、市場へ製品を公開する前にバイアスに関する問題を検出して、修正することができるようになりました。

生成AIのバイアスに対する取り組みは、依然として複雑な課題であり、敵対的テストのような新しい評価方法が必要です。私たちのチームは敵対的テストを使って、生成AIモデルとアプリケーションの境界を意図的に押し広げ、システムの弱点やバイアス、有害性、不正確さの影響を受けやすい箇所の把握に取り組んでいます。

敵対的テストは、AIモデルに敵対的サンプルを組み込むことで、そのような入力を識別し、拒否するのに役立ちます。これにより、モデルが生成するアウトプットに有害性やバイアスが含まれていたり、安全性や正確性に問題が生じたりすることを防ぎます。

生成 AI の開発と導入における透明性の推進

Salesforceでは、生成 AI システムの開発と導入を通じて透明性を確保することに重点を置いています。これには以下が含まれます。

  • 免責事項:ポップアップのようなシステムで説明を加えることにより、期待値を設定するとともに、生成AIが進化し続けるテクノロジーであることを顧客に伝えます。
  • 文書化:製品ドキュメントは、お客様に豊富な情報を提供します。現在、ユーザーの予測に対する理解を深め、使用目的に適しているかどうかの判断を助けるため、予測AI 向けのモデルカード(モデルの学習に使用されるデータに関連付けられた統計表示。予測の使用目的、設計の前提条件、対象利用者、機能と制限事項、その他の関連情報に関する説明も表示可能)を用意しています。特定の AI モデルの背景にある目的、Salesforce による AI モデルのトレーニング方法、AIの使用に伴う潜在的なリスクなどの重要な情報を共有しています。
  • 責任ある利用規定:モデルビルダーを使用すると、たとえば、人種と相関する可能性のある郵便番号などの偏った入力を受け取った際に顧客に通知され、AI インタラクションの透明性が維持されます。

生成AIの活用で、AI利用経験の少ない従業員やユーザーの権限を強化

Salesforceの生成AIは、従業員の生産性とスキルセットの向上を支援し、彼らの能力の強化と権限移譲を通じて顧客をサポートするように設計されています。

たとえば、あるService Cloudの顧客では最近、Salesforceの新しい生成AIである、 Einstein サービス返信 を試験的に導入しました。これにより、サービス担当者は、通常であれば非常に時間のかかる問題を迅速に解決する新しいツールを手に入れました。このツールは非常に効果的で、担当者は視野を広げ、新しい機会を模索することができたため、顧客に新しいサービスをアップセルしたり、クロスセルしたりすることができました。

Salesforceはまた、自社のAIテクノロジーがユーザーフレンドリーで包括的であることを保証し、さまざまなレベルの専門知識を持つ人々が、「民主的に」AIへにアクセスできるようにするノーコードおよびローコード製品を提供しています。たとえば、プロンプトビルダーでは、パラメータを使用するためのガイダンスと、最良の結果を生み出すためのプロンプトが提供され、ユーザーはプロンプトエンジニアリング(生成AIモデルが理解できるプロンプトを作成する技術)を探求することができます。

生成AI開発におけるサステナビリティの促進

生成AIの開発では、環境への懸念が大きく立ちはだかります。多くのモデルは、モデルの構築と実行に必要な膨大なデータと演算処理により、大量の二酸化炭素を排出しています。実際、LLM(大規模言語モデル)を学習させるには、1時間あたり最大10ギガワットの電力消費が必要になる場合があり、これは米国の1,000世帯以上の年間電力消費量に相当します。

そのためSalesforceでは、モデルサイズの最適化から、不要な演算処理の回避、ハードウェア効率や再生可能エネルギー供給の最大化に至るまで、サステナビリティを念頭に置いて生成AIテクノロジーを開発しています。さらに、オープンソースアプローチを採用することにより、AIエコシステムに参画している企業はモデルを再利用して我々の研究の成果を再現できるため、新しいモデルをゼロからトレーニングする必要がなくなります。このような戦略を採用することで、生成AIの開発による排出量を大幅に削減し、環境面におけるリーダーシップへの長年のコミットメントを強化するとともに、バリューチェーン全体にわたって温室効果ガス排出量の実質ゼロ化を維持することができました。

Salesforceでは、モデルサイズの最適化から、不要な演算処理の回避、ハードウェア効率や再生可能エネルギー供給の最大化に至るまで、サステナビリティを念頭に置いて生成AIテクノロジーを開発しています

信頼に基づいた生成AIを開発するために、Salesforceは正確性、安全性の確保、誠実さ、権限移譲、サステナビリティの確保に引き続き重点を置いて取り組んでいます。これら5つのガイドラインを活用することで、顧客からの信頼と環境の健全性を維持しながら、業界全体で生成AIの導入を推進することができるのです。

詳細情報

  • Einstein AIについてはこちら
  • Salesforce AIのチーフ・サイエンティストが執筆した、生成AIの未来に関する記事はこちら(英語)
  • AIにおける顧客の信頼の格差に関するレポートの要約はこちら