※本記事は2023年2月7日に米国で公開された Generative AI: 5 Guidelines for Responsible Development の抄訳です。本記事の正式言語は英語であり、その内容および解釈については英語が優先されます。
生成AIには、私たちの生き方や働き方を変えてしまうほどの威力があります。たとえ最も革新的な企業であっても、生成AIは今後何年にもわたって挑戦すべき課題となるでしょう。
しかし、生成AIにリスクがないわけではありません。正しい情報をふんだんに得られる一方で、間違っていることも多いからです。企業は競ってこの技術を市場に投入していますが、包括的かつ明確な意図を持って開発することが極めて重要になります。生成AIの技術的能力を提供するだけでは十分ではありません。この革新的な技術がどのように使用され、またどのように使用されるべきかの指針を示すために、責任あるイノベーションに優先的に取り組むべきです。そして、従業員、パートナー、顧客がこれらの技術を安全かつ正確に、さらには倫理的に開発して使用するためのツールを確実に提供することが求められているのです。
Salesforceの生成AI
Salesforceの生成AIと、より広範なエンタープライズテクノロジーが持っている潜在能力は計り知れません。
AIはすでに当社のCustomer 360プラットフォームにおける不可欠な要素となっており、Einstein AIテクノロジーでは、以下に代表されるSalesforceのビジネスアプリケーション全体で、毎日2,000億件近くの予測を提供しています。
- セールスでは、AIのインサイトを利用して次の最善策を特定し、より速やかに商談を成功に導きます。
- サービスでは、AIを利用して人間同士がするような会話を通じて、頻度の高い質問やタスクに対応することで、エージェントはより複雑なリクエストの対処に時間を割けるようになります。
- マーケティングでは、AIを活用して顧客の行動を把握することで、マーケティング活動のタイミング、ターゲティング、および内容をパーソナライズすることができます。
- コマースでは、AIを利用することで高度にパーソナライズされたショッピング体験と、よりスマートなeコマースを推進できます。
現在生成AIは、セールス、カスタマーサービス、マーケティング、コマース、およびITなどのさまざまな場面で、よりパーソナライズされた新しいつながり方を実現できる可能性があります。当社では、AIが生成したコードを使用してお客様を支援することも検討しています。これにより、社内にSalesforceの認定開発者がいないお客様でも、高品質のコードをより速く記述できるようになります。コード行数が減ることから必要なCPU数も削減できます。
信頼される生成AIのためのガイドライン
Salesforceのすべてのイノベーションに共通することですが、当社では倫理的なガードレールとガイダンスを製品全体に組み込むことによって、お客様が責任あるイノベーションを起こし、潜在的な問題を事前に把握できるよう支援しています。
この分野にもたらされる大きな機会や課題を踏まえ、当社は「信頼されるAI(Trusted AI)の原則」(英語)に基づいて、生成AIの責任ある開発と実装に焦点を当てた、新しい一連のガイドラインを策定しています。
私たちはまだ、この革新的なテクノロジーの黎明期にあり、これらのガイドラインは完成の途上にあります。しかし、私たちは解決策を見つけるために、他の人々と協力して繰り返し学ぶことにコミットしています。
以下に、当社や関連企業が実践している、信頼される生成AIの開発を導く5つのガイドラインを紹介します。
- 正確性:お客様が自社のデータでモデルをトレーニングできるようにすることで、モデルの精度、正確性、再現性のバランスが取れた検証可能な結果を提供する必要があります。AIの回答の信憑性に不確実性がある場合は、それを伝え、ユーザーがその回答を検証できるようにする必要があります。そのためにできることとして、情報源の明示、AIがその回答をした理由の説明(例:思考連鎖プロンプト)、再確認すべき部分の強調表示(例:統計データ、勧告、日付)、一部タスクの完全自動化(例:人が検証していないコードの本番環境での稼働など)を防ぐガードレールの構築などが挙げられます。
- 安全性の確保:すべてのAIモデルにおいて、バイアス、説明可能性、堅牢性に対する評価とレッドチーム演習を実施することで、バイアスや有害性、問題のあるアウトプットを低減するためにあらゆる努力をするべきです。また、プライバシーの観点から、トレーニングに使用されるデータに含まれる個人を特定できる情報(PII)を保護し、さらなる被害を防ぐためにガードレールを構築する必要があります(例:コードを本番環境に自動的に移行するのではなく、強制的にサンドボックスに公開するなど)。
- 誠実さ:モデルのトレーニングと評価のためにデータを収集する際には、データの出所を尊重し、その使用について同意を得ていることを確認する必要があります(例:オープンソース、ユーザーからの提供データ)。また、AIがコンテンツを自律的に配信する場合は、AIがコンテンツを作成したことを明示する必要があります(例:消費者へのチャットボットによる応答、電子透かしの使用)。
- 権限移譲:プロセスを完全に自動化することが最善であるケースもありますが、AIが人間のサポート役を果たしたり、人間の判断が必要になるケースもあります。人間の能力を「強化」し、これらのソリューションをすべての人が利用できるようにするための適切なバランスを見極める必要があります(例:画像に追加する代替テキストの生成など)
- サステナビリティ:より正確なモデルの作成に努める一方で、できるだけ最適なサイズのモデルを開発すれば、二酸化炭素排出量の削減につながります。ことAIモデルに関して言えば、大きいことが必ずしも優れているわけではありません。場合によっては、たとえ小さくともより良く訓練されたモデルの方が、訓練不足の大きなモデルよりも優れた性能を発揮することがあります。