※本記事は2024年6月27日に米国で公開されたAutonomous AI Agents Are Coming: Why Trust and Training Hold the Keys to Their Successの抄訳です。本記事の正式言語は英語であり、その内容および解釈については英語が優先されます。
自律型AIエージェントは、想定よりも早く職場に浸透しています。
そのAIエージェントにより、顧客の購入履歴、好み、質問や懸念事項を詳細に分析し、パーソナライズされたサービス、サポート、レコメンデーションや、顧客の課題解決など、ルーティンタスクや複雑なタスクの自動化が進んでいます。今後は、企業の履歴レコードや公開情報を分析して各地域の有望な見込み客を絞り込んでピックアップし、顧客と面談する際に担当者が利用できるトークポイントの生成も可能になります。さらに、自律型AIを駆使することで、大規模な市場機会を明らかにし、特定のオーディエンスに特定のタイミングでアプローチするクリエイティブなマーケティングキャンペーンも生成できると期待されます。
すべて人間の介在を必要とせず、ミリ秒単位でタスクが完了します。生成AIの発展型である完全な自律型AIエージェントは、自己学習を通じてパフォーマンスを継続的に高めることができるため、可能性は無限大です。しかし、人間がこうした驚異的な科学技術に重要なタスクを引き継ぐ前に、組織は従業員の準備を整える必要があります。
しかし、人間がこうした驚異的な科学技術に重要なタスクを引き継ぐ前に、組織は従業員の準備を整える必要があります
なぜなら、新入社員と同様に、自律型AIエージェントは職場でただちに受け入れられるわけではないからです。本当に重要な仕事を任せるには、新入社員も自律型AIも事前に自らの能力を証明する必要があります。さらに、そうしたテクノロジーと仕事をしたことがない人々の信頼も獲得しなければなりません。 Slackの調査によると、現在、AIによる生成結果の信頼性が実務レベルに達していると考えるデスクワーカーは7%にとどまります。しかし、Salesforceの新たな調査によると、グローバルワーカーの77%は最終的に信頼できるようになると楽観視しており、63%は人間の介入がAIの信頼を築く鍵になると考えています。そのために、Salesforceは自律型AIの信頼構築とトレーニングに多大なエネルギーを投入しています。
「人間は自分に価値をもたらすテクノロジーに適応しますが、一晩で適応できるのはまれです」とSalesforce AI担当シニアバイスプレジデントのジェイシュ・ゴビンダラジャン(Jayesh Govindarajan)は語ります。「自律型AIをエンタープライズに定着させるために、企業と従業員は信頼性のギャップを克服し、膨大な量のトレーニングを実施することで、この重要なテクノロジーを効果的に理解し、管理して、最大限活用しなければなりません」
「デジタルトランスフォーメーションでもそうでしたが、AI変革ジャーニーは企業ごとに異なります」と、Salesforce Futures担当バイスプレジデントで、『Salesforce Futures』デジタルマガジンの編集を務めるミック・コスティガン(Mick Costigan)は同意します。「企業は、AIインフラ、ツール、人材において、スタート地点が異なり、それぞれの段階も異なります。特にまだ初期段階の企業は、信頼とトレーニングを基盤として、AIジャーニーをただちにスタートさせる必要があります」
信頼の基盤を築く
昨年2月、Salesforceは、エンタープライズ向けの対話型AIアシスタントであるEinstein Copilotを導入しました。Salesforceアプリケーション全体にネイティブで組み込まれるEinstein Copilotは、企業独自のデータとメタデータでグラウンディングを行うことで、質問に回答し、コンテンツを生成し、アクションを動的に自動化できます。こうしたすべてが生産性の向上、より深い顧客関係の構築、利益の拡大に貢献します。Einstein Copilotは、Copilotが実行できるジョブ群を収録したアクションライブラリを搭載しています。たとえば、ユーザーがCopilotにメール作成の支援を依頼すると、メールの下書きと修正を行い、Salesforceの関連データでグラウンディングするアクションが起動します。さらに複雑なプロセスの場合、Einstein Copilotは、多数のアクションを連携させることでタスクを自律的に完了します。
たとえば、製品に問題がある顧客がサービス部門に問い合わせた場合、Einstein Service Agentが対応し、その顧客の購入履歴を確認して、企業独自のナレッジ記事を参照し、いくつかのトラブルシューティング方法を自動的に提案します。問題が解消されない場合は、表示されるエラーコードの画像をアップロードするように顧客に依頼します。そのエラーコードから問題を分析し、製品の交換が必要かどうか判断します。エージェントは交換を提案するか、別の製品へのアップセルを顧客に提示します。また、ご不便のお詫びとして割引を提供し、製品をピックアップできる最寄りの店舗を顧客に紹介します。
以下の動画(英語)で、このシナリオのデモをご覧いただけます。
テクノロジーが生成AIから自律型AIへと進化を遂げる中、Salesforceは、AIを責任ある倫理的な方法で使用するためのトレーニングを重視し、AIの自律性と人間の関与の間で適切なバランスを確保しようとしています。こうした取り組みを実現するには、まず信頼できるデータが必要です。つまり、生成AIを支える大規模言語モデル(LLM)とやり取りできる、正確で信頼性の高いデジタル情報です。自律型AIエージェントは、信頼できるデータを常に取り込んで効率的に動作し、正確な出力をもたらす必要があります。しかし、ほとんどの組織は、AIが必要とするあらゆる関連データへのアクセスに困難を感じています。多くの場合、こうしたデータは閉鎖的なサイロに閉じ込められているからです。実際に、ITリーダーの81%は、データサイロがデジタルトランスフォーメーションとAIソリューションの実装を妨げていると回答しています。
こうした取り組みを実現するには、まず信頼できるデータが必要です。つまり、生成AIを支える大規模言語モデル(LLM)とやり取りできる、正確で信頼性の高いデジタル情報です
そのために、SalesforceはData Cloudを開発しました。これは、信頼できるAIの基盤となるSalesforceのEinstein 1 Platformと緊密に統合されたデータプラットフォームです。Data Cloudは、エンタープライズ全体のデータを統合して一元化し、調和させることで、AIにもっとも正確で信頼できる情報をもたらします。Data Cloudのゼロコピーデータ統合では、データを移動、コピー、再フォーマットすることなく、データレイクやデータウェアハウスにあるデータにアクセスできるようになります。
自律型AIが利用できるデータの信頼性を確保するEinstein Trust Layerは、安全なAIアーキテクチャとして、個人を特定できる情報(PII)のマスキング、出力の有害性のスコアリング、SalesforceのLLMパートナーのゼロデータリテンションによる不正アクセスやデータ侵害からの情報の保護など、各種機能を実行します。
信ぜよ、されど確認せよ
Salesforceは、信頼できるデータを確保するとともに、自律型AIエージェントが想定された作業を確実にこなせるように、エージェントに対する人間の制御の度合いを高める方法も模索しています。また、想定外の動作が見られた場合は、ユーザーが修正できる環境を整えることも重要です。
これらを念頭に置き、Salesforceは、自律型AIエージェントが目的を忠実に遂行し、そのアクティビティを人間が検証・監視できるようにする、堅牢なシステム全体のコントロールまたは「パターン」の設計に取り組んでいます。
Salesforceの倫理的・人道的利用部門最高責任者のポーラ・ゴールドマンは、初期の取り組みでは5つの主要パターンが軸になると述べています。
- 意図的な摩擦:AIプロセスの重要な局面で意図的な「間」を設けて、人間が関与する機会を生み出す
- AIへの認識:自律型のエージェントとやり取りしていることを人間に明示する
- バイアスと有害性の防止:有害または悪意のあるAI出力を最小限に抑える
- 説明可能性と正確性:AIエージェントが導いた結論や行動の根拠を明確に説明する
- 幻覚(誤った回答)の削減:誤った回答や誤解の可能性を極力排除する
従業員が主要業績指標(KPI)を掲げて自分の目標に向かって前進するように、自律型AIエージェントの説明責任を確保するには監査証跡も必要だと、ゴビンダラジャンは語っています。
たとえば、AIサービスエージェントの顧客とのやり取りを追跡し、顧客がそのエージェント体験をどのように感じたか調査することが重要になります。返品ポリシーによる対応が厳格すぎるなど、一般的なフィードバックでAI特有の問題が指摘される場合は変更が必要だと、ゴビンダラジャンは言います。
さらに彼は、AIが提案するインサイト、レコメンデーション、アクションの材料となったデータをどこでどのように収集したのか正確に報告できなければならないと指摘します。引用したソースでは、セキュリティについても強調しています。つまり、自律型AIエージェントはどの顧客データを使用してその助言を提示し、その行動に至ったのか説明する必要があると、ゴビンダラジャンは補足します。
トレーニングの重要性
経営幹部は、そうした監査によって、テクノロジーの潜在的な問題だけでなく、AIシステムに関する高度な従業員トレーニングの必要性も明らかになると考えています。2023年のBoston Consulting Groupの調査によると、労働者の86%はスキルを磨くためにAIトレーニングが必要だと回答しましたが、そのために研修を受講したと回答した現場の従業員は、ビジネスリーダーの44%に対して14%にとどまりました。
ほとんどの従業員は、AIがどのように機能しているのか完全には理解しておらず(消費者向けのAIチャットボットの限られた経験では理解できない)、LLMから質の高い出力を得るためのプロンプトの作成や改良の方法も知りません。さらに、労働者の職を奪う、機能が強力すぎて人間と対立するなど、AIには多数の懸念事項があります。
競合他社の一歩先を行く
ゴビンダラジャンは、組織はこうしたトレーニングに投資すべきだと指摘しています。AIワーカーは確実に到来し、そのために従業員の準備が必要になるからです。
「自律型AIエージェントと連携するにはトレーニングが必要です。誰もが生まれながらのマネージャーではないからです」とゴビンダラジャンは語ります。「部下が全員人間で、ある日突然、自律型AIエージェントがスタッフとして加わった場合、どのように利用すればいいかすぐにはわかりません。正しい質問のしかたがわからず、適切な回答を引き出す方法も知らず、どのように修正すればいいか指示する方法もわからないでしょう。だからこそ、トレーニングが重要なのです。AIワーカーには、新入社員と同様に、背景となる情報とオンボーディングが必要です。方向性と明確な目標を定めて、フィードバックを提供することで、AI自身のトレーニングを手助けできます」
自律型AIエージェントと連携するにはトレーニングが必要です。誰もが生まれながらのマネージャーではないからです
Salesforce AI担当シニアバイスプレジデント ジェイシュ・ゴビンダラジャン(Jayesh Govindarajan)
チームがこうした不安を克服し、必要なAIスキルを獲得するための利用しやすい手段を提供したいと考える雇用主のために、Salesforceの無料オンライン学習プラットフォーム、Trailheadを用意しています。現在までに、数百万の人々がTrailheadでスキルアップを達成しています。豊富なAI学習コースを活用することで、経験豊富な技術者から初心者まで、誰でも自分のペースでAIについて学ぶことができます。
自律型AIエージェントは未来のビジネスのスタンダードになります。そのため、企業はAIの信頼性とトレーニングについて検討すべきだと、Salesfroce Futuresデジタルマガジンのコスティガンは指摘します。
「日々の問題に忙殺されるあまり、AIが最終的にビジネスにとって競争上の武器になるという事実を忘れがちです」とコスティガンは語ります。「新型コロナの時期に、デジタルトランスフォーメーションを先取りしていた企業は、状況の変化に速やかに対応できました。同様に、自律型AIも想像を超える速さで浸透しているため、一刻の猶予もありません。AIエージェントが速やかに浸透し、業界全体を変革する中、企業は今すぐ決断する必要があります」