Skip to Content

自律型AIの到来を告げる大規模行動モデル(LAM)、AIエージェントとは

自律型AIの到来を告げる大規模行動モデル(LAM)、AIエージェントとは
AIアシスタントはパーソナライズを目的として構築されていますが、AIエージェントは共有・拡張が目的です。どちらも企業にとって大きなメリットを保証します

AIエージェントとAIアシスタントはどちらもユーザーに代わってアクションを実行する機能を備えていますが、それぞれ異なる目的を果たします。その違いを解説します。

生成AIは、新世代の自律型AIエージェントの登場によって第2幕に突入しました。

自律型AIは、外部ツールを活用したり、学習データ以外の最新情報にアクセスする能力によって、人間をサポートし、時には人間に代わってタスクを実行できます。

こうしたエージェントは、自律したAIの未来に一歩近づく一連のイノベーションの最新のものである、大規模行動モデルLAM)(英語)を搭載しています。今年7月には「xLAM-7B」とともに、「Tiny Giant」(英語)と名付けたコンパクトなAIモデル「xLAM-1B」をリリースしました。

xLAMは、ユーザーに代わって複雑なタスクを実行でき、ベンチマークテストでは大型(そして高価)なモデルを上回る性能が実証されています。LAMは、AIを搭載したエージェントが私たち個人の能力を拡張し、組織の効率を大幅に向上させる未来を垣間見せてくれます。これは実際にどのように機能するのでしょうか。

自律型AIは主に、 AIアシスタントAIエージェントの2つの形態をとるとSalesforceでは考えています。どちらも2つの重要な特性を共有しています。

1つ目は「エージェンシー」。割り当てられた目標を追求し、時には独力で行動する能力です。2つ目は、時間をかけて学習して進化する能力です。

AIアシスタントは、支援を必要としているユーザー一人ひとりを理解するために、ユニークで個別にカスタマイズされた方法で適応します。

一方、AIエージェントは、ベストプラクティスや共有プロセスなどを学習して、チームや組織をよりよくサポートするために適応します。

簡単に言えば、AIアシスタントはパーソナライズを目的として構築されていますが、AIエージェントは共有・拡張が目的です。どちらも企業にとって大きなメリットをもたらすものです。

SalesforceのAIエージェント「Agentforce」とは

自律型AIエージェントを構築・カスタマイズして、従業員とお客様を24時間365日サポートします。どんな場面で活躍するのか、詳しくは製品ページでぜひご確認ください。

時間をかけて学習する力

反復的な学習と改善は、自律型AIの基本ですが、実装の違いによって決定的な相違点があります。

AIアシスタントの学習とは、サポート対象の人間との効率的な作業関係を築くことです。時間の経過とともに、AIアシスタントは個人特有の習慣や期待、さらには作業リズムを識別するようになります。この種のデータは機密性が高いため、プライバシーとセキュリティに考慮する必要があります。どんなに優れたアシスタントでも、信頼できなければ意味がありません。

一方、AIエージェントは、ツールやチームのワークフローなどの共有プラクティスを学ぶことを目的としています。AIエージェントはプライベートなものではなく、学習した情報を組織内の他のAIエージェントに共有します。つまり、個々のAIエージェントが学習と現場での経験を通じてパフォーマンスを向上させれば、同じタイプの他のエージェントも即座に同じ成果を上げることになります。

AIエージェントとAIアシスタントはどちらも、検索拡張生成(RAG)の技術を通じて外部ソースから学習でき、企業全体に展開された新しいアプリや機能、ポリシーの変更を自動的に統合します。

現実世界にインパクトを与える

AIエージェントとAIアシスタントを組み合わせることで、営業支援からカスタマーサービス、ITサポートに至るまで、私たちの働き方に革命を起こすことができます。

例えば、最も忙しい月に、ビデオ通話と世界中を飛び回る対面営業で、ミーティングのスケジュールがぎっしり詰まっているとします。営業担当にとって多忙な現実ですが、その過程で生成されるCRMデータを手動で管理する必要があるため、業務はさらに多くなります。

しかし、もしAIアシスタントが1つのミーティングから次のミーティングまで付き添い、関連情報を自ら追跡して正確に整理し、そのすべてについてオンデマンドで質問に答えることができたらどうでしょう。

そのスケジュールはどれほど楽になるでしょうか。営業担当は、相手との会話と有意義な関係構築に集中することが全責任と認識していれば、より注意深く臨機応変に対応できることでしょう。

特に興味深いのは、これがどのように機能するかを視覚化することです。

AIアシスタントは、各ミーティングに同席し、会話を追跡し、あなたのニーズや行動、作業の習慣をプライバシーに考慮しながら、これまで以上に深く理解するようになります。

AIアシスタントは、組織情報の取得からインターネットでの情報検索、会議メモの要約まで、特定のタスクを達成する必要性を認識すると、より高度なサブタスクのためにAIエージェントに委任したり、ナレッジ記事のクエリなど特定のサブタスクのためにアクションを呼び出します。

Illustrated chart showing the relationship between a human manager and human employees, AI agents, and AI assistants

AIエージェントやAIアシスタントが、カスタマーサービスなど他の部門にも役立つことは容易に想像できます。

一般的なITデスクが1日に処理するサポートチケットの数は、中小企業であっても膨大です。

臨機応変な対応が要求される煩雑で珍しい難題を解決するためには、人間の注意力が必要ですが、日常的な障害の大半はそれほど複雑ではありません。AIエージェントはこのような作業の多くを担うことができ、大量のインバウンドリクエストを処理するためにシームレスにスケールアップ/ダウンすることで、多忙なIT部門はより困難な問題に集中でき、顧客の待ち時間は短縮されます。

チャットボットとAIエージェントの違いとは何か

チャットボットとAIエージェントの違いとは何か

今後の課題

技術的・社会的・倫理的課題が自律型AIの未来を待ち受けています。その最たるものが、持続性と記憶の問題です。

私たちが望めば、AIアシスタントは私たちの長期的な計画から日々の習慣・癖に至るまで、私たちのことを把握するでしょう。私たちが友人や同僚とそうするように、新しいやりとりのひとつ一つが、これまでの経験の土台の上に築かれていくはずです。

しかし、現在のAIモデルで実現するのは簡単ではありません。コンピューティングとストレージのコスト、レイテンシーの考慮、さらにはアルゴリズムの限界など、豊富で堅牢なメモリと細部への注意を備えた自律型AIシステムを構築する取り組みは、どれも複雑な課題が潜んでいます。

私たち自身から学ぶべきこともたくさんあります。私たちが見聞きしたことから不必要な情報を自然に「排除する」方法を考えてみましょう、闇雲にで記憶しようとするのではなく、将来的に最も関連性が高いと想像される情報のみを保持する方法を考えてみましょう。

会議や講義、あるいは友人との会話など、人間は数分、数時間の情報をいくつかの重要なポイントに圧縮するのが驚くほど得意です。AIアシスタントも同様の能力が必要です。

AIの記憶の深さ以上に重要なのは、AIから出てくるものを信頼できるかどうかです。

生成AIは驚異的パワーを持っていますが、信頼性の問題や「ハルシネーション(幻覚)」のような問題にしばしば阻まれています。幻覚は知識のギャップに起因する傾向があるため、自律型AIの継続的な学習傾向は、この問題の解決に役立つでしょう。しかしその過程でさらに多くのことを行う必要があります。

その一つとして、LLMの出力に信頼度スコアを割り当てるという実践が急増しています。さらに、検索拡張生成(RAG)は、AIユーザーがLLMプロンプトを関連知識で補強し、モデルがリクエストを処理するのに必要なコンテキストを確実に持つことを可能にする、増加しているグラウンディング手法の1 つです。

倫理的考慮も同様に複雑です。例えば、自律型AIシステムの出現によって、まったく新しいプロトコルや規範が必要か。AIエージェントとチームはどのように対話すべきか。どのようにしてコンセンサスを築き、紛争や曖昧さを取り除き、特定の行動方針に対する自信を深めるべきか。

リスクに対する許容度や、時間対資金といった相反する目標へのアプローチをどのように調整すればいいか。AIエージェントが何を重視するかに関係なく、決定が透明であり、私たちが望まない結果になった場合に簡単に精査できることをどう保証できるか。

つまり、こうした高度な自動化の世界では、説明責任はどのようになっているのでしょうか。

確かなことは、デジタルエージェントの導入方法や時期、理由を決定するのは常に人間であるべきだということです。

自律型AIは、どんなチームにも強力な追加機能となり得ますが、そのチームの人間のメンバーがその存在を十分に認識し、信頼しているマネジャーが完全にコントロールしている場合に限られます。

さらに、あらゆる形態のAIとの相互作用は、善意の有無にかかわらず、人間と機械の境界線を曖昧にするような試みはすべきではありません。

このようなエージェント間のコミュニケーションのための思慮分別をもったプロトコルを公式化することが重要であるのと同様に、AIと人間の間のコミュニケーションのためのプロトコルも、少なくとも同じくらい、あるいはそれ以上に重要です。

結論

エージェントが力を発揮する未来という私たちのビジョンが野心的に見えるかもしれませんが、xLAM-1B「Tiny Giant」やその他の小型エージェントモデルのリリースは、私たちがその実現に向けて順調に進んでいることを示す強力な証拠です。

技術的な実装だけでなく、AIの影響がすべての人にとって有益かつ公平なものにするために必要な、実践面とガイダンス面においてやるべきことはまだたくさんあります。しかし、すでに多くの明確なメリットが現れている今日が、これまでのAIの歴史の中で、いかに大きな意味をもつのか認識することに価値があります。

ビジネスのためのAI

SalesforceのAIは、CRMに直接組み込まれています。あらゆるアプリ、ユーザー、ワークフローでAIを使えるようになるので、企業全体の生産性が大幅に上がります。

※本記事は米国で公開された “The Rise of Large Action Models Heralds the Next Wave of Autonomous AI” の抄訳版です。本ポストの正式言語は英語であり、その内容および解釈については英語が優先されます。

Agentforce 関連記事

今、知るべきビジネスのヒントをわかりやすく。厳選情報を配信します