Einsteinが質問の答えをサポートしているチャットウィンドウが表示されたサービスコンソール

検索拡張生成(RAG)とは

検索拡張生成(RAG)を使って生成AIの出力をワンランク上に引き上げる方法をご紹介します。

Ari Bendersky

2023年、カナダを拠点とするAlgo Communications社は、ある課題を抱えていました。急速な成長を遂げようとする中、カスタマーサービス担当者(CSR)の訓練がそのスピードについて行けなかったのです。この課題に取り組むために同社が目を向けた新しいソリューションが、生成AIでした。

Algoは、新任のカスタマーサービス担当者の訓練期間を短縮するために、大規模言語モデル(LLM)を導入することにしました。しかし、顧客からの複雑な質問に対して正確かつ流暢に回答できるようなレベルにするためには、既製のLLMでは不十分でした。市販のLLMは通常、一般的なインターネット上の情報をもとに訓練されており、ビジネス固有のコンテキストが欠けているため、正確な回答を提供することが難しいからです。そこで、同社は検索拡張生成の導入を考えました。一般的には略称の「RAG」と呼ばれている技術です。

今や、多くの人々がOpenAIのChatGPTやGoogleのGemini(旧称「Bard」)などのチャットアプリを通じて、メールの文章やウィットに富んだソーシャルメディアのコピーの作成に、生成AIのLLMを利用しています。しかし、特に、巧みなプロンプトを作るテクニックを持っていない人にとっては、思わしい結果を得るのは簡単ではありません。

それは、AIモデルの能力がトレーニングに使用したデータの質に大きく左右されるからです。能力を最大限に伸ばすには、一般的な情報ではなく、適切なコンテキストと大量の事実データが必要です。既製のLLMで使用されているデータは常に最新とは限りません。また、企業データに安全にアクセスしたり、実際の顧客関係を理解したりすることもできません。そこで役に立つのがRAGです。

RAGとは、企業が最新かつ関連性の高い独自のデータをLLMプロンプトに直接自動的に埋め込むことを可能にするAI技術です。検索できる対象は、スプレッドシートやリレーショナルデータベースのような構造化データだけではありません。電子メール、PDF、チャットログ、ソーシャルメディアの投稿、AI出力の向上につながりそうな情報などの非構造化データを含む、利用可能なすべてのデータが検索対象となります。

AgentforceのROIを試算

担当者チームにAIを導入した場合、コストと時間をどれだけ節約できるかご覧ください。4つの簡単な質問に答えるだけで、Agentforceの効果を見ることができます。

検索拡張生成(RAG)の仕組み

要するに、企業がさまざまな内部データソースから情報を取得・活用することで、より良い生成AIの結果を得る際に役立つのがRAGなのです。ソースは信頼できるデータから取得するため、ハルシネーション(幻覚)やその他の誤った出力の軽減や排除にもつながります。つまり、RAGを導入することで、AIが提示する内容の関連性と正確性が向上するというわけです。

この精度向上を実現するために、RAGは特別な種類のデータベースである「ベクトルデータベース」と連携して機能します。ベクトルデータベースを使用することにより、AIは理解できる数値形式でデータを保存し、ユーザーがプロンプトを入力したときにデータを取り出すことができます。

「RAGは、ベクトルデータベースがその役割を果たさなければ機能しません」と、SalesforceのAI製品マーケティング担当ディレクターであるRyan Schellackは説明します。「この2つは密接に関連しています。企業において検索拡張生成をサポートしている場合、少なくとも2つをサポートしていることになります。1つ目は、情報を保存するためのベクトルストア。2つ目は、そのデータに対して機能するように設計された機械学習検索メカニズムです」

ベクトルデータベースと連携して作業するRAGは、優れたLLM出力を生成するための強力なツールになりますが、万能ではありません。ユーザー側にも、明確なプロンプトを書くための基礎知識が求められます。

Agentblazerのキャラクター

Agentblazerコミュニティに参加する

世界中のAgentblazerとつながりましょう。AIスキルを高め、ユースケースを発見し、製品エキスパートの話を聞くことができるなど、さまざまなメリットがあります。AIの専門知識を高めれば、キャリアアップにつながるはずです。

複雑な質問への回答にかかる時間を短縮

Algo Communications社は、チャットログや2年間のメール履歴など、膨大な量の非構造化データをベクターデータベースに追加し、2023年12月に複数のカスタマーサービス担当者(CSR)を対象にこのテクノロジーのテストを開始しました。同社は製品ベースの約10%という小さなサンプルセットで試してみました。カスタマーサービス担当者がツールに慣れるまでに約2か月かかりました。その過程でカスタマーサービス担当者がRAGを活用しながら詳細な質問に自信を持って答えられるようになり、それを見た同社の上層部は期待に胸を膨らませました。これを契機に、同社はRAGを全社に展開し始めました。

「RAGの導入を検討する中で、これまでよりもはるかに多くのデータを取り込むことができることが分かりました」と、Algo Communications社のコマーシャルオペレーション担当バイスプレジデントを務めるRyan Zoehner氏は振り返ります。「複雑な回答を5、6段階のステップに分けて伝えられるようになりました。技術的な知識のある人間が回答していることをお客様に実感してもらえると思いました」

RAGを導入してからわずか2か月で、Algoのカスタマーサービスチームは、ケースをより迅速かつ効率的に完了できるようになり、新しい問い合わせへの対応スピードが67%向上しました。RAGは現在、製品の60%に携わっており、今後も拡大を続ける予定です。また、データベースへの新しいチャットログと会話の追加を開始し、より関連性の高いコンテキストでソリューションを強化しました。また、RAGを使用することで、Algoはオンボーディング時間を半分に短縮し、より迅速に成長することができました。

"RAGのおかげで作業効率が上がりました」とZoehner氏は言います。「従業員の仕事に対する満足度が向上し、あらゆるオンボーディングがスピーディに進んでいます。当社のブランドやアイデンティティ、そして企業としての理念も保つことができました。その点において、RAGはそれまでに試したLLMソリューションと一線を画しています」

RAGの導入でAlgoのカスタマーサービス担当者はAIアシスタントの力を借り、人間ならではの顧客対応に時間を割けるようになりました。

ちょっとした手間をかけることで、顧客が欲しがる的確な情報を伝えることができるようになったのです」とZoehner氏は付け加えます。「人間ならではの対応をすることによって、あらゆる顧客接点にブランドのスタイルを反映させることができます。あらゆる顧客接点で一定の品質を維持することにもできます」