※本ポストは2023年7月12日に米国で公開された“AI, Without the Angst – How to Use It Without Losing Your Customers’ Trust”の翻訳版です。本ポストの正式言語は英語であり、その内容および解釈については英語が優先されます。
今では当たり前すぎて信じられないですが、かつて消費者は電子商取引に対して警戒心を抱いており、個人情報や金融情報のセキュリティに対する懸念から、現在では年間1兆ドルのビジネスに成長した電子商取引を広く受け入れるまでには、信頼のギャップが存在しました。
現在では、ビジネスと顧客が生成AIの出現をどれだけ広く、成功裏に受け入れるかの中核となるのは、信頼です。一部の企業は、バイアスの排除、透明性の提供、顧客データの100%保護といった困難な作業を行わずに、自社製品をAI化しています。しかし、ますます多くのリーダーが認識しているように、まさにその作業こそが、人々が AI を信頼するかどうかの違いを生むのです。
「私たちのすべての部門は、生成AIの使用方法について素晴らしいアイデアを持っています。私は創造性を抑制したくありませんが、それによって私たちのバックドアが開かれたままになるのであれば、最高のものも望んでいません」とAAAのEVP、COO、CTOであるShohreh Abedi氏は述べて(英語)います。
AIを活用して業務の生産性を向上させる
資料3点セット
AIを活用して業務の生産性を向上させるためのおすすめの資料3つをセットにしました。3点まとめてダウンロード頂けますので、ぜひご活用ください。
従業員の視点
- セールス、サービス、マーケティング、コマースの各部門で4,000人以上の従業員を対象にした調査では、73%が生成AIが新たなセキュリティリスクをもたらす(英語)と考えています。
- AIを使用する予定の60%は、機密データを安全に保護しながらAIを使用する方法がわからないと答えています。
- これらのリスクは、金融サービスやヘルスケアといった規制の厳しい業界で特に懸念されています。
今できること
AIシステムの構造に安全対策を組み込む企業と提携することです。なぜこれが重要なのでしょうか?
- 大規模言語モデル(LLM)は膨大な量のデータを含んでいますが、データベースやExcelスプレッドシートのような他のデータリポジトリとは異なります。これらには、大規模なデータベースのセキュリティ保護機能やアクセス制御、またはスプレッドシートのセルロックなどのプライバシー機能がありません。
- Salesforce CEOのマーク・ベニオフは、「すべての顧客の最も機密性が高く、プライベートで安全な情報を、すべての従業員がアクセスできる大規模言語モデルに入れることはありません」と述べています(英語)。
自社システムの構造にAIデータプライバシーを組み込む方法
SalesforceのPlatform部門のEVPでGMのPatrick Stokesは、AI Cloudを使用することで、あなたの会社のデータを漏らすことなく、AIによる生産性向上を活用できると説明しています。AI データのプライバシーには、さまざまな保護手段が必要だと同氏は述べています。
ダイナミックグラウンディングは、正確かつ最新の情報を使用して LLM の答えを導き、事実のデータと関連するコンテキストにモデルを「グラウンディング」します。これにより、AI のハルシネーション(幻覚)や、事実・現実に基づかない誤回答を防ぐことができます。
データマスキングは、機密データを匿名化されたデータに置き換えることで、個人情報を保護し、プライバシー要件に準拠することができます。データ マスキングは、AI プロンプトを作成するときに、名前、電話番号、住所などの個人を特定できる情報をすべて確実に削除する場合に特に役立ちます。
有害性検出は、ヘイトスピーチやネガティブなステレオタイプなどの有害なコンテンツをフラグ付けする方法です。これは、機械学習(ML)モデルを使用してLLMが提供する回答をスキャンし、スコアを付けることで行います。これにより、モデルから生成されるものがビジネスの文脈で使用可能であることを確認します。
ゼロリテンションは、Salesforceの外部に顧客データが保存されないことを意味します。生成AIのプロンプトと出力はLLMに保存されず、LLMによって学習されません。それらは単に消えます。
監査は、システムが期待通りに動作しているか、バイアスがなく、高品質のデータがあり、規制および組織のフレームワークに沿っているかを常に評価します。監査はまた、プロンプト、使用されたデータ、出力、エンドユーザーの修正を安全な監査トレイルに記録することで、組織がコンプライアンス要件を満たすのに役立ちます。
安全なデータ取得は、Einstein(世界初のCRM向け生成AI)が動的なグラウンディング プロセスの一環として、Data Cloudを含む Salesforce からデータを取得する方法です。これにより、コンテキストを構築するために必要なデータを取り込むことができます。すべてのやり取りにおいて、ガバナンス ポリシーと権限が適用され、許可を得たユーザーのみがデータにアクセスできるようになります。
AccentureのCEOであるJulie Sweet氏は、これらのようなプライバシーとセキュリティの保護手段がテクノロジーに直接組み込まれている場合は、リスクは軽減されると述べています。
信頼できる生成AIを実現するために準備すべき6つの戦略
このガイドでは以下の内容を詳しく解説します。
● 生成 AI がもたらす機会と影響
● 生成 AI に関する懸念
● 生成 AI に備えたデータのセキュリティ戦略
AIデータプライバシーへの信頼は、良好なガバナンスから
透明性があり、責任ある、安全なAIを確保するには、世界中のあらゆるテクノロジーをもってしても不可欠です。その実現には企業トップから始まる優れたガバナンスと、人間によるAIシステムの監督が必要なのです。
KPMGのレポート(英語)によると、倫理的かつ責任ある使用をサポートする保証メカニズムが整備されている場合、回答者の 75% が AI システムをより信頼する傾向にあることがわかりました。
レポートによれば、「これらのメカニズムには、システムの精度と信頼性の監視、AIの行動規範の使用、独立したAI倫理審査委員会による監督、説明可能なAIと透明性のあるAIの基準の遵守、AI倫理認証の取得によるガバナンス原則の確立が含まれます。」
Accentureでは、取締役会の監査委員会が、同社の55,000人の従業員のためのAIコンプライアンスプログラムを監督しています。
Sweet氏は、「社内の誰かに電話して、AI がどこで使用されているのか、リスクは何か、リスクはどのように軽減されているのか、責任の所在は誰なのかを教えてもらうことができないのであれば、まだ責任ある AI を持っていないことになります。」と述べています。
規制の厳しい業界では、信頼できるAIが特に重要
金融サービスやヘルスケアといった規制の厳しい業界のリーダーたちは、顧客の信頼と安全性を犠牲にすることなくAIをどのように実装するかについて慎重です。これらの業界は、データプライバシーとセキュリティを危険にさらさないユースケースを模索する必要があります。
- 銀行業界では、自動化(英語)を使用して日常的なタスクやプロセスを効率化すること (取引に関する紛争など) や、AI を使用して顧客とのやり取りをパーソナライズしてセルフサービスを向上させる、よりインテリジェントなチャットボットを強化することが含まれる場合があります。
- ヘルスケアサービス提供者にとって、AI は患者集団をより効率的(英語)にセグメント化するのに役立ち、糖尿病患者の血糖値が急上昇したときに血糖値を下げるためのヒントなど、よりパーソナライズされたタイムリーなコミュニケーションを送信できるようになります。
マーク・ベニオフは最近、生成AIは「生涯で最も重要なテクノロジー」である可能性があると述べました。確かに、生成AI技術は消費者行動、業界、ビジネスモデルを永遠に変えた電子商取引を、小さなジャガイモのように見せるかもしれません。マッキンゼーは最近、生産性に対する AI の影響が世界経済に年間数兆ドル増加する可能性があると推定しました。しかし、それを実現するには、これらのシステムに対する高度な信頼が必要です。
「信頼できるAIは重要です」とKPMGはそのレポートの中で述べています。「人々がAIシステムを信頼できると認識し、それらを信頼する意志があるならば、人々はAIシステムをより受け入れる可能性が高まります。」
ジェネレーティブCRMで、仕事はどう変わる?
誰もが注目する生成AI技術をCRMと組み合わせて、業務効率を高め、お客様の心に響く体験を提供する方法を紹介します。
Lisa Lee
Contributing Editor
Lisa Lee はSalesforceの寄稿編集者として25 年以上にわたり、テクノロジーとそのビジネスへの影響について執筆してきました。Salesforce に入社する前は、Forbes.com などの出版物で受賞歴のあるジャーナリストでした。