圖形顯示愛因斯坦信任層如何為 CRM 應用程序創建內容。

Einstein Trust Layer

Einstein Trust Layer 是一組強大的功能和護欄,可保護您數據的隱私和安全性,提高 AI 結果的安全性和準確性,並促進 Salesforce 生態系統中負責任的人工智能使用。Einstein Trust Layer 具有動態接地、零數據保留和毒性檢測等功能,旨在幫助您釋放生成人工智能的力量,而不會影響您的安全或安全標準。

將用戶提示產生到愛因斯坦 AI 回應中的模板。

值得信賴的 AI 始於安全地的提示。

提示是一組指令,可引導大語言模型 (LLM) 返回有用的結果。提示提示的上下文越多,結果就越好。Einstein Trust Layer 的功能,例如安全數據擷取和動態基礎,可讓您安全地提供 AI 提示,並提供有關您業務的前後關聯,同時資料遮罩和零資料保留可保護提示傳送給第三方 LLM 時,該資料的隱私和安全性。

無縫的隱私和數據控制。

利用第三方基金會 LLM 的規模和成本效益,同時在產生流程的每個步驟中保護您數據的隱私和安全性。

允許使用者安全地存取資料,以取得有關您業務的前後關聯式人工智慧提示,同時保持權限和資料存取控制。

顯示愛因斯坦信任層如何使用 CRM 資料的圖形。

利用多種基礎技術,可與提示範本搭配您在整個業務範圍內擴展,安全地將 AI 提示插入結構化或非結構化資料來源的業務前後關聯。

愛因斯坦生成內容的模板。

在將 AI 提示傳送至第三方大型語言模型 (LLM) 之前,隱藏敏感資料類型,例如個人識別資訊 (PII) 和支付卡產業 (PCI) 資訊,並根據組織的需求設定遮罩設定。

* 可用性因功能、語言和地理地區而異。

一個聊天窗口,其中包含與愛因斯坦 AI 對話的示例。
顯示愛因斯坦信任層如何使用 CRM 資料的圖形。
愛因斯坦生成內容的模板。
一個聊天窗口,其中包含與愛因斯坦 AI 對話的示例。

您的數據不是我們的產品。

Salesforce 可讓客戶控制他們的資料用於人工智慧。無論是使用我們自己的 Salesforce 託管模型還是屬於我們共享信任邊界的一部分的外部模型,例如 OpenAI,都不會儲存任何前後關聯。大語言模型一旦處理輸出,就會忘記提示和輸出。

減輕毒性和有害輸出。

通過掃描並對每個提示和輸出的毒性進行評分,讓員工能夠防止共享不當或有害的內容。確保在人員接受或拒絕之前沒有共享輸出,並將每個步驟記錄為我們的稽核記錄中繼資料,從而簡化大規模合規性。*

* 即將推出

在 AppExchange 上與值得信賴的合作夥伴一起充分利用安全 AI。

Accenture 標誌
Deloitte 標誌
斯拉洛姆標誌

Einstein Trust Layer常見問題

安全 AI 是一種 AI,可保護您的客戶數據,而不影響其輸出質量。客戶和公司數據是豐富和個性化 AI 模型結果的關鍵,但是要信任該數據的使用方式很重要。

人工智慧的安全問題之一就是資料隱私和安全,因為許多客戶不信任公司資料。生成人工智能還特別引發了關於它產生的內容的準確性、毒性和偏差的新關注。

Salesforce 使用直接內置於平台中的 Einstein Trust Layer 保護客戶數據安全。Einstein Trust Layer 包括一些資料安全防護欄,例如資料遮罩、TLS 機上加密以及使用大型語言模型零資料保留。

部署值得信賴的 AI 將使您能夠在不影響數據安全性和隱私控制的情況下獲得 AI 的好處。Einstein Trust Layer 讓您可以放心地瞭解資料的目標以及誰可以存取資料,讓您可以專注於使用 AI 實現最佳結果。

如何設計值得信賴的生成人工智慧

首先,了解 AI 如何滿足您的業務需求,並識別您的使用案例。接下來,選擇您可以信任的合作夥伴,擁有在提供值得信賴的 AI 解決方案方面有證實的記錄。最後,確定您特定行業的法規和合規要求,以提供您對值得信賴的 AI 旅程的方法提供資訊。