




值得信賴的 AI 始於安全地的提示。
提示是一組指令,可引導大語言模型 (LLM) 返回有用的結果。提示提示的上下文越多,結果就越好。Einstein Trust Layer 的功能,例如安全數據擷取和動態基礎,可讓您安全地提供 AI 提示,並提供有關您業務的前後關聯,同時資料遮罩和零資料保留可保護提示傳送給第三方 LLM 時,該資料的隱私和安全性。
無縫的隱私和數據控制。
利用第三方基金會 LLM 的規模和成本效益,同時在產生流程的每個步驟中保護您數據的隱私和安全性。
允許使用者安全地存取資料,以取得有關您業務的前後關聯式人工智慧提示,同時保持權限和資料存取控制。

利用多種基礎技術,可與提示範本搭配您在整個業務範圍內擴展,安全地將 AI 提示插入結構化或非結構化資料來源的業務前後關聯。

在將 AI 提示傳送至第三方大型語言模型 (LLM) 之前,隱藏敏感資料類型,例如個人識別資訊 (PII) 和支付卡產業 (PCI) 資訊,並根據組織的需求設定遮罩設定。
* 可用性因功能、語言和地理地區而異。




您的數據不是我們的產品。
Salesforce 可讓客戶控制他們的資料用於人工智慧。無論是使用我們自己的 Salesforce 託管模型還是屬於我們共享信任邊界的一部分的外部模型,例如 OpenAI,都不會儲存任何前後關聯。大語言模型一旦處理輸出,就會忘記提示和輸出。
減輕毒性和有害輸出。
通過掃描並對每個提示和輸出的毒性進行評分,讓員工能夠防止共享不當或有害的內容。確保在人員接受或拒絕之前沒有共享輸出,並將每個步驟記錄為我們的稽核記錄中繼資料,從而簡化大規模合規性。*
* 即將推出
透過設計的道德部署人工智慧
Salesforce 致力於提供有意的道德和人道性使用的軟件和解決方案,尤其是在資料和人工智能方面。為了讓客戶和用戶能夠負責任地使用 AI,我們制定了 AI 可接受的使用政策,以解決最高風險領域。為了維持這些領域的人類決策,禁止提供個人化的醫療、法律或財務建議。在 Salesforce,我們關心產品的真實影響,這就是為什麼我們有特定的保護措施來維護我們的價值觀,同時為客戶提供市場上最新的工具。
在 AppExchange 上與值得信賴的合作夥伴一起充分利用安全 AI。



利用管理分析秘訣、技巧和最佳實務,快速上手。
Einstein Trust Layer常見問題
安全 AI 是一種 AI,可保護您的客戶數據,而不影響其輸出質量。客戶和公司數據是豐富和個性化 AI 模型結果的關鍵,但是要信任該數據的使用方式很重要。
人工智慧的安全問題之一就是資料隱私和安全,因為許多客戶不信任公司資料。生成人工智能還特別引發了關於它產生的內容的準確性、毒性和偏差的新關注。
Salesforce 使用直接內置於平台中的 Einstein Trust Layer 保護客戶數據安全。Einstein Trust Layer 包括一些資料安全防護欄,例如資料遮罩、TLS 機上加密以及使用大型語言模型零資料保留。
部署值得信賴的 AI 將使您能夠在不影響數據安全性和隱私控制的情況下獲得 AI 的好處。Einstein Trust Layer 讓您可以放心地瞭解資料的目標以及誰可以存取資料,讓您可以專注於使用 AI 實現最佳結果。
首先,了解 AI 如何滿足您的業務需求,並識別您的使用案例。接下來,選擇您可以信任的合作夥伴,擁有在提供值得信賴的 AI 解決方案方面有證實的記錄。最後,確定您特定行業的法規和合規要求,以提供您對值得信賴的 AI 旅程的方法提供資訊。