Einstein Trust Layer가 CRM 앱을 위한 콘텐츠를 만드는 방법을 보여주는 그래픽.

Einstein Trust Layer

Einstein Trust Layer는 데이터의 프라이버시와 보안을 보호하고, AI 결과의 안전성과 정확성을 향상시키며, Salesforce 생태계 전반에서 AI의 책임 있는 사용을 촉진하는 강력한 보호 장치입니다. 기업의 안전 및 보안 기준을 훼손하지 않고 생성형 AI의 강력한 잠재력을 활용할 수 있도록 설계되었습니다.

Einstein AI 응답으로 생성 중인 사용자 프롬프트 템플릿.

신뢰할 수 있는 AI는 안전한
프롬프트로 시작됩니다.

프롬프트는 대형 언어 모델(LLM)이 유용한 결과를 반환하도록 유도하는 가이드입니다. 프롬프트에 더 많은 맥락을 제공할수록 결과의 품질도 높아집니다. Einstein Trust Layer의 안전한 데이터 검색과 동적 그라운딩 기능을 통해 비즈니스와 관련된 맥락을 AI 프롬프트에 안전하게 제공할 수 있으며, 데이터 마스킹과 데이터 보존 제로 기능은
프롬프트가 타사 LLM으로 전송될 때 데이터의 프라이버시와 보안을 보호합니다.

원활한 개인 정보 보호
및 데이터 관리

LLM의 규모와 비용 효율성을 활용하면서, 생성 과정의 모든 단계에서 데이터의 프라이버시와 보안을 보호하세요.

사용자의 권한과 데이터 접근 제어를 유지하면서, 비즈니스에 대한 맥락으로 생성형 AI 프롬프트를 안전하게 연결할 수 있도록 하세요.

Einstein Trust Layer가 CRM 데이터를 사용하는 방법을 보여주는 그래픽.

구조화된 또는 비구조화된 데이터 소스를 비즈니스 맥락을 안전하게 AI 프롬프트에 입력하세요. 다양한 그라운딩 기법을 활용하여, 비즈니스 전반에 걸쳐 확장 가능한 프롬프트 템플릿과 함께 사용 가능합니다.

Einstein이 생성한 콘텐츠 템플릿.

개인 식별 정보(PII)와 결제 카드 산업(PCI) 정보와 같은 민감한 데이터 유형을 AI 프롬프트를 타사 대형 언어 모델(LLM)로 전송하기 전에 마스킹하고, 조직의 필요에 맞게 마스킹 설정을 구성하세요.

*기능, 언어, 지역에 따라 사용 가능 여부가 다를 수 있습니다.

채팅 창에 Einstein AI와 함께 나눈 대화 예시가 표시되어 있습니다.
Einstein Trust Layer가 CRM 데이터를 사용하는 방법을 보여주는 그래픽.
Einstein이 생성한 콘텐츠 템플릿.
채팅 창에 Einstein AI와 함께 나눈 대화 예시가 표시되어 있습니다.

여러분의 데이터는
우리의 제품이 아닙니다.

Salesforce는 고객에게 AI 사용을 위한 데이터 관리 권한을 제공합니다. Salesforce가 호스팅하는 모델이든 OpenAI와 같은 Shared Trust Boundary에 포함된 외부 모델이든, 어떠한 맥락도 저장되지 않습니다. 대형 언어 모델은 출력이 처리되는 즉시 프롬프트와 결과를 잊어버립니다.

유해하거나 부정적인 결과를
방지합니다.

부적절하거나 유해한 콘텐츠의 공유를 방지할 수 있도록 모든 프롬프트와 출력의 유해성 여부를 확인하고 점수화하세요. 출력물은 승인하거나 거부하기 전에는 공유되지 않으며, 모든 단계는 메타데이터로 기록되어 대규모로 간편하게 규정을 준수할 수 있습니다.

*곧 출시 예정

파트너와 함께 AI를 최대한 활용하세요.

Accenture 로고
Deloitte 로고
Slalom 로고

FAQ

보안성 높은 AI는 출력 품질을 손상시키지 않으면서 고객 데이터를 보호하는 AI입니다. 고객 및 회사 데이터는 AI 모델의 결과를 풍부하게 하고 개인화하는 데 핵심적이지만, 해당 데이터가 어떻게 사용되는지 신뢰하는 것이 중요합니다.

AI의 주요 안전 문제 중 하나는 데이터 프라이버시와 보안입니다. 많은 고객들이 회사가 자신의 데이터를 안전하게 다루지 못할 것이라고 우려하기 때문입니다. 특히 생성형 AI는 생성된 콘텐츠의 정확성, 독성, 편향성에 대한 새로운 우려를 불러일으킵니다.

Salesforce는 Einstein Trust Layer를 통해 고객 데이터를 안전하게 보호합니다. 이 레이어는 플랫폼에 직접 통합되어 있으며, 데이터 마스킹, 전송 중 데이터 암호화(TLS), 대형 언어 모델(LLM)의 데이터 보존 제로와 같은 여러 데이터 보안 보호 장치를 포함하고 있습니다.

신뢰할 수 있는 AI를 도입하면 데이터 보안과 프라이버시 통제를 손상시키지 않으면서 AI의 이점을 누릴 수 있습니다. Einstein Trust Layer는 데이터가 어디로 가고 누가 접근할 수 있는지를 명확하게 하여, 안심하고 AI를 활용해 최상의 결과를 달성할 수 있도록 도와줍니다.

신뢰할 수 있는 생성형 AI를 설계하는 방법

먼저, AI가 귀사의 비즈니스 요구를 어떻게 해결할 수 있는지 이해하고, 사용할 사례를 식별하세요. 그 다음으로, 신뢰할 수 있는 AI 솔루션을 제공한 입증된 실적이 있는 파트너를 선택하세요. 마지막으로, 특정 업계의 규제 및 준수 요구 사항을 파악하여 AI 도입 전략을 수립하세요.