




신뢰할 수 있는 AI의 출발점인 안전하게 그라운딩된 프롬프트
프롬프트는 대규모 언어 모델(LLM)을 조정하여 유용한 결과를 반환하는 일련의 지침입니다. 프롬프트에 맥락 정보를 더 많이 제공할수록 결과가 더 좋아집니다. 보안 데이터 검색, 동적 그라운딩 등 Einstein Trust Layer의 기능을 사용하면 AI 프롬프트에 비즈니스 맥락 정보를 안전하게 제공할 수 있으며, 데이터 마스킹 및 제로 데이터 유지는 프롬프트가 타사 LLM에 전송될 때 해당 데이터의 개인 정보를 보호하고 보안을 지킵니다.
원활한 개인 정보 보호 및 데이터 관리
생성형 프로세스의 단계마다 데이터의 정보와 보안을 보호하면서 타사 기반 LLM의 규모와 비용 효율성의 이점을 누려보세요.
사용자가 권한 및 데이터 액세스 제어 기능을 유지하면서 안전하게 데이터에 액세스하여 비즈니스의 맥락에서 생성형 AI 프롬프트를 그라운딩할 수 있습니다.

비즈니스 전반에 걸쳐 확장 가능한 프롬프트 템플릿과 함께 다양한 그라운딩 기술을 활용하여 AI 프롬프트에 정형 또는 비정형 데이터 소스의 비즈니스 맥락 정보를 안전하게 주입하세요.

타사 대규모 언어 모델(LLM)로 AI 프롬프트를 전송하기 전에 개인 식별 정보(PII), 지불 카드 산업(PCI) 정보 등 민감한 데이터 유형을 마스킹하고 조직의 요구에 맞게 마스킹 설정을 구성하세요.
*이용 가능 여부는 기능, 언어, 지리적 위치에 따라 달라집니다.




제품으로 취급되지 않는 고객의 데이터
Salesforce는 고객이 고객의 데이터를 직접 제어하여 AI에 사용할 수 있도록 지원합니다. Salesforce가 호스팅하는 자체 모델을 사용하든, OpenAI처럼 공유 신뢰 경계에 속하는 외부 모델을 사용하든, 어떤 맥락 정보도 저장되지 않습니다. 대규모 언어 모델은 출력이 처리되자마자 프롬프트와 출력 결과를 모두 삭제합니다.
유해하고 해로운 출력 결과의 완화
모든 프롬프트와 출력 결과의 유해성을 검사하고 점수를 매겨 직원이 부적절하거나 해로운 콘텐츠를 공유하지 않게 합니다. 사람이 출력 결과를 받아들이거나 거부하기 전에 공유 자체가 되지 않도록 하고, 모든 단계를 감사 내역에 메타데이터로 기록하여 대규모 규정 준수를 간소화합니다.*
* 제공 예정
윤리적 설계를 통해 배포하는 AI
Salesforce는 윤리적이고 인간적인 방식으로 사용되는 소프트웨어와 솔루션을 제공하기 위해 노력하고 있습니다. 특히 데이터와 AI에 관해서는 더욱 그렇습니다. 고객과 사용자가 AI를 책임감 있게 사용할 수 있도록 Salesforce는 가장 위험한 부분을 다루는 수용 가능한 AI 사용 정책을 마련했습니다. 개인화된 의료, 법률 또는 재정적 조언을 생성하는 행위는 금지되는데, 이러한 사안을 앞으로도 사람이 직접 결정을 내리는 영역으로 남겨두기 위한 노력의 일환입니다. Salesforce에서는 당사 제품이 미치는 실제 영향을 주의 깊게 살피며, 시장에 출시된 최신 도구로 고객에게 힘을 실어주는 동시에 Salesforce의 가치를 지키고자 구체적인 보호 수단을 갖추고 있습니다.
AppExchange에서 신뢰할 수 있는 파트너와 함께 보안 AI를 최대한 활용하세요.



보안 AI 팁과 요령, 모범 사례를 활용하여 성공적으로 시작해 보세요.
Einstein Trust Layer FAQ
보안 AI는 출력의 품질을 훼손하지 않고 고객 데이터를 보호하는 AI입니다. 고객과 회사 데이터는 AI 모델이 생성하는 결과를 풍부하게 하고 개인화하는 데 아주 중요하지만, 이러한 데이터가 사용되는 방식을 믿을 수 있어야 합니다.
데이터를 사용하는 기업을 신뢰하지 않는 고객이 많다는 점을 감안하면, 가장 두드러진 AI 보안 문제 중 하나는 데이터 개인 정보 보호 및 보안입니다. 생성형 AI는 특히 생성되는 콘텐츠의 정확성, 유해성 및 편차에 대한 새로운 걱정거리를 안겨줍니다.
Salesforce는 플랫폼에 직접 내장된 Einstein Trust Layer를 사용하여 고객의 데이터를 안전하게 유지합니다. Einstein Trust Layer에는 데이터 마스킹, TLS 전송 중 암호화, 대규모 언어 모델의 제로 데이터 유지와 같은 데이터 보안 가드레일이 다양하게 포함되어 있습니다.
신뢰할 수 있는 AI를 배포하면 데이터 보안에 해가 되거나 개인 정보 보호 제어 기능을 저하시키지 않고도 AI의 이점을 누릴 수 있습니다. Einstein Trust Layer를 사용하면 데이터 전송 위치와 접속 가능한 대상을 걱정할 필요가 없어 안심하고 AI로 최고의 결과를 달성하는 데 집중할 수 있습니다.
먼저, AI가 어떻게 비즈니스 요구를 해결할 수 있는지 파악하고 사용 사례를 식별합니다. 그런 다음 신뢰할 수 있는 AI 솔루션을 제공해 본 실적이 입증된 믿음직한 파트너를 선택합니다. 마지막으로, 신뢰할 수 있는 AI 여정에 어떻게 접근할지 정할 수 있도록 특정 산업에 적용되는 규제 및 규정 준수 요구 사항을 파악합니다.