비즈니스 성장을 가속화할 수 있는 유용한 정보를 받아보세요.
생성형 AI 규제가 비즈니스에 미치는 영향
알아야 할 사항은 다음과 같습니다.
유럽 연합 및 미국을 포함한 여러 지역에서 생성형 인공지능과 관련된 규제에 대한 움직임이 나타나고 있습니다.
규제는 빠르게 도입될 수 있으며, 각각의 정부는 다양한 감독 체제를 시행할 수 있습니다.
비즈니스 결정권자로서, 생성형 AI를 이해하고 다른 회사 및 소비자와의 업무에 어떤 영향을 미치는지 이해해야 합니다.
세일즈포스의 글로벌 공공 정책 책임자인 Danielle Giliam-Moore는 다음과 같이 말했습니다. “대부분의 국가들은 생성형 AI가 개인 정보 보호, 투명성, 저작권 및 책임에 관한 기존 조치에 적용되도록 노력하고 있습니다.”
여러분의 회사가 지금 할 수 있는 일은 다음과 같습니다.
시장에 출시된 생성형 AI 제품을 검토하고 비즈니스에 맞는 제품을 찾아보세요.
질문해보세요: 내부적으로 구축해야 할까요, 아니면 세일즈포스와 같은 제3자 업체와 협력하여 외부 제품을 기술 스택에 추가해야 할까요?
위험 사항들을 주의 깊게 인지하세요.
“생성형 AI를 배포하는 방법을 알고 생성형 AI로 인해 발생할 수 있는 위험들을 인지하는 것은 중요합니다." 라고 Giliam-Moore는 말했습니다.
실행 요약
생성형 AI에 대한 여론은 매우 빠른 속도로 변화하고 있으며, 규제 기관들은 이 기술이 비즈니스와 대중들에게 어떤 영향을 미칠 수 있는지 이해하기 위해 노력하고 있습니다. 최근의 주요 헤드라인 몇 가지를 살펴보면 다음과 같습니다:
척 슈머 미국 상원 원내대표는 AI 정책을 중심으로 규제를 만드는 2단계 접근법을 밝혔습니다.
싱가포르는 AI 규제를 서두르지 않고 오히려 책임 있는 기술 사용을 촉진할 것이라고 말했습니다.
유럽의 법제처들은 AI를 규제하고 전세계 정책 결정자들에게 모범이 될 수 있는 법안을 통과시킴으로써 규제에 한 발 더 가까워졌습니다.
주요 AI 개발자들은 잠재적인 안전 위험을 검토하기 위해 영국 정부에 자사 모델을 공개하는 것을 합의하였으며, 영국 총리는 자국을 AI 규제의 글로벌 리더로 위치시키고자 합니다.
생성형 인공지능 규제에 대한 배경
인공지능(AI)에 대한 우려와 걱정은 수 년간 거론되어 왔습니다. 이는 일자리 손실, 불평등, 편향, 보안 문제 등을 다루는 토론의 대상이었습니다. 2022년 11월 ChatGPT의 공개 이후 생성형 AI의 급속한 성장으로 인해 새롭게 주목할 만한 주제들이 등장하였습니다:
개인정보 문제와 데이터 마이닝: 기업은 데이터를 수집하는 위치와 사용 방법에 대해 투명성을 확보해야 합니다.
저작권 문제: 생성형 AI 도구는 방대한 데이터 소스에서 정보를 가져오기 때문에 표절 가능성이 증가합니다.
잘못된 정보: AI 챗봇을 통해 잘못된 정보가 빠르게 확산될 수 있으며, 사실이 아닌 정보를 통해 잘못된 이야기들이 만들어질 수도 있습니다.
신원 확인: 읽고 있는 내용이 인간이 작성한 것인지 챗봇이 작성한 것인지 확인하는 것이 중요합니다. 기사, 소셜 미디어 게시물, 예술 작품 등을 확인하여 신뢰성을 확보해야 합니다.
어린이 보호: AI로 생성된 불안을 유발할 수 있는 콘텐츠로부터 소셜 미디어에서 아동 및 십대의 보호에 대한 요구가 제기되고 있습니다.
이러한 상황으로 인해 전 세계의 규제 기관들은 생성형 AI 도구가 데이터를 수집하고 출력물을 생성하는 방식, 그리고 기업이 개발하는 AI를 어떻게 훈련시키는지 조사하고 있습니다. 유럽에서는 국가들이 유럽 연합(EU) 내에서 활동하는 모든 기업에 영향을 미치는 일반 데이터 보호 규정(GDPR)을 신속하게 적용했습니다. GDPR은 세계에서 가장 강력한 개인정보 보호 법적 프레임워크 중 하나입니다. 미국에는 이와 유사한 범용 개인정보 보호법이 없지만 생성형 AI 규제를 위한 요구에 따라 상황이 변할 수 있습니다.
Gilliam-Moore는 다음과 같이 말했습니다. “이는 우리가 이전에 기술 산업의 해안에서 보았던 것과 같은 우려입니다. 현재 조사를 포함한 규제 노력은 개인 정보 보호, 콘텐츠 절제 및 저작권 문제에 초점을 맞추고 있는 것 같습니다. 이 중 많은 부분이 이미 법령에서 다루어졌기 때문에 규제 당국은 이것이 생성 AI의 목적에 적합한지 확인하려고 노력하고 있습니다.”
기업은 다음과 같은 사항을 고려해야 합니다:
기업들은 이러한 도구가 비즈니스에 어떤 영향을 미칠지 계속해서 궁금해합니다. 기술의 능력 뿐만 아니라 규제도 기업이 기술을 사용하는 방식에 중요한 영향을 미칠 것입니다. 데이터는 어디에서 가져오나요? 어떻게 사용되고 있나요? 고객은 보호받고 있나요? 투명성은 있나요?
기업이 다른 회사가 사용할 수 있는 기술을 개발하든 소비자와 직접 상호 작용하든 회사가 어디에서 사업을 하든 모두 상관없이 생성형 AI 규정을 준수하고 프로세스를 안내하는 변호사와 대화할 수 있도록 보장합니다.
Gilliam-Moore는 말합니다. “신뢰할 수 있는 자문자와 대화하는 것은 규제에 대해 논하는 부분에 있어서 중요하고도 좋은 첫 번째 단계입니다. 혁신은 놀라운 속도로 진행되고 있습니다. 따라서 우리가 현재 나누고 있는 대화는 6개월 이후엔 낡고 진부한 대화가 될 수 있습니다.”
규제 기관들은 기업이 데이터를 수집하는 방식과 그 정보가 사용자에게 전달되는 방식에 대해 우려하고 있습니다. 기업과 직원 또는 대학과 학생들과 같이 두 명 이상의 사람들 간에 기업 네트워크나 인터넷에 접속할 때 적절한 사용 방법을 설명하는 "적절한 사용 정책"을 갖는 것은 규정 준수를 보호하는 데 도움이 될 수 있습니다. 또한, 데이터의 원천을 나타내는 문서화된 경로인 “데이터 출처”를 표시하는 것도 중요합니다. 이는 데이터의 원래 출처와 현재 위치를 증명할 수 있는 문서화된 기록입니다.
Gilliam-Moore는 말했습니다. “데이터 없이는 규제가 작동할 수 없습니다.”
소규모 기업이 규정 준수를 유지하는 방법은 무엇일까요?
대기업들은 기술 연구 및 개발에 투자할 수 있으며, 특히 규정 준수를 위해 그러한 노력을 기울일 수 있습니다. 그러나 소규모 기업들은 자사의 업무 조사를 수행하기 위한 리소스를 갖추지 못할 수도 있으므로, 자신들의 생태계에서 벤더와 기술 파트너들에게 적절한 질문을 하는 것에 대한 중요성이 커집니다.
Salesforce는 고객들을 위해 신뢰할 수 있는 생성형 AI를 개발하기 위한 단계를 진행하고 있지만, 이러한 고객들은 다른 공급업체 및 프로세서도 함께 협업합니다. 그들은 잠재적인 피해가 존재할 수 있음을 인식하고 무작정 신뢰하지 않아야 합니다. Gilliam-Moore는 소규모 기업들이 다음과 같은 질문을 하도록 권장했습니다.
GDPR(일반 데이터 보호 규칙)을 준수하고 있나요?
HIPAA(보건 정보 포트팅션 및 기능법) 또는 당신의 산업을 규제하는 다른 법률을 준수하고 있나요?
적절한 사용 정책을 갖고 있나요?
어떠한 종류의 인증서를 보유하고 있나요?
데이터에 처리 방법은 어떻게 되나요?
기술 배포를 위한 가드레일을 제공하기 위한 정책이 있나요?
Gilliam-Moore는 다음과 같이 말했습니다. “소규모 기업의 경우, 타사 서비스 제공업체의 사전 조사와 작업물에 의존해야 할 수도 있습니다. 개인 정보 보호 프로토콜, 보안 절차, 피해 보호 장치에 해당하는 정책 및 개발 도출물을 확인하세요.”
관련 제품