OpenAI의 생성형 AI 비디오 플랫폼 Sora 2 출시 후 배우 브라이언 크랜스턴의 딥페이크 이미지가 동의 없이 생성되어 큰 논란이 되었어요. 인공지능 기술의 발전이 개인의 초상권과 직업적 권리를 어떻게 위협하고, 또 어떻게 보호할 수 있는지 많은 이들이 궁금해하고 있답니다. 이번 사건을 통해 우리는 AI 시대에 필요한 권리 보호의 핵심 원칙을 함께 알아볼 거예요.

Sora 2 딥페이크 논란의 시작, 브라이언 크랜스턴의 용기
인공지능 기술이 빠르게 발전하면서, OpenAI의 생성형 비디오 플랫폼 Sora 2는 현실과 거의 구별할 수 없는 영상을 만들어낼 수 있게 되었어요. 하지만 이 기술의 빛 뒤에는 어두운 그림자도 있었답니다. 바로 배우 브라이언 크랜스턴의 딥페이크 이미지가 그의 동의 없이 생성되면서 초상권 침해 논란이 불거진 거예요. ‘브레이킹 배드’의 스타인 그는 자신의 목소리와 얼굴이 AI로 재현된 사실을 알게 된 후, 배우 조합 Sag-Aftra에 이 문제를 제기했어요. 당시 OpenAI는 “의도치 않은 생성”이었다고 해명했지만, 이는 AI 기술이 가져올 수 있는 심각한 문제의 서막에 불과했죠.
‘옵트아웃’ vs ‘옵트인’, AI 초상권 침해 논란의 불씨
Sora 2 출시 초기에 할리우드에서는 뜨거운 논쟁이 벌어졌어요. OpenAI가 재능 있는 인물이나 저작권 있는 자료를 Sora 2에서 복제하고 싶지 않다면 직접 ‘옵트아웃(Opt-out)’해야 한다고 말했다는 보도가 나왔기 때문이에요. 이는 ‘옵트인(Opt-in)’, 즉 당사자의 명시적인 동의가 있어야만 사용해야 한다는 일반적인 인식과 정면으로 배치되는 부분이었죠. 월스트리트 저널, 할리우드 리포터, LA 타임스 등 여러 언론사가 이러한 할리우드의 분노를 보도했고, Creative Artists Agency(CAA)와 United Talent Agency(UTA) 같은 대형 에이전시들도 고객들의 권리 침해 위험에 대해 강하게 경고했어요. 이 사건은 AI 시대에 개인의 동의가 얼마나 중요한지 다시 한번 일깨워주는 계기가 되었답니다.

배우의 목소리, 브라이언 크랜스턴의 강력한 메시지
브라이언 크랜스턴은 Sag-Aftra를 통해 성명을 발표하며 OpenAI가 보호 장치를 개선한 것에 대해 감사를 표했어요. 그는 “나 자신뿐만 아니라 자신의 작업과 정체성이 이런 식으로 오용될 수 있는 모든 공연자들에 대해 깊이 우려했다”고 밝혔어요. 이어서 “OpenAI의 정책과 보호 장치 개선에 감사하며, 그들과 이 작업에 관련된 모든 회사가 우리의 목소리와 얼굴 복제를 관리할 개인적, 직업적 권리를 존중하기를 바란다”고 강조했죠. 이는 단순히 한 배우의 문제가 아니라, 모든 예술가와 대중에게 자신의 디지털 정체성을 통제할 권리가 있음을 분명히 하는 중요한 메시지였답니다.
OpenAI의 변화와 강화된 보호 조치
논란이 커지자 OpenAI는 재능 에이전시 조합인 Association of Talent Agents, Sag-Aftra, UTA, CAA와 공동 성명을 발표했어요. 이 성명에서 OpenAI는 브라이언 크랜스턴에게 일어난 일이 “의도치 않은 생성”이었음을 유감스럽게 생각하며 사과했어요. 또한, 개인의 동의 없이 목소리와 얼굴을 복제하는 것을 막기 위해 보호 장치(Guardrails)를 강화했다고 밝혔죠. Sag-Aftra의 새로운 회장인 숀 애스틴은 브라이언 크랜스턴의 사례가 “수많은 공연자들이 복제 기술에 의해 대규모 오용될 위험에 처해 있다”는 것을 보여준다고 경고하며, ‘옵트인’ 프로토콜이 사업을 하는 유일한 방법이라고 강조했어요.

NO FAKES Act, AI 시대 초상권 보호의 새로운 기준
초상권 침해 문제의 심각성을 인식하고, 미국 의회에서는 ‘NO FAKES Act’라는 법안을 검토 중이랍니다. 이 법안은 개인의 동의 없이 AI 생성 복제품을 제작하고 배포하는 것을 금지하는 것을 목표로 해요. OpenAI는 샘 알트만 CEO를 통해 이 법안을 공개적으로 지지하며, 회사가 “공연자들의 목소리와 얼굴 오용으로부터 보호하는 데 깊이 전념하고 있다”고 밝혔어요. 이러한 법적, 제도적 장치가 마련된다면, 생성형 AI 기술이 더 안전하고 윤리적인 방향으로 발전할 수 있을 거예요.
고인 초상권 문제와 AI 기술의 윤리적 딜레마
Sora 2는 “역사적 인물”을 생성하는 것을 허용하지만, 이 또한 복잡한 윤리적 문제를 야기하고 있어요. 최근 OpenAI는 마틴 루터 킹 주니어 유족의 요청에 따라 그의 이미지를 Sora 2에서 묘사하는 것을 일시 중단하기도 했어요. 고인이라 하더라도 그 가족들에게는 여전히 중요한 의미를 가지기 때문이죠. 로빈 윌리엄스의 딸 젤다 윌리엄스나 조지 칼린의 딸 켈리 칼린도 아버지의 AI 비디오에 대한 고통을 호소했어요. AI 기술이 ‘죽은’ 인물을 어디까지 재현할 수 있는지, 그리고 그 기준은 무엇이 되어야 할지에 대한 깊은 논의가 필요한 시점이라고 생각해요.

마무리
브라이언 크랜스턴의 Sora 2 딥페이크 사건은 AI 기술의 놀라운 발전 뒤에 가려진 중요한 윤리적, 법적 문제를 수면 위로 끌어올렸어요. 개인의 동의를 기반으로 하는 ‘옵트인’ 방식의 중요성과 ‘NO FAKES Act’와 같은 법적 보호 장치의 필요성이 더욱 강조되고 있답니다. 앞으로 AI 딥페이크 기술이 더욱 발전할 텐데, 우리의 초상권과 정체성을 어떻게 지켜나가야 할지 함께 고민하고 논의해야 할 때입니다. 여러분은 AI 기술과 개인의 권리 보호 사이에서 어떤 균형이 중요하다고 생각하시나요?
출처: https://www.theguardian.com/technology/2025/oct/21/bryan-cranston-sora-2-openai