오픈AI 소라(Sora)의 등장은 놀라웠지만, 곧바로 5가지 심각한 논란에 휩싸였습니다. 폭력적이고 인종차별적인 콘텐츠 생성, 저작권 침해 등 AI 영상 기술의 어두운 면이 드러나면서, 기술 윤리에 대한 깊은 고민을 던지고 있어요. 소라는 과연 안전한 창작 도구가 될 수 있을까요?

소라(Sora), “가드레일” 없는 폭력과 인종차별 콘텐츠 논란
오픈AI가 야심 차게 선보인 AI 영상 생성 모델 소라(Sora) 2가 출시되자마자 폭력적이고 인종차별적인 영상들로 홍역을 앓고 있습니다. “가드레일은 실체가 없다”는 비판이 나올 정도로 문제가 심각한데요. 실제로 가디언지에서 검토한 프롬프트와 클립에서는 대학 캠퍼스나 뉴욕 그랜드 센트럴 스테이션 같은 혼잡한 장소에서 폭탄 테러나 총기 난사 상황으로 패닉에 빠진 사람들이 비명을 지르고 도망치는 영상이 다수 생성되었답니다.
더욱 충격적인 것은 AI가 만들어낸 아이들이 전쟁 지역에서 집이 불타는 이야기를 하는 영상이나, 스폰지밥이 아돌프 히틀러 복장을 하고 등장하는 영상까지 있었다는 점이에요. 오픈AI의 서비스 약관에서 폭력이나 유해한 콘텐츠를 금지하고 있지만, 소라는 이러한 규정을 제대로 지키지 못하고 있다는 지적이 이어지고 있습니다. 이대로라면 AI 영상 기술이 사회에 미칠 부정적인 영향이 심각할 수밖에 없겠죠?
진실을 흐리는 AI 영상: 가짜 뉴스와 오용의 위험성
소라(Sora)가 만들어내는 실제와 같은 영상들은 진실과 허구의 경계를 모호하게 만들 수 있다는 큰 위험성을 안고 있습니다. 잘못된 정보 연구자들은 이러한 사실적인 AI 영상이 진실을 왜곡하고, 나아가 사기, 괴롭힘, 협박 등에 악용될 수 있다고 경고하고 있어요. 보스턴 대학의 조안 도노반 교수는 “소라는 역사적 충실성도, 진실과의 관계도 없다”며 “잔인한 사람들이 이런 도구를 손에 넣으면 증오, 괴롭힘, 선동에 사용할 것”이라고 우려했답니다.
샘 알트만 오픈AI CEO는 소라 출시를 “창의성을 위한 ChatGPT와 같은 순간”이라고 표현했지만, 동시에 소셜 미디어가 중독성 있고 괴롭힘에 사용될 수 있다는 점, 그리고 AI 영상 생성이 ‘슬롭(slop)’이라고 불리는 저품질의 반복적인 영상을 양산할 수 있다는 점을 인정하기도 했어요. 하지만 현실은 이러한 우려가 이미 현실화되고 있는 상황입니다.

저작권 침해의 딜레마: 창작자를 위한 가이드라인은 어디에?
소라(Sora)의 또 다른 큰 문제는 바로 저작권 침해입니다. 스폰지밥, 사우스파크, 릭 앤 모티 같은 유명 캐릭터들이 저작권자의 동의 없이 AI 영상에 무단으로 등장하고 있기 때문이에요. 피카츄가 중국에 관세를 부과하고, 백악관 로즈 가든에서 장미를 훔치며, 심지어 스폰지밥이 아돌프 히틀러 복장을 하는 등 충격적인 장면들이 생성되기도 했습니다. 심지어 이러한 저작권 캐릭터들이 암호화폐 사기를 홍보하는 데 악용되는 사례까지 발견되었다고 해요.
오픈AI는 콘텐츠 소유자가 저작권 침해를 신고할 수 있는 양식을 제공하지만, 개별 아티스트나 스튜디오가 전면적인 옵트아웃(opt-out)을 할 수는 없다고 밝혀 논란을 키웠습니다. 조지 워싱턴 대학의 데이비드 카프 교수는 “사람들이 이미 저작권 캐릭터로 가짜 암호화폐 사기를 만들고 있다면 가드레일은 현실이 아니다”라며 오픈AI의 안전장치가 제대로 작동하지 않고 있음을 비판했답니다. 창작자들의 권리가 제대로 보호받지 못하는 상황은 AI 영상 기술의 발전을 저해할 수밖에 없을 거예요.
오픈AI의 ‘안일한’ 대응과 커져가는 비판의 목소리
소라(Sora) 출시 이후 오픈AI의 대응은 많은 비판을 받고 있습니다. 샘 알트만 CEO는 소라 2의 출시를 긍정적으로 평가했지만, 현장의 혼란은 계속되고 있어요. 워싱턴 포스트의 기자는 알트만 자신을 제2차 세계대전 군사 지도자로 만드는 영상을 만들 수 있었고, ‘분노 유발 콘텐츠, 가짜 범죄, 흰색 점액이 튀는 여성’ 영상도 만들 수 있었다고 밝혔습니다. 이는 오픈AI가 마련했다는 라이선스 사용 방지 및 유해 콘텐츠 방지 조치가 미흡하다는 명백한 증거로 볼 수 있죠.
과거 2022년에는 기술 기업들이 콘텐츠 중재자 고용에 큰 공을 들였던 것과 달리, 2025년에는 “기술 기업들이 더 이상 신경 쓰지 않기로 결정한 해”라는 비판까지 나오고 있습니다. 이처럼 개발사의 안일한 태도는 AI 영상 기술의 신뢰도를 떨어뜨리고, 사용자들에게 혼란과 피해를 줄 수 있다는 점에서 큰 우려를 낳고 있어요.

AI 영상 시대, 우리가 고민해야 할 기술 윤리와 신뢰 문제
오픈AI 소라(Sora)가 촉발한 일련의 논란들은 AI 영상 기술이 우리 사회에 가져올 거대한 변화와 함께, 우리가 어떤 윤리적 고민을 해야 할지 분명하게 보여주고 있습니다. 워싱턴 대학의 에밀리 벤더 교수는 소라가 “신뢰할 수 있는 출처를 찾기 더 어렵게 만들고, 일단 찾더라도 신뢰하기 더 어렵게 만든다”며, 합성 미디어 기계들이 “우리 정보 생태계의 재앙”이라고 강하게 비판했어요. 마치 기름 유출처럼 정보의 연결망을 따라 흐르며 신뢰 관계를 약화시키고 파괴한다는 비유는 현재의 상황을 잘 대변해 줍니다.
AI 영상 기술의 발전은 불가피하지만, 그 발전의 방향은 우리 모두의 책임 아래 결정되어야 합니다. 기술이 인간의 삶에 긍정적인 영향을 미치기 위해서는 개발 단계부터 강력한 안전장치와 윤리적 기준이 마련되어야 하고, 사용자 역시 비판적인 시각으로 AI 영상을 소비하는 노력이 필요할 거예요. 그렇지 않으면 AI 영상은 단순한 창작 도구를 넘어 사회적 혼란을 야기하는 양날의 검이 될 수 있습니다.
마무리
오픈AI 소라(Sora)가 가져온 혁신은 분명 놀랍지만, 동시에 기술의 어두운 면과 윤리적 책임을 다시 한번 생각하게 합니다. AI 영상 기술이 우리의 일상과 사회에 긍정적인 영향을 미치려면, 개발사와 사용자의 끊임없는 관심과 노력이 필요할 거예요. 여러분은 이 복잡한 문제에 대해 어떻게 생각하시나요? 댓글로 의견을 나눠주세요.
출처: https://www.theguardian.com/us-news/2025/oct/04/openai-sora-violence-racism