AI 딥페이크와 온라인 성범죄: 여성 디지털 안전을 위협하는 5가지 실체

최근 AI 기술의 발전은 우리 삶을 풍요롭게 하지만, 동시에 심각한 부작용을 낳고 있어요. 특히 AI 딥페이크 기술을 이용한 온라인 성범죄는 전 세계 여성 디지털 위협의 새로운 형태로 떠오르고 있는데요. 가짜 이미지와 영상으로 인해 피해자들이 겪는 고통은 상상 이상입니다. 과연 어떤 문제들이 발생하고 있는지, 그리고 우리는 어떻게 대처해야 할까요?

An abstract, clean infographic showing intertwined digital threats and a shield protecting a female silhouette, representing AI deepfake and online cybercrime. The background is a gradient of blues and purples, indicating technology. No text.

AI 딥페이크가 만드는 현실: 여성들의 온라인 활동 위축

“어쩌면 안전하지 않을 수도 있어.” 인도 뭄바이에 사는 한 법대생 가타 사르바이야 씨는 소셜 미디어에 자신의 사진을 올릴 때마다 이런 생각을 한다고 해요. AI 딥페이크 기술의 발전으로 인해 본인의 사진이 언제든 왜곡되거나 불쾌한 이미지로 변형될 수 있다는 두려움 때문인데요. 이는 비단 사르바이야 씨만의 이야기가 아니에요. 많은 여성이 AI 딥페이크로 인한 잠재적 피해를 우려해 온라인 활동을 망설이거나 스스로를 검열하는 ‘칠링 이펙트’를 경험하고 있답니다.

Lifestyle photography of a young Indian woman in her early 20s, looking thoughtfully at her smartphone with a slight expression of hesitation or concern, as if contemplating posting something online. The setting is a cozy, modern cafe or home environment with soft, natural lighting. No text.

‘누디파이’ 앱의 등장과 디지털 성범죄의 확산

AI 기술의 급속한 확산은 특히 여성 디지털 위협을 증폭시키는 새로운 방식들을 만들어냈어요. 인도에서만 해도 온라인 학대 피해자들을 돕는 라티 재단의 보고서에 따르면, 지난 3년간 AI 생성 콘텐츠가 대부분 여성과 성 소수자를 대상으로 사용되었다고 합니다. 특히 “누디파이(nudify) 앱”과 같이 옷을 제거하는 AI 도구들이 생겨나면서, 이미지를 디지털로 조작해 나체 사진을 만들거나, 인도 문화에서 금기시되는 공공장소 애정 표현 같은 사진으로 변형시키는 온라인 성범죄가 크게 늘고 있어요. 대출 신청 시 제출했던 사진이 누디파이 앱으로 조작되어 돈을 요구하는 협박의 수단이 되기도 한답니다.

유명인도 예외 없는 딥페이크 피해 사례들

AI 딥페이크의 문제는 일반인에게만 국한되지 않아요. 인도의 유명인들도 딥페이크의 표적이 되고 있는데요. 볼리우드 가수 아샤 보슬레는 AI로 목소리와 이미지가 복제되어 유튜브에 유포되었고, 저널리스트 라나 아유브는 정치 부패 수사를 보도한 후 성적으로 왜곡된 딥페이크 이미지로 공격을 받기도 했습니다. 이러한 사건들은 AI 딥페이크 기술이 누구에게나 피해를 줄 수 있음을 명확하게 보여주며, 사회 전반에 걸쳐 여성 디지털 위협에 대한 경각심을 불러일으키고 있어요.

A visually striking illustration featuring a mosaic of diverse female faces from various age groups and backgrounds, each subtly intertwined with digital patterns or glowing lines, symbolizing the widespread nature of AI deepfake threats. The style is modern and impactful, with a slight sense of vulnerability mixed with resilience. No text.

피해자가 겪는 고통: 금전적 갈취와 정신적 압박

AI 딥페이크를 이용한 온라인 성범죄의 피해는 단지 명예 훼손에 그치지 않아요. 한 여성은 대출 신청 사진이 조작된 후 협박에 응하지 않자, 누디파이 앱으로 변형된 사진이 자신의 전화번호와 함께 왓츠앱에 유포되는 끔찍한 일을 겪었답니다. 이로 인해 수많은 성적인 전화와 메시지에 시달리며 심각한 정신적 고통을 호소했어요. 피해자들은 종종 “더럽고 추악한 일에 연루된 것 같다”는 수치심과 사회적 낙인을 느끼며, 이로 인해 온라인 공간에서 완전히 사라지거나 활동을 중단하는 결과를 낳기도 합니다.

부족한 법적 보호와 플랫폼의 책임: 변화가 필요한 이유

현재 대부분의 국가에서 AI 딥페이크는 법적으로 명확하게 규정되지 않은 ‘회색 지대’에 놓여 있어요. 인도의 경우에도 온라인 괴롭힘에 적용될 수 있는 몇 가지 법률이 있지만, AI 딥페이크 문제를 해결하기에는 역부족이라는 지적이 많습니다. 또한, 유튜브, 메타, X, 인스타그램, 왓츠앱과 같은 플랫폼들이 학대성 콘텐츠 삭제 요청에 비효율적으로 대응하는 것도 문제로 지적되고 있어요. 심지어 문제가 된 계정을 삭제해도 콘텐츠는 다른 곳에서 다시 나타나는 ‘콘텐츠 재발(content recidivism)’ 현상이 빈번하게 발생하여 여성 디지털 위협에 대한 플랫폼의 투명성과 데이터 접근성 강화가 절실한 상황이랍니다.

An illustrative scene depicting a woman looking overwhelmed and frustrated while sitting in front of a laptop. The background shows blurred icons of various social media platforms and abstract digital lines, symbolizing the complexity and challenges of online spaces. The lighting is dim, emphasizing the feeling of distress. No text.

AI 딥페이크온라인 성범죄는 우리 사회가 시급히 해결해야 할 중대한 여성 디지털 위협이에요. 피해를 예방하고, 안전한 온라인 환경을 만들기 위해 우리 모두의 관심과 노력이 필요하답니다. 여러분은 이 문제에 대해 어떻게 생각하시나요?

출처: https://www.theguardian.com/global-development/2025/nov/05/india-women-ai-deepfakes-internet-social-media-artificial-intelligence-nudify-extortion-abuse


같이 보면 좋은 글

Leave a Comment

error: Content is protected !!