AI 가짜 이미지가 바꾸는 구호단체 홍보의 5가지 문제점

AI가 생성한 가짜 빈곤 이미지가 국제구호단체들 사이에서 급속히 확산되고 있어요. 비용 절감과 동의 문제 해결을 위해 도입되고 있지만, 새로운 형태의 ‘빈곤 포르노’라는 우려가 커지고 있습니다.

A split-screen comparison showing real documentary photography on one side and AI-generated poverty imagery on the other, highlighting the contrast between authentic storytelling and artificial representation. Clean infographic style with natural lighting, no text.

AI 생성 빈곤 이미지의 급속한 확산

전 세계 구호단체들이 AI로 만든 가짜 빈곤 이미지를 활용하는 사례가 늘어나고 있어요. 스위스 기반의 윤리적 이미지 촉진 단체인 페어픽처(Fairpicture)의 노아 아놀드는 “모든 곳에서 사람들이 이를 사용하고 있다”고 지적했답니다.

안트베르펜 열대의학연구소의 아르세니 알레니체프 연구원은 100개 이상의 AI 생성 극빈 이미지를 수집했는데요. 이들 이미지는 빈 접시를 든 아이들, 갈라진 땅, 진흙탕에 웅크린 아이들 등 전형적인 빈곤의 시각적 문법을 그대로 재현하고 있어요.

특히 주목할 점은 이런 이미지들이 Adobe Stock Photos나 Freepik 같은 인기 스톡 사이트에 수십 개씩 올라와 있다는 거예요. “난민캠프의 사실적인 아이”, “쓰레기로 가득한 강에서 수영하는 아시아 아이들” 같은 제목으로 판매되고 있답니다.

비용과 동의 문제가 만든 새로운 선택

A conceptual illustration showing NGO budget constraints with calculator, financial documents, and charity symbols. Clean office environment with natural lighting, representing the financial pressures driving AI image adoption, no text.

구호단체들이 AI 이미지를 선택하는 주된 이유는 비용과 동의 문제 해결이에요. 알레니체프 연구원은 “실제 사진 촬영보다 저렴하고 동의를 받을 필요가 없어서 합성 이미지를 고려하는 조직들이 늘고 있다”고 설명했어요.

특히 미국의 NGO 예산 삭감이 이런 상황을 더욱 악화시켰다고 아놀드는 지적했답니다. 실제로 네덜란드 플랜 인터내셔널은 2023년 아동 결혼 반대 캠페인에서 멍든 눈의 소녀, 나이 든 남성, 임신한 십대의 AI 생성 이미지를 사용했어요.

유엔도 지난해 분쟁 중 성폭력에 대한 AI 생성 “재연” 영상을 유튜브에 올렸다가 논란이 되자 삭제했답니다. 1993년 부룬디 내전 중 성폭행을 당한 여성의 AI 생성 증언이 포함되어 있었거든요.

편견과 고정관념을 증폭하는 위험성

AI 생성 빈곤 이미지의 가장 큰 문제는 인종차별적 편견을 강화한다는 점이에요. 알레니체프는 “이미지들이 너무 인종차별적이어서 아프리카나 인도에 대한 최악의 고정관념 같다”고 비판했어요.

실제로 스톡 사이트에서는 “아프리카 마을의 흑인 아이들에게 의료 상담을 제공하는 백인 자원봉사자” 같은 제목의 이미지가 약 6만원에 판매되고 있답니다. 이런 이미지들은 서구 중심적 시각과 백인 구원자 서사를 그대로 재현하고 있어요.

더욱 우려스러운 건 이런 편향된 이미지들이 인터넷에 확산되면서 다음 세대 AI 모델 학습에 사용될 가능성이에요. 이는 편견을 더욱 증폭시키는 악순환을 만들 수 있답니다.

A circular diagram illustration showing how biased AI images feed back into training data, creating a cycle of amplified prejudice. Modern infographic style with arrows and data flow visualization, no text.

윤리적 스토리텔링 노력의 후퇴

지난 수년간 구호 분야에서는 빈곤과 폭력에 대한 윤리적 이미지 사용과 존엄한 스토리텔링에 대한 논의가 활발했어요. 하지만 AI 이미지 사용은 이런 노력을 뒤로 돌리는 결과를 낳고 있답니다.

페어픽처의 아놀드는 “실제 사람들의 동의 없이 만들어진 AI 시각 자료를 사용하는 것이 더 쉽다고 여겨진다”며 우려를 표했어요. NGO 커뮤니케이션 컨설턴트인 케이트 카돌은 “빈곤을 경험하는 사람들의 더 윤리적인 재현을 위한 싸움이 이제 가상의 영역까지 확장되었다”고 안타까워했답니다.

진정성 있는 스토리텔링의 중요성

실제 사람들의 이야기와 경험을 담은 진정성 있는 콘텐츠는 단순한 시각적 충격보다 더 깊은 공감과 이해를 이끌어낼 수 있어요. AI 이미지는 아무리 정교해도 실제 경험의 복잡성과 인간성을 담아낼 수 없답니다.

플랫폼과 사용자의 책임 분담

A balanced scale illustration showing platform responsibility on one side and user accountability on the other, with AI-generated images in the background. Professional infographic style with natural lighting, no text.

Freepik의 CEO 호아킨 아벨라는 극단적인 이미지 사용 책임이 미디어 소비자에게 있다고 주장해요. AI 스톡 사진들은 플랫폼의 글로벌 사용자 커뮤니티가 생성하는 것이라는 설명이에요.

그는 변호사나 CEO 사진의 성별 균형을 맞추는 등 편견 해결 노력을 하고 있지만 “전 세계 고객들이 특정 방식의 이미지를 원한다면 누구도 할 수 있는 일이 없다”고 한계를 인정했답니다.

하지만 전문가들은 플랫폼이 더 적극적인 역할을 해야 한다고 보고 있어요. 특히 인종차별적이거나 극도로 편향된 이미지에 대한 사전 필터링과 가이드라인 강화가 필요하다는 의견이에요.

미래를 위한 대안 모색

구호단체들이 직면한 예산과 동의 문제는 현실적인 고민이에요. 하지만 AI 이미지 사용이 가져올 수 있는 부작용을 고려할 때, 더 신중한 접근이 필요해 보여요.

플랜 인터내셔널은 올해부터 “개별 아동을 묘사하는 AI 사용을 권하지 않는” 가이드라인을 채택했다고 발표했어요. 이런 자체 규제와 함께 윤리적 이미지 사용을 위한 업계 차원의 논의가 더욱 활발해져야 할 것 같아요.

AI 기술이 발전할수록 구호 분야에서도 기술의 편의성과 윤리적 책임 사이의 균형을 찾는 지혜가 필요한 시점이랍니다.


출처: https://www.theguardian.com/global-development/2025/oct/20/ai-generated-poverty-porn-fake-images-being-used-by-aid-agencies

함께 보면 좋은 글

Leave a Comment