2025년 본다이 테러, AI 가짜뉴스 판별법 5가지

최근 호주 본다이 해변 테러 사건은 충격과 혼란을 동시에 가져왔어요. 특히 인공지능(AI) 기술이 가짜뉴스 확산에 악용되면서 사실을 분별하기 더욱 어려워졌는데요. 잘못된 정보가 순식간에 퍼져나가면서 무고한 사람들이 피해를 보고, 사회적 불신이 커지는 상황을 우리 모두 겪었죠. AI 시대, 넘쳐나는 정보 속에서 어떻게 진실을 찾아야 할까요?

A man looking confused while staring at his smartphone, surrounded by chaotic digital information, a mix of text and distorted images, abstract, dark background with subtle glowing lines, modern illustration, no text

왜 X(구 트위터)는 가짜뉴스의 온상이 되었을까요?

2025년 본다이 테러 사건 이후, X(구 트위터)의 ‘추천 피드’는 AI가 만든 가짜뉴스로 뒤덮였어요. 테러가 정부의 ‘자작극’이라는 음모론부터 시작해서, 피해자들이 ‘연기자’라는 황당한 주장, 심지어 무고한 사람을 범인으로 지목하는 등 잘못된 정보가 빠르게 퍼져나갔죠. X의 알고리즘은 사용자의 ‘참여’를 유도하도록 설계되어 있어, 논란이 많거나 자극적인 콘텐츠일수록 더 많이 노출되는 경향이 있어요. 특히 검증된 계정이 금전적 이득을 위해 이런 콘텐츠를 퍼뜨리면서 상황은 더욱 악화되었어요.

AI 딥페이크, 어떻게 사람들을 속였을까요?

생성형 AI 기술은 가짜뉴스 확산에 기름을 부었어요. 뉴사우스웨일스 주지사 크리스 민스의 목소리를 조작한 딥페이크 영상이 공유되면서, 마치 그가 테러범들에 대한 거짓 주장을 하는 것처럼 보였죠. 더 심각한 사례로는 실제 피해자의 사진을 AI로 조작하여, 그가 피를 연출하는 ‘위기 배우’라고 주장하는 이미지까지 등장했어요. 인권 변호사 아르센 오스트로프스키는 자신의 이미지가 조작되어 퍼지는 것을 보고 “역겹고 끔찍한 거짓 캠페인”이라고 분노를 표하기도 했어요. 이런 정교한 조작은 사람들이 진실을 믿기 어렵게 만들고, 불신을 키우는 주범이 되었어요.

A smartphone screen displaying a deepfake video, the face on the screen is subtly distorted, digital art, glowing lines representing AI, dark, high-tech background, no text

본다이 테러, AI 챗봇 ‘그록’도 거짓 정보를 유포했어요?

X의 AI 챗봇 ‘그록’ 역시 가짜뉴스 확산에 일조했어요. 그록은 사용자들에게 테러범을 제압한 영웅이 ‘시리아 태생의 아메드 알-아메드’가 아닌, ‘영국 이름의 IT 직원’이라고 잘못된 정보를 제공했어요. 이 정보는 테러 당일 합법적인 뉴스 사이트를 모방하여 개설된 웹사이트에서 시작된 것으로 보이죠. 심지어 아메드의 AI 생성 이미지가 소셜 미디어에 넘쳐나면서 암호화폐 사기나 가짜 기부 캠페인에 이용되는 사례도 있었어요. AI 챗봇마저 거짓 정보를 생산하고 유포하면서, 믿을 수 있는 정보원을 찾기란 더욱 어려워졌어요.

과거 트위터의 팩트체크 시스템은 왜 사라졌을까요?

과거 트위터는 속보의 허브였지만, 지금은 AI가 가짜뉴스를 ‘터보차지’하는 공간으로 변모했어요. 일론 머스크가 X를 인수한 후, 기존의 팩트체크 시스템은 ‘커뮤니티 노트’라는 사용자 평점 시스템으로 대체되었어요. 메타(Meta) 역시 자체적인 커뮤니티 노트 버전을 도입하며 비슷한 길을 걷고 있죠. 하지만 전문가들은 커뮤니티 노트 시스템이 여론이 극명하게 갈리는 상황에서는 도움이 되지 않고, 팩트체크가 너무 늦게 적용된다고 지적해요. 대다수 사람들이 잘못된 게시물을 이미 본 한참 후에야 노트가 적용되는 경우가 많아 실효성이 떨어지는 것이죠.

People looking at their smartphones with a slight frown, a community note icon appearing faintly and belatedly on the screen, indicating slow fact-checking, warm lighting, natural setting, lifestyle photography, no text

2025년, AI 가짜뉴스 구별하는 실용적인 팁 5가지

AI 기술이 발전할수록 가짜뉴스를 구별하기는 더 어려워질 거예요. 하지만 지금 당장 적용할 수 있는 몇 가지 실용적인 팁이 있어요.

  • 1. 발음과 억양을 주의 깊게 들어보세요: 딥페이크 영상의 경우, 실제 인물의 발음이나 억양과 미묘하게 다를 수 있어요. 예를 들어, 민스 주지사 딥페이크 영상에서는 미국식 억양이 감지되어 가짜임을 알 수 있었죠.
  • 2. 이미지의 세부 사항을 확인하세요: AI 생성 이미지는 아직 어색한 부분이 많아요. 예를 들어, 티셔츠에 이상하게 생성된 텍스트나, 불자연스러운 신체 비율 등 ‘어색한 AI 이미지 생성’의 특징을 찾아보세요.
  • 3. 출처를 여러 번 확인하세요: 낯선 웹사이트나 출처 불명의 소셜 미디어 게시물은 무조건 의심해야 해요. 공신력 있는 주류 언론사나 공식 기관의 정보를 우선적으로 확인하는 습관을 들이세요.
  • 4. 감정적인 반응을 경계하세요: 가짜뉴스는 종종 분노나 공포 같은 강한 감정을 유발하도록 설계돼요. 감정적으로 동요될 때 한 번 더 사실 관계를 확인하는 시간을 가지는 것이 중요해요.
  • 5. ‘커뮤니티 노트’가 늦게라도 적용되었는지 확인하세요: 비록 실시간은 아니더라도, X의 ‘커뮤니티 노트’는 잘못된 정보를 지적하는 데 도움이 될 수 있어요. 게시물을 다시 한번 확인하여 커뮤니티 노트가 추가되었는지 살펴보세요.
A person using a magnifying glass to scrutinize a smartphone screen, searching for subtle errors or inconsistencies in a news article, representing fact-checking and critical thinking, modern infographic, high contrast, clean layout, no text

AI 가짜뉴스 시대, 똑똑한 정보 소비자가 되는 법

AI가 정보의 바다를 혼탁하게 만들고 있지만, 우리는 여전히 진실을 찾을 수 있는 힘을 가지고 있어요. 위에서 제시된 판별법들을 활용하여 비판적인 시각으로 정보를 소비하고, 의심스러운 내용은 항상 여러 출처를 통해 교차 검증하는 습관을 들이는 것이 중요해요. 우리 모두가 똑똑한 정보 소비자가 될 때, AI 가짜뉴스의 힘을 약화시키고 더 건강한 정보 환경을 만들어갈 수 있을 거예요.

출처: https://www.theguardian.com/australia-news/2025/dec/18/fake-minns-altered-images-and-psyop-theories-bondi-attack-misinformation-shows-ais-power-to-confuse-ntwnfb

같이 보면 좋은 글

#AI가짜뉴스 #본다이테러 #팩트체크 #정보분별법 #소셜미디어 #딥페이크 #미디어리터러시 #가짜정보 #AI윤리 #뉴스분별

Leave a Comment

error: Content is protected !!