Meta가 도입한 인공지능 모니터링 시스템이 오히려 수사 기관의 발목을 잡고 있다는 소식입니다. 미국 아동 범죄 수사팀(ICAC)은 Meta AI가 보낸 방대한 양의 저품질 신고 때문에 정작 중요한 사건에 집중하지 못하고 있다며 강한 불만을 터뜨렸습니다. 기업이 법적 책임을 피하려고 무분별하게 보낸 데이터가 실제 수사 현장에서는 쓰레기 취급을 받으며 공권력을 낭비시키는 아이러니한 상황이 벌어지고 있습니다.

Meta AI 신고가 수사 현장에서 스팸 취급받는 이유
미국 뉴욕주와 뉴멕시코주 등지에서 활동하는 아동 범죄 수사관들은 최근 Meta로부터 받는 신고 건수가 폭발적으로 늘었지만 정작 알맹이는 없다고 지적합니다. 인공지능이 걸러낸 신고 중 상당수가 실제 범죄와는 무관한 일상적인 대화이거나 결정적인 증거인 이미지나 영상이 빠진 채 전송되기 때문입니다.
- 수사 가치가 없는 정크 팁의 급증
- 범죄 정황은 있으나 핵심 증거 파일 누락
- 맥락을 무시한 인공지능의 기계적 필터링
과거에는 사람이 한 번 더 검토해서 보냈다면 이제는 인공지능이 무차별적으로 신고를 생성하면서 수사 기관은 이를 일일이 확인하느라 진을 빼고 있습니다. Meta AI 시스템이 현장의 목소리를 반영하지 못한 채 숫자 채우기에만 급급하다는 비판이 나오는 이유입니다.
왜 AI는 일상적인 대화까지 범죄로 오판할까?
수사관들의 증언에 따르면 인공지능은 청소년들이 단순히 연예인에 대해 대화를 나누는 것조차 아동 학대 관련 의심 정황으로 보고하고 있습니다. 이는 2024년 11월부터 시행된 리포트 법(Report Act)의 영향이 큽니다. 기업들이 법 위반으로 인한 막대한 과징금을 피하려고 조금이라도 의심되면 일단 신고하고 보는 방어적인 태도를 취하고 있기 때문입니다.
- 연예인 팬심 고백 등 일상적 대화 오판
- 단어 위주의 단순 키워드 매칭 시스템의 한계
- 법적 책임을 회피하기 위한 과잉 신고 전략
인간이라면 충분히 구분할 수 있는 농담이나 일상적 소통을 인공지능은 융통성 없이 처리합니다. 결국 기계가 만든 오류를 사람이 수동으로 다시 걸러내야 하는 비효율적인 구조가 만들어진 셈입니다.

수사관들이 겪는 인력 낭비와 사기 저하의 실태
쏟아지는 가짜 신고는 단순히 업무량을 늘리는 데 그치지 않고 수사관들의 사기를 꺾고 있습니다. 진짜 보호가 필요한 아이들을 찾는 대신 컴퓨터 앞에 앉아 쓰레기 같은 정보를 분류하는 데 수천 시간을 허비하고 있기 때문입니다. 한 수사관은 우리가 팁의 홍수에 익사하고 있다며 현재 인력으로는 도저히 감당할 수 없는 수준이라고 토로했습니다.
- 2024년 대비 신고 건수 약 2배 증가
- 모든 팁을 의무적으로 검토해야 하는 규정 부담
- 실제 범죄 검거율 하락에 대한 심리적 압박
특히 Meta는 NCMEC(전미 실종학대아동 정보센터)에 접수되는 전체 신고의 약 70%를 차지할 정도로 압도적인 비중을 차지합니다. 이들이 보내는 데이터의 질이 떨어지면 국가 전체의 아동 보호 시스템이 마비되는 결과를 초래합니다.
Meta AI 오작동 문제를 해결하기 위한 대응 방법
현재의 마비 상태를 해결하기 위해서는 기술 기업의 태도 변화가 시급합니다. 인공지능의 성능을 높이는 것뿐만 아니라 신고 데이터의 신뢰성을 담보할 수 있는 시스템적인 보완이 필요합니다. 전문가들은 다음과 같은 대안을 제시하고 있습니다.
- 신고 전 전문 인력의 2차 검토 단계 강화
- 수사 기관이 즉시 활용 가능한 필수 데이터 포함 의무화
- 인공지능 학습 데이터에 현장의 수사 노하우 반영
- 불필요한 과잉 신고를 방지할 수 있는 가이드라인 재정립
기업들이 단순히 기술 뒤에 숨어 책임을 떠넘길 것이 아니라 수사 기관과 실시간으로 소통하며 신고 프로세스를 개선해야 한다는 목소리가 커지고 있습니다.

암호화 정책이 초래한 정보 공백과 수사 지연
Meta가 추진 중인 종단간 암호화(End-to-End Encryption) 정책도 논란의 중심에 있습니다. 메시지를 보낸 사람과 받는 사람 외에는 내용을 볼 수 없게 만드는 이 기술은 사생활 보호에는 탁월하지만 범죄 예방에는 치명적인 약점이 됩니다. 2019년 내부 문건에 따르면 Meta 임원들조차 암호화가 도입되면 아동 착취 사건을 탐지할 방법이 사라질 것이라며 우려를 표한 바 있습니다.
- 암호화로 인해 범죄 메시지 확인 불가능
- 영장 집행 단계에서의 절차적 복잡성 증가
- 사생활 보호와 공공 안전 사이의 극심한 대립
결국 Meta는 암호화로 인해 직접 확인할 수 없는 영역을 메우기 위해 더 공격적인 인공지능 탐지 기법을 도입했고 이것이 다시 가짜 신고의 폭증으로 이어지는 악순환을 낳고 있습니다.

기술 기업의 사회적 책임과 AI 모니터링의 미래
이번 사태는 기술이 인간의 판단을 완전히 대체했을 때 어떤 부작용이 발생하는지 명확히 보여줍니다. Meta AI 같은 강력한 도구는 분명 범죄 예방에 도움을 줄 수 있지만 그것이 수사 현장의 현실과 동떨어져 운영될 때는 오히려 독이 됩니다. 단순히 신고 건수를 늘려 기업의 책임을 다했다고 주장하기보다는 실제로 수사에 도움이 되는 양질의 정보를 제공하는 데 집중해야 합니다.
수사 기관과 기술 기업 간의 신뢰 회복이 우선되어야 합니다. 인공지능이 걸러낸 데이터가 수사의 단서가 되고 수사관들의 피드백이 다시 인공지능을 고도화하는 건강한 생태계가 구축될 때 비로소 아이들을 위한 안전한 온라인 환경이 만들어질 것입니다.
출처: https://www.theguardian.com/technology/2026/feb/25/meta-ai-junk-child-abuse-tips-doj
이어서 보면 좋은 글
#MetaAI #아동학대신고 #DoJ #수사방해 #AI오작동 #인공지능오류 #사이버범죄수사 #개인정보보호 #온라인안전 #IT트렌드