2026년 2월 캐나다 브리티시컬럼비아주의 조용한 마을 텀블러 리지에서 발생한 비극적인 학교 총격 사건이 전 세계를 충격에 빠뜨렸습니다. 특히 이 사건의 가해자인 제시 반 루트셀라르의 위험성을 OpenAI가 이미 수개월 전 인지하고 있었다는 사실이 드러나며 논란이 일고 있습니다. 인공지능이 사전에 위험 신호를 포착했음에도 왜 경찰 신고로 이어지지 않았는지 그 구체적인 이유와 배경을 확인해 보겠습니다.

텀블러 리지 총격 사건과 OpenAI의 계정 정지 기록
사건의 발단은 2025년 6월로 거슬러 올라갑니다. OpenAI는 당시 제시 반 루트셀라르의 계정을 사용 정책 위반으로 차단했습니다. 계정 정지의 이유는 폭력 행위 조장과 관련된 활동이 감지되었기 때문이었습니다. 챗GPT를 개발한 이 기술 기업은 이미 8개월 전부터 가해자가 위험한 계획을 세우거나 폭력적인 의도를 가지고 인공지능을 활용하고 있다는 점을 시스템적으로 파악하고 있었습니다.
하지만 계정 정지 조치 이후 별도의 사법 기관 신고는 이루어지지 않았습니다. OpenAI 측은 자체적인 남용 감지 시스템을 통해 해당 계정의 위험성을 분류했음에도 불구하고 당시에는 이를 경찰에 넘길 수준은 아니라고 판단했습니다. 결과적으로 가해자는 계정이 차단된 상태에서 수개월간 아무런 제재 없이 범행을 준비했고 이는 결국 8명의 고귀한 생명을 앗아가는 비극으로 이어졌습니다.
인공지능은 왜 범죄 징후를 경찰에 알리지 않았나
기술 기업이 사용자의 활동을 실시간으로 감시하고 이를 경찰에 신고하는 과정에는 복잡한 판단 기준이 개입됩니다. OpenAI는 계정 차단 당시 가해자의 활동이 법 집행 기관에 회부할 만한 임계값을 넘지 않았다고 설명했습니다. 이는 AI가 텍스트를 통해 위험한 단어를 감지할 수는 있지만 실제 범행의 구체성이나 실행 의지까지 완벽하게 파악하기에는 한계가 있음을 보여줍니다.
당시 가해자의 대화 내용에는 폭력적인 성향이 짙게 배어 있었으나 구체적인 장소나 시간 그리고 공격 대상을 명시한 직접적인 계획까지는 포함되지 않았던 것으로 보입니다. OpenAI는 사용자의 프라이버시 보호와 공공 안전 사이에서 줄타기를 하다가 결국 후속 조치를 취하지 않는 쪽을 택했습니다. 기술적인 감지는 성공했지만 이를 사회적 안전망으로 연결하는 의사 결정 단계에서 구멍이 생긴 셈입니다.

OpenAI가 규정한 위험 신고의 3가지 내부 기준
OpenAI가 사용자의 정보를 경찰에 공유하기 위해 적용하는 기준은 매우 엄격합니다. 이번 사건에서도 이 기준이 적용되었으나 결과적으로는 실효를 거두지 못했습니다. 기술 기업들이 수사 기관에 정보를 제공할 때 고려하는 핵심적인 판단 요소는 크게 세 가지로 요약됩니다.
- 타인에게 심각한 신체적 위해를 가할 가능성이 있는가
- 위해 행위가 발생할 시점이 임박했는가
- 구체적이고 신뢰할 수 있는 범행 계획이 수립되었는가
당시 OpenAI의 내부 검토팀은 제시 반 루트셀라르의 활동이 위 세 가지 조건을 모두 충족하지 않는다고 판단했습니다. 특히 임박한 위협이 아니라는 판단이 발목을 잡았습니다. 계정을 정지하는 선에서 사태를 마무리한 결정이 결과적으로는 가해자에게 범행을 다듬을 시간을 벌어준 꼴이 되어버린 것입니다.
챗GPT 오남용 탐지 시스템이 놓친 결정적인 단서
OpenAI의 인공지능은 언어 모델의 맥락을 파악해 폭력적인 콘텐츠 생성을 차단하는 기능을 갖추고 있습니다. 하지만 가해자는 인공지능의 필터링 시스템을 우회하거나 단순한 정보 탐색 수준에서 챗GPT를 이용했을 가능성이 큽니다. AI는 사용자가 던지는 질문의 저의를 100퍼센트 이해하지 못하며 단편적인 문장들만으로는 그 배후에 숨겨진 잔혹한 동기를 간파하기 어렵습니다.
더욱 안타까운 점은 가해자가 이미 경찰과 정신 건강 관련 상담을 받은 전력이 있었다는 사실입니다. 만약 OpenAI의 탐지 시스템이 가해자의 과거 이력이나 오프라인에서의 행적과 결합될 수 있었다면 판단은 달라졌을 것입니다. 하지만 현재의 시스템은 오직 온라인상의 텍스트 데이터에만 의존하기 때문에 현실 세계의 위험을 선제적으로 차단하기에는 정보의 파편화가 심각한 상황입니다.

기술 기업의 선제적 대응은 어디까지 허용되는가
이번 사건은 테크 기업의 사회적 책임을 어디까지 물어야 하는지에 대한 뜨거운 논쟁을 불러일으켰습니다. 일각에서는 계정을 정지할 정도로 위험을 감지했다면 즉시 관할 경찰인 RCMP에 알렸어야 한다고 주장합니다. 반면 기업이 모든 의심스러운 사용자를 신고하기 시작하면 일반 사용자들의 사생활 침해와 표현의 자유 위축이 심각해질 것이라는 우려도 만만치 않습니다.
결국 기술 기업은 수사 기관이 아니라는 점이 본질적인 한계로 작용합니다. 기업은 영리 목적으로 서비스를 제공하며 보안 정책 역시 서비스 운영의 안정성에 초점이 맞춰져 있습니다. 범죄를 예방하고 시민을 보호하는 공권력의 역할을 기업이 대신 수행하기에는 법적 근거와 책임 소재가 불분명한 것이 현실입니다. 이번 텀블러 리지 비극은 이러한 제도적 공백을 명확히 드러낸 사례입니다.
비극 이후 변화하는 AI 안전 가이드라인과 수사 협조
사건 발생 직후 OpenAI는 뒤늦게 경찰에 연락하여 가해자의 계정 활동 내역과 챗GPT 사용 기록을 전달했습니다. 현재 캐나다 기마경찰은 이 자료를 바탕으로 범행 동기와 추가 공범 여부를 조사하고 있습니다. 비록 사후 약방문이라는 비판을 피할 수는 없지만 이번 사건을 계기로 OpenAI를 포함한 글로벌 빅테크 기업들의 안전 정책에도 큰 변화가 예상됩니다.
단순히 정책 위반으로 계정을 차단하는 것을 넘어 잠재적 범죄 가능성이 높은 경우 수사 기관과 실시간으로 정보를 공유하는 프로토콜이 논의되고 있습니다. 또한 인공지능이 사용자의 대화 흐름을 분석해 자해나 타해 위험을 감지했을 때 즉시 구호 기관으로 연결하는 기능도 강화될 전망입니다. 기술의 발전이 인간을 해치는 도구가 되지 않도록 더욱 촘촘한 안전망 구축이 절실한 시점입니다.

정리하며
텀블러 리지 학교 총격 사건은 기술이 인간의 어두운 욕망을 포착하고도 이를 막아내지 못한 뼈아픈 기록으로 남게 되었습니다. OpenAI의 판단 지연은 우리 사회가 인공지능이라는 강력한 도구를 다루는 데 있어 아직 얼마나 준비가 부족한지를 보여줍니다. 앞으로는 기술적 고도화만큼이나 윤리적 가이드라인과 법적 제도의 정비가 병행되어야만 제2의 텀블러 리지 비극을 막을 수 있을 것입니다.
출처: https://www.theguardian.com/world/2026/feb/21/tumbler-ridge-shooter-chatgpt-openai
이어서 보면 좋은 글
#OpenAI #텀블러리지 #학교총격사건 #ChatGPT #인공지능윤리 #캐나다뉴스 #AI안전 #범죄예방 #테크이슈 #사회안전