최근 캐나다에서 발생한 비극적인 총기 난사 사건의 피의자가 범행 전 OpenAI의 챗봇과 위험한 대화를 나눴던 사실이 밝혀지며 큰 파장이 일고 있습니다. 인공지능 기업이 사용자의 범죄 징후를 어디까지 감시하고 보고해야 하는지에 대한 논의가 뜨겁습니다. 과연 OpenAI 내부에서는 어떤 대화가 오갔으며 왜 즉각적인 신고가 이루어지지 않았는지 그 이면의 핵심적인 쟁점들을 정리했습니다.

OpenAI 살인 예고 대화가 내부에서 논란이 된 배경
캐나다 텀블러리지에서 8명을 살해한 혐의를 받는 18세 여성 제시 반 루셀라르는 범행 전 ChatGPT를 통해 총기 폭력에 대한 구체적인 묘사가 담긴 대화를 나눴습니다. OpenAI의 모니터링 시스템은 2025년 6월에 이미 이 대화를 오용 사례로 감지하고 해당 계정을 차단한 상태였습니다.
당시 내부 직원들 사이에서는 이 사용자의 대화 내용이 심각하다고 판단하여 캐나다 법 집행 기관에 직접 연락해야 하는지를 두고 치열한 토론이 벌어졌습니다. 하지만 결과적으로 사건이 터지기 전까지 경찰 신고는 이루어지지 않았습니다. 회사는 해당 활동이 당시 기준으로 법 집행 기관에 보고해야 할 기준치를 충족하지 않았다고 판단했기 때문입니다. 이는 기술 기업이 개인의 대화 내용을 어디까지 범죄로 예단할 수 있는지에 대한 윤리적 딜레마를 여실히 보여줍니다.
OpenAI 직원들이 즉각 신고를 결정하지 못한 이유
기업이 사용자의 대화 내용을 수사 기관에 넘기는 결정은 생각보다 단순하지 않습니다. OpenAI 내부에서 신고를 주저했던 배경에는 몇 가지 현실적인 이유가 존재합니다.
- 프라이버시 정책과 법적 근거의 모호함
- 단순한 망상이나 소설적 표현과 실제 범죄 계획의 구분 어려움
- 국가별로 상이한 법 집행 기관과의 협조 프로세스
당시 직원이 보고를 검토했음에도 불구하고 최종적으로 실행에 옮기지 않은 것은 내부 지침상 구체적이고 즉각적인 위협으로 분류되지 않았기 때문인 것으로 보입니다. 결과적으로 사건 발생 후에야 캐나다 당국에 연락을 취했다는 점은 사후약방문이라는 비판을 피하기 어렵게 되었습니다.

캐나다 총기 난사 사건 전 감지된 대화의 위험 수위
피의자 루셀라르가 ChatGPT와 나눈 대화는 단순히 공격적인 언어를 사용하는 수준을 넘어섰던 것으로 알려졌습니다. 대화 스크립트에는 총기 사용과 폭력적인 상황에 대한 상세한 묘사가 포함되어 있었으며 이는 시스템에 의해 차단될 만큼 명확한 가이드라인 위반이었습니다.
하지만 인공지능 모델은 사용자의 의도를 100퍼센트 파악하기 어렵습니다. 단순히 창작 활동의 일환인지 아니면 실제 범행 계획인지를 가려내는 알고리즘은 아직 완벽하지 않습니다. 이번 사건에서도 OpenAI는 계정 차단이라는 기술적 조치만 취했을 뿐 그 이상의 사회적 안전망 역할을 수행하는 데에는 한계를 드러냈습니다.
로블록스와 레딧에 남겨진 범죄자의 디지털 흔적
루셀라르의 위험 신호는 챗봇과의 대화에만 국한되지 않았습니다. 그녀는 어린 아이들이 주로 이용하는 게임 플랫폼 로블록스에서 쇼핑몰 총기 난사를 시뮬레이션하는 게임을 제작하기도 했습니다. 또한 커뮤니티 사이트인 레딧에도 총기와 관련된 게시물을 지속적으로 올렸습니다.
- 로블록스 내 총기 난사 시뮬레이션 게임 제작
- 레딧을 통한 총기 관련 정보 수집 및 공유
- 과거 마약 복용 상태에서의 방화 전과 및 경찰 출동 기록
이러한 파편화된 정보들이 각 플랫폼에 흩어져 있었고 지역 경찰 또한 그녀의 불안정한 정신 상태를 인지하고 있었음에도 불구하고 이 정보들이 하나로 연결되어 범죄를 예방하는 단계까지는 나아가지 못했습니다.

인공지능 윤리 관점에서 본 모니터링 시스템의 한계
인공지능 기업들은 자사 모델이 범죄에 악용되는 것을 막기 위해 실시간 모니터링 시스템을 가동하고 있습니다. 하지만 이번 사건은 인공지능 윤리 가이드라인이 실제 강력 범죄를 막기에는 여전히 느슨하다는 점을 시사합니다.
현재의 시스템은 주로 혐오 표현이나 음란물 차단에 특화되어 있으며 은밀하게 진행되는 범죄 계획을 포착하여 공공 기관에 전파하는 시스템은 체계화되어 있지 않습니다. 또한 사용자가 인공지능과의 대화 과정에서 현실 감각을 잃거나 정신적인 붕괴를 겪는 경우 기업이 어디까지 책임을 져야 하는지에 대한 법적 분쟁도 늘어나는 추세입니다.
정신 건강과 챗봇의 상호작용 위험성
최근 인공지능 챗봇이 사용자의 자살을 방조하거나 정신적 불안을 부추겼다는 이유로 여러 건의 소송이 제기되고 있습니다. 인공지능이 인간과 유사한 공감 능력을 보여주면서 사용자들이 모델에 과도하게 몰입하게 되고 이것이 실제 폭력적인 행동으로 이어질 가능성이 확인된 셈입니다.

범죄 예방을 위한 기술 기업의 사회적 책임과 역할
인공지능 기술이 발전할수록 기업은 단순히 서비스 제공자를 넘어 공공 안전의 파수꾼 역할을 요구받고 있습니다. 이번 캐나다 총기 난사 사건은 OpenAI를 포함한 대형 언어 모델 개발사들이 범죄 징후를 발견했을 때의 보고 절차를 더욱 투명하고 신속하게 개선해야 함을 보여줍니다.
동시에 개인정보 보호라는 가치와 공공의 안전 사이에서 적절한 균형점을 찾는 사회적 합의가 필요합니다. 인공지능이 인간의 삶을 풍요롭게 만드는 도구인 동시에 잠재적인 위험 요소가 될 수 있다는 사실을 인지하고 이에 걸맞은 엄격한 보안 정책과 윤리적 기준을 확립해 나가야 할 시점입니다.
출처: https://techcrunch.com/2026/02/21/openai-debated-calling-police-about-suspected-canadian-shooters-chats/
이어서 보면 좋은 글
#OpenAI #ChatGPT #캐나다총기난사 #인공지능윤리 #개인정보보호 #범죄예방 #테크크런치 #AI범죄 #디지털발자국 #보안정책