Character.AI가 18세 미만 사용자의 접근을 전면 차단한다고 발표했어요. 이번 결정은 청소년의 AI 챗봇 사용과 관련된 안전성 우려가 커지면서 나온 것인데요. 특히 14세 소년의 자살 사건과 관련된 소송이 제기된 후 AI 업계 전반에 걸친 규제 논의가 활발해지고 있답니다.

Character.AI 미성년자 사용 금지 배경과 이유
Character.AI는 11월 25일부터 18세 미만 사용자들이 AI 동반자와 대화하는 것을 완전히 금지한다고 발표했어요. 이 결정은 14세 소년 세웰 세처 3세의 자살 사건이 계기가 되었답니다. 그의 가족은 소년이 Character.AI에서 만든 캐릭터에 감정적으로 의존하게 되면서 극단적 선택을 했다며 회사를 상대로 소송을 제기했거든요.
회사 측은 “AI와 청소년 관련 질문들이 제기되고 있고, 규제 당국으로부터도 문의를 받고 있다”며 “콘텐츠 통제가 완벽하게 작동해도 청소년들이 AI와의 개방형 채팅에서 어떤 영향을 받을지에 대한 우려가 있다”고 설명했어요.
AI 챗봇 안전성 논란, 연이은 소송 사태
Character.AI를 둘러싼 법적 분쟁은 계속 늘어나고 있어요. 소셜미디어법센터는 이달 초 AI 챗봇과의 의존적 관계로 인해 자살하거나 정신적 피해를 입었다고 주장하는 아동들을 대리해 3건의 새로운 소송을 추가로 제기했답니다.
OpenAI 역시 비슷한 상황에 직면했어요. 16세 아담 레인의 가족이 ChatGPT 사용 후 발생한 자살 사건을 두고 회사를 고소했거든요. 더 충격적인 것은 OpenAI가 공개한 자료인데요. 매주 100만 명 이상이 ChatGPT와 대화하면서 자살 의도를 드러내고, 수십만 명이 정신병적 증상을 보인다고 해요.

미국 연방 및 주 정부의 AI 규제 움직임
정부 차원의 규제도 본격화되고 있어요. 캘리포니아주는 2025년 10월 미성년자를 위한 안전 가이드라인을 포함한 첫 번째 AI 법안을 통과시켰답니다. 이 법은 2026년 초부터 시행되는데요. 18세 미만에게는 성적 콘텐츠를 금지하고, 3시간마다 AI와 대화하고 있다는 알림을 보내도록 의무화했어요.
연방 차원에서도 움직임이 있어요. 미주리주의 조시 홀리 상원의원과 코네티컷주의 리처드 블루멘탈 상원의원이 화요일 미성년자의 AI 동반자 사용을 금지하고 기업들에게 연령 확인 절차를 의무화하는 법안을 발표했거든요.
홀리 상원의원은 “미국 아동의 70% 이상이 이런 AI 제품을 사용하고 있다”며 “챗봇들이 가짜 공감을 이용해 아이들과 관계를 형성하고 자살을 부추기고 있다”고 강력히 비판했어요.
Character.AI의 새로운 연령 확인 시스템 도입
Character.AI는 단순히 미성년자를 차단하는 것에서 그치지 않고 “연령 보장 기능”을 새롭게 도입한다고 밝혔어요. 이 시스템은 사용자들이 나이에 맞는 적절한 경험을 받을 수 있도록 보장하는 것이 목표랍니다.
회사는 “개방형 캐릭터 채팅을 제거하는 결정을 가볍게 내리지 않았지만, 청소년들이 이 새로운 기술과 어떻게 상호작용해야 하는지에 대한 질문들이 제기된 상황에서는 옳은 일이라고 생각한다”고 설명했어요.

글로벌 AI 안전 규제 트렌드와 향후 전망
AI 챗봇의 안전성 문제는 이제 전 세계적인 관심사가 되었어요. 특히 청소년들의 정신 건강에 미치는 영향에 대한 우려가 커지면서 각국 정부들이 규제 방안을 모색하고 있답니다.
업계 전문가들은 이번 Character.AI의 결정이 다른 AI 기업들에게도 영향을 미칠 것으로 보고 있어요. 사용자 안전과 기업의 책임에 대한 새로운 기준이 만들어지고 있는 상황이거든요.
AI 업계의 자율 규제 강화
OpenAI는 이미 청소년 사용자를 위한 새로운 안전 가이드라인을 도입했고, 다른 기업들도 비슷한 조치를 검토하고 있어요. AI 기술의 발전과 함께 사용자 보호 장치도 함께 발전해야 한다는 인식이 확산되고 있답니다.
부모와 교육자들이 알아야 할 AI 안전 수칙
AI 챗봇 사용이 늘어나면서 부모와 교육자들의 역할도 중요해졌어요. 청소년들이 AI와 건전한 관계를 유지하려면 적절한 지도와 관찰이 필요하거든요.
전문가들은 AI 대화 시간을 제한하고, 정기적으로 사용 패턴을 점검하며, 무엇보다 현실 세계의 인간관계를 우선시하도록 교육할 것을 권하고 있어요. AI는 도구일 뿐이며 인간을 대체할 수 없다는 점을 명확히 인식시키는 것이 중요하답니다.

Character.AI의 미성년자 사용 금지 결정은 AI 업계에 새로운 전환점이 될 것 같아요. 여러분은 이런 규제 강화에 대해 어떻게 생각하시나요? 댓글로 의견을 나눠주세요.
출처: https://www.theguardian.com/technology/2025/oct/29/character-ai-suicide-children-ban
같이 보면 좋은 글
#CharacterAI #AI챗봇 #미성년자보호 #AI안전 #청소년정신건강 #AI규제 #연령인증 #디지털안전 #AI윤리 #부모교육 #온라인안전 #인공지능 #챗봇규제 #청소년보호 #AI정책 #디지털웰빙 #사이버안전 #AI책임 #기술윤리 #미성년자규제 #AI법안 #디지털리터러시 #온라인보호 #AI가이드라인 #청소년안전