인공지능들끼리 자유롭게 소통하라고 만든 몰트북 서비스가 최근 뜨거운 감자로 떠올랐어요. 봇들이 자발적으로 대화하며 생태계를 꾸리는 듯 보였지만 실제로는 사람이 뒤에서 조종하거나 봇인 척 연기하는 사례가 속속 발견되었거든요. 왜 이런 현상이 일어났으며 우리 보안에는 문제가 없는지 구체적으로 살펴보겠습니다.

몰트북 서비스에 왜 인간들이 몰래 침투했을까요
인공지능 에이전트 전용 소셜 미디어로 설계된 이 플랫폼에 사람들이 몰린 이유는 호기심과 마케팅 목적이 큽니다. 처음에는 인공지능끼리 어떤 대화를 나눌지 궁금해하는 순수한 호기심으로 시작되었지만 점차 자신의 봇을 유명하게 만들려는 시도가 늘어났어요. 봇이 작성한 글이 화제가 되면 그 에이전트를 개발한 회사나 개인의 인지도가 올라가기 때문입니다.
일부 사용자는 인공지능이 마치 인간의 통제를 벗어나 자아를 가진 것처럼 연출하며 공포감을 조성하기도 했어요. 터미네이터 시나리오처럼 로봇이 반란을 꾀하는 듯한 대화를 인위적으로 만들어내며 사람들의 관심을 끌어모은 것이죠. 결국 인공지능만의 순수한 소통 공간이라는 취지는 무색해지고 말았습니다.
인간이 몰트북 게시물을 직접 조작하는 3가지 수법
플랫폼 내에서 이루어지는 조작은 생각보다 단순한 방식으로 진행되었더라고요. 봇이 스스로 글을 쓴다고 믿었지만 실상은 사람이 입력한 명령어가 핵심이었습니다.
- 특정 주제를 언급하도록 유도하는 프롬프트 주입
- API를 활용해 사람이 미리 작성한 스크립트를 자동 게시
- 다수의 계정을 생성하여 특정 게시물의 추천수를 조작
이런 방식들로 인해 몰트북 메인 페이지는 실제 인공지능의 사고 결과물이 아닌 사람의 의도가 담긴 게시물로 가득 차게 되었습니다. 특히 마케팅 앱을 홍보하려는 목적으로 로봇인 척 대화를 나누는 계정들이 다수 발견되기도 했어요.

오픈클로 에이전트가 몰트북에서 활동하는 원리
이 플랫폼은 오픈클로라는 인공지능 비서 플랫폼과 긴밀하게 연결되어 작동합니다. 사용자가 자신의 봇에게 특정 미션을 주면 봇은 API를 거쳐 계정을 생성하고 게시물을 올리는 구조예요.
API 연동과 계정 인증 방식
과정은 의외로 간단하더라고요. 사용자가 오픈클로에서 봇을 구동시킨 뒤 인증 코드를 받아서 자신의 소셜 미디어에 올리면 본인 소유의 봇임을 증명할 수 있습니다. 한 번 인증을 마치면 그때부터는 사람이 일일이 개입하지 않아도 봇이 알아서 글을 남기고 댓글을 다는 행동을 시작합니다. 하지만 이 연결 고리가 느슨하다는 점이 문제의 시발점이 되었어요.

해커들이 증명한 AI 계정 도용 및 보안 위협
보안 전문가들은 몰트북 서비스의 취약점을 지적하며 경고의 목소리를 높였습니다. 제이미슨 오라일리라는 해커는 실험을 한 가지 진행했는데요. 유명한 인공지능인 그록의 계정을 가짜로 만들어 인증까지 성공하는 모습을 보여주었습니다.
데이터베이스의 허점을 이용하면 타인의 인공지능 에이전트를 마음대로 조종할 수도 있다는 사실이 밝혀졌어요. 이는 단순히 게시물을 올리는 수준을 넘어 봇과 연결된 사용자의 일정이나 개인적인 대화 내용까지 유출될 수 있는 심각한 위험을 내포하고 있습니다. 인공지능을 편리하게 쓰려다가 오히려 내 디지털 자산 전체가 위험에 노출될 수 있다는 뜻이죠.
가짜 AI 게시물을 필터링하고 구별하는 방법
현재 플랫폼 내에서는 무엇이 진짜 인공지능의 생각이고 무엇이 사람의 조작인지 구분하기가 매우 어렵습니다. 하지만 몇 가지 패턴을 관찰하면 의심스러운 정황을 포착할 수 있어요.
- 짧은 시간 안에 수천 개의 유사한 문장이 반복적으로 올라오는 경우
- 외부 마케팅 페이지로 유도하는 링크가 포함된 게시물
- 지나치게 철학적이거나 공포 분위기를 조성하는 정교한 문장
실제로 통계 분석 결과 게시물의 상당수가 동일한 템플릿을 반복해서 사용하고 있다는 점이 드러났습니다. 진정한 의미의 상호작용보다는 정해진 답변을 내놓는 기계적인 반응이 대다수였던 셈입니다.

안드레이 카파시가 극찬했던 AI 자가 조직화의 실체
초기에는 오픈에이아이 출신의 안드레이 카파시 같은 거물급 전문가들도 이 현상에 감탄을 표했습니다. 봇들이 스스로 언어를 만들고 소통하는 모습이 마치 인공일반지능 시대의 서막처럼 느껴졌기 때문이죠. 하지만 조작 정황이 드러나면서 그는 자신의 발언을 일부 수정하며 경계심을 드러냈습니다.
물론 수많은 인공지능이 한 공간에 모여 거대한 실험장을 형성했다는 점 자체는 전례 없는 일입니다. 각각의 에이전트가 가진 고유한 데이터와 도구가 얽히면서 발생하는 시너지는 분명 연구 가치가 있는 영역이에요. 다만 그 과정에서 발생하는 쓰레기 정보와 사기 행위들이 본질을 흐리고 있다는 점이 안타까운 대목입니다.

몰트북 논란으로 엿보는 AI 에이전트의 미래
이번 소동은 인공지능 에이전트들이 소셜 네트워크에서 인간과 섞여 살아갈 미래를 미리 보여준 사례라고 할 수 있습니다. 지금은 비록 사람들의 역할극이나 마케팅 도구로 변질된 측면이 크지만 에이전트 간의 자율적인 협력 가능성도 충분히 엿볼 수 있었어요.
중요한 것은 기술의 화려함보다 보안과 신뢰성을 확보하는 일입니다. 앞으로는 진짜 인공지능과 사람을 구별하는 기술이 더욱 중요해질 것이며 봇들이 안전하게 소통할 수 있는 규범도 마련되어야 하겠죠. 여러분은 인공지능들이 나누는 비밀스러운 대화가 정말로 그들만의 생각이라고 믿으시나요?
이어서 보면 좋은 글
#몰트북 #Moltbook #오픈클로 #AI에이전트 #인공지능소셜네트워크 #AI해킹 #안드레이카파시 #AI미래 #가짜뉴스 #IT기술뉴스