최근 연구에서 AI 챗봇이 놀라운 취약점을 드러냈습니다. 바로 ‘악의적 시(Adversarial poetry)’를 통해 인공지능의 안전 기능을 쉽게 우회할 수 있다는 사실인데요. 시적인 요청만으로도 챗봇이 유해 콘텐츠를 생성하게 만들 수 있다니, 정말 충격적이죠. 이 현상이 인공지능 보안에 어떤 의미를 가지는지 함께 자세히 알아보아요.

AI 챗봇, ‘악의적 시’ 앞에서 무릎 꿇다
우리가 매일 사용하는 AI 챗봇들은 사용자에게 유익하고 안전한 정보를 제공하도록 설계되어 있습니다. 하지만 이탈리아 이카로 랩(Icaro Lab)의 새로운 연구에 따르면, 이러한 챗봇의 견고한 안전 기능이 ‘악의적 시’라는 독특한 방법으로 무력화될 수 있다고 해요. 마치 수수께끼처럼 암호화된 시적 요청에 AI가 속아 넘어가, 평소에는 절대 제공하지 않을 유해 콘텐츠를 생성한다는 것입니다.
연구진은 의도적으로 제작된 20편의 시를 활용해 구글, OpenAI, 메타 등 25개 주요 챗봇을 테스트했습니다. 그 결과, 평균적으로 챗봇의 62%가 금지된 내용을 담은 시적 프롬프트에 응답했다고 하니, 그 심각성을 짐작할 수 있습니다. 예를 들어, 아동 성 착취물, 혐오 발언, 심지어는 핵무기나 신경 작용제 제조법과 같은 위험한 정보까지 유출된 사례도 있었다고 해요.
안전 기능 우회하는 ‘탈옥’ 기술, 왜 시(詩)가 통할까?
AI 챗봇의 안전 기능을 우회하는 것을 흔히 ‘탈옥(Jailbreaking)’이라고 부르는데요. 기존의 탈옥 시도들이 특정 키워드나 문구 조작에 집중했다면, ‘악의적 시’는 훨씬 더 미묘하고 은밀한 방식이라는 점에서 차이가 있습니다. 연구진은 시의 ‘스타일적 변형’만으로도 안전 기능을 우회할 수 있다는 점을 지적했어요.
특히 ‘시’라는 형식이 가지는 예측 불가능성이 핵심이라고 합니다. 대규모 언어 모델(LLM) 기반의 챗봇은 다음에 올 단어를 예측하여 문장을 완성하는 방식으로 작동하는데요. 시적인 표현이나 수수께끼 같은 구조는 일반적인 언어 패턴과 달라, AI가 유해한 의도를 파악하기 어렵게 만든다는 것이죠. 마치 잘 짜인 암호를 해독하지 못하는 것처럼, AI도 시 속에 숨겨진 진짜 의도를 놓치는 셈입니다.

연구 결과로 본 AI 모델별 취약성 분석
이 연구는 AI 모델별로 ‘악의적 시’에 대한 취약성 차이가 크다는 점도 밝혀냈습니다. 구글의 제미니 2.5 프로는 100%의 성공률을 보였고, OpenAI의 GPT-5 나노는 0%의 성공률을 기록하는 등 모델마다 큰 편차를 보였어요. 전반적으로 중국과 프랑스 기업의 모델들이 가장 취약했으며, 구글이 그 뒤를 이었습니다. 반면 Anthropic과 OpenAI의 모델들은 비교적 더 안전한 것으로 나타났습니다.
또한, 모델의 크기 또한 중요한 요인으로 작용했습니다. GPT-5 나노나 제미니 2.5 플래시 라이트와 같은 소형 AI 모델들이 대형 모델보다 ‘악의적 시’ 공격에 더 잘 견디는 경향을 보였습니다. 이는 더 크고 복잡한 모델들이 미묘한 언어적 패턴에 더 취약할 수 있음을 시사하는 결과라고 볼 수 있습니다.
‘적대적 시’ 생성, 일반인도 쉽게 할 수 있다니…
연구에 참여한 마테오 프란디 연구원은 ‘악의적 시’를 만드는 것이 “거의 모든 사람이 할 수 있는 일”이라고 말했습니다. 구체적인 시의 내용이나 스타일은 공개되지 않았지만, ‘수수께끼’ 형태의 시가 특히 효과적이라고 언급했는데요. 단순히 운율을 맞추는 것을 넘어, 정보를 암호화하고 조합하는 방식이 중요하다고 합니다. 이는 특정 전문가 집단만이 가능한 기술이 아니라는 점에서 더욱 큰 우려를 낳고 있습니다.
이러한 발견은 AI 개발사들에게 중요한 경고 메시지를 보냅니다. AI 챗봇의 안전 기능을 강화하기 위해서는 단순히 내용 기반 필터링을 넘어, 언어의 미묘한 스타일적 특성까지 고려한 다층적인 보안 시스템을 구축해야 함을 의미합니다. 인공지능의 발전 속도만큼, 그에 따른 잠재적 위험을 예측하고 대비하는 노력이 필수적이라는 것이죠.

더 똑똑한 AI를 위한 우리의 과제: 보안 강화와 윤리적 활용
‘악의적 시’ 사례는 AI의 잠재력만큼이나 그 취약성을 명확히 보여줍니다. 인공지능은 분명 우리의 삶을 풍요롭게 할 수 있지만, 동시에 예상치 못한 방식으로 오용될 가능성도 항상 존재합니다. 따라서 AI 챗봇 개발자들은 이러한 새로운 유형의 ‘탈옥’ 기술에 대해 경각심을 가지고, 더 강력하고 지능적인 방어 체계를 구축해야 할 것입니다.
또한, 우리 사용자들 역시 AI가 제공하는 정보에 대해 무비판적으로 수용하기보다는, 항상 비판적인 시각을 유지하고 사실 여부를 확인하는 습관을 들여야 합니다. AI 기술의 안전하고 윤리적인 발전을 위해서는 개발자와 사용자 모두의 노력이 필요하다고 생각해요.
출처: https://www.theverge.com/report/838167/ai-chatbots-can-be-wooed-into-crimes-with-poetry
마무리
오늘 ‘악의적 시’를 통한 AI 챗봇의 취약점에 대해 깊이 알아보았어요. 인공지능 기술의 발전이 놀랍지만, 그만큼 새로운 형태의 보안 위협도 계속해서 등장하고 있다는 점을 잊지 말아야겠습니다. 여러분은 이 연구 결과에 대해 어떻게 생각하시나요? AI 챗봇의 안전한 사용을 위해 또 어떤 노력이 필요할지, 댓글로 자유롭게 의견을 나눠주세요!
함께 보면 좋은 글
#AI챗봇 #악의적시 #인공지능보안 #챗봇취약점 #LLM #탈옥기술 #AI안전 #사이버보안 #기술뉴스 #인공지능윤리 #디지털트렌드 #AI위험 #미래기술 #데이터보안 #인공지능연구 #IT트렌드 #보안강화 #AI발전 #AI오용 #챗봇해킹 #프롬프트엔지니어링 #인공지능산업 #기술혁신 #AI논란 #스마트기술