AI 악성코드가 사이버 보안의 새로운 위협으로 떠오르고 있다는 뉴스, 많이 보셨죠? 그런데 실제로는 어떨까요? Google이 최근 분석한 결과에 따르면, 생성형 AI로 만들어진 악성코드들은 예상보다 훨씬 허술하고 쉽게 탐지되는 것으로 나타났어요. 과장된 마케팅과 실제 위협 사이의 간극을 함께 살펴볼게요.

Google이 분석한 AI 악성코드의 실체
Google 보안팀이 최근 공개한 보고서는 많은 사람들을 놀라게 했어요. PromptLock, FruitShell, PromptFlux, PromptSteal, QuietVault라는 5개의 AI 생성 악성코드를 분석한 결과, 모두 실무에서 사용하기에는 턱없이 부족한 수준이었거든요.
특히 주목할 만한 사례는 PromptLock이에요. 이 랜섬웨어는 대학 연구팀이 대규모 언어 모델을 활용해 자동으로 계획하고 실행하는 공격 사이클을 실험하기 위해 만들었는데요. 연구팀 스스로도 명확한 한계를 인정했답니다. 지속성 유지 기능도 없고, 네트워크 내 측면 이동도 불가능하며, 고급 회피 전술도 빠져 있었어요.
보안 업체 ESET는 이를 발견하고 ‘최초의 AI 기반 랜섬웨어’라고 대서특필했지만, 실상은 개념 증명 수준에 불과했던 거죠.

왜 AI 생성 악성코드는 실패했을까
5개 샘플 모두가 공통적으로 보인 문제점이 있어요. 첫째, 탐지가 너무 쉬웠다는 거예요. 심지어 정적 서명 기반의 오래된 보안 솔루션으로도 손쉽게 잡아낼 수 있었답니다.
둘째, 사용된 기법들이 전혀 새롭지 않았어요. 이미 기존 악성코드에서 봤던 방식들을 그대로 차용했기 때문에, 보안 전문가들이 대응하는 데 별다른 어려움이 없었죠.
운영상 영향이 전무했던 이유
가장 치명적인 문제는 실제 공격 능력이 없었다는 거예요. 방어자 입장에서 새로운 방어 체계를 구축할 필요조차 없었답니다. 기존 보안 시스템만으로도 충분히 막을 수 있었거든요.
생성형 AI가 코드를 작성하는 건 가능하지만, 실전에서 작동하는 악성코드를 만드는 건 전혀 다른 차원의 문제라는 걸 보여주는 사례예요.
과장된 AI 보안 위협 마케팅의 진실
흥미로운 건 AI 기업들의 반응이에요. Anthropic은 자사의 Claude 모델을 사용해 랜섬웨어를 개발한 위협 행위자를 발견했다며, “Claude의 도움 없이는 암호화 알고리즘이나 안티 분석 기법을 구현할 수 없었을 것”이라고 발표했어요.
ConnectWise라는 스타트업은 생성형 AI가 “위협 행위자들의 진입 장벽을 낮추고 있다”고 주장했고요. OpenAI도 ChatGPT를 사용해 악성코드를 개발한 20개 위협 그룹을 찾아냈다는 보고서를 내놨죠.
벤처 투자 유치를 위한 과장?
이런 발표들의 공통점이 뭘까요? 대부분 새로운 투자 유치를 준비 중인 AI 기업들이라는 거예요. 보고서 말미에는 한계점을 언급하긴 하지만, 헤드라인에서는 위협을 극대화해서 표현하는 경향이 있답니다.
실제로는 자동화 성공 사례나 획기적인 능력의 증거를 찾지 못했다는 게 Google의 분석 결과예요.

실제 탐지율과 방어 현황
현재 보안 업계의 탐지 시스템은 AI 악성코드에 대해 어떤 성과를 보이고 있을까요? 놀랍게도 기존 엔드포인트 보호 솔루션만으로도 충분히 대응 가능한 수준이에요.
분석된 5개 샘플은 모두 다음과 같은 특징을 보였어요:
- 정적 분석으로 즉시 탐지 가능
- 행위 기반 탐지에서도 쉽게 포착됨
- 기존 악성코드 데이터베이스와 매칭률이 높음
- 난독화 기법이 초보적 수준
이는 보안 담당자들에게 좋은 소식이에요. 당장 새로운 보안 투자를 서둘러 할 필요가 없다는 뜻이거든요.
전문가들의 평가
독립 연구자 Kevin Beaumont는 “생성형 AI 열풍이 시작된 지 3년이 넘었는데, 위협 개발 속도가 고통스러울 정도로 느리다”고 평가했어요. 그는 “만약 돈을 주고 이런 악성코드를 의뢰했다면, 환불을 요구하며 화를 낼 수준”이라고 덧붙였죠.
익명을 요청한 또 다른 악성코드 전문가는 “AI가 더 무서운 악성코드를 만들고 있는 게 아니라, 그냥 악성코드 개발자들의 작업을 도와주는 정도”라며 “새로운 건 없다”고 잘라 말했어요.
AI는 언젠가 발전할까
전문가들도 AI의 발전 가능성 자체는 인정해요. “AI는 분명 더 나아질 거예요. 하지만 언제, 얼마나 좋아질지는 아무도 모르죠”라는 게 중론이랍니다.

AI 악성코드의 미래 전망
그렇다면 앞으로는 어떻게 될까요? 당분간은 실험적 수준에 머물 가능성이 높아요. Google의 분석 결과가 보여주듯, 생성형 AI 도구로 코드를 작성하는 것과 실제로 작동하는 공격 도구를 만드는 것 사이에는 큰 격차가 있거든요.
흥미로운 발견도 있었어요. 일부 위협 행위자들이 Google의 Gemini 모델을 악용하려다 적발됐는데, 이들은 화이트햇 해커인 척하며 CTF(Capture The Flag) 게임 참가용이라고 속였대요. Google은 이후 가드레일을 강화해서 이런 우회 시도를 막고 있답니다.
우리가 주목해야 할 진짜 위협
결국 현재 가장 큰 위협은 여전히 전통적인 방식이에요. 피싱 이메일, 취약점 악용, 소셜 엔지니어링 같은 오래된 기법들이 훨씬 효과적이거든요.
보안 예산을 배정할 때도 이 점을 고려해야 해요:
- 직원 보안 교육 강화
- 패치 관리 체계 개선
- 다층 방어 시스템 구축
- 백업 및 복구 계획 수립
AI 악성코드는 모니터링 대상이긴 하지만, 당장 최우선 순위는 아니라는 거죠.

마무리
AI 악성코드에 대한 과장된 우려에서 벗어나, 실제 위협 수준을 정확히 파악하는 게 중요해요. Google의 분석이 보여주듯, 현재 AI로 생성된 악성코드는 기존 보안 체계로도 충분히 대응 가능한 수준이랍니다. 여러분의 조직에서는 AI 보안 위협을 어떻게 준비하고 계신가요? 댓글로 의견을 나눠주세요!
출처: Ars Technica – AI-generated malware poses little real-world threat
같이 보면 좋은 글
#AI악성코드 #생성형AI #사이버보안 #랜섬웨어 #악성코드탐지 #AI보안위협 #Google보안분석 #PromptLock #사이버위협 #보안솔루션 #엔드포인트보호 #악성코드방어 #AI기술 #정보보안 #해킹방지 #보안전문가 #사이버공격 #AI개발 #보안시스템 #네트워크보안 #데이터보호 #IT보안 #클라우드보안 #보안관제 #위협인텔리전스