인터넷의 핵심 도구인 cURL이 최근 버그 바운티 프로그램을 전면 중단한다는 소식을 전했어요. 가장 큰 원인은 바로 AI slop이라 불리는 저품질 인공지능 생성 보고서들이 쏟아졌기 때문이죠. 개발자들의 정신 건강까지 위협받는 상황에서 내려진 이번 결정은 많은 시사점을 던져주고 있더라고요. 인공지능이 만든 가짜 보안 취약점이 어떻게 오픈소스 생태계를 망가뜨리고 있는지 그 배경을 자세히 살펴봤어요.

AI slop 현상이 cURL을 흔든 이유
cURL의 창시자인 다니엘 스텐베르는 최근 관리자들이 겪는 고충을 토로하며 보안 보상 프로그램을 종료한다고 발표했어요. 지난 몇 달 동안 인공지능이 무분별하게 만들어낸 가짜 취약점 보고서가 감당할 수 없을 정도로 밀려들었기 때문이죠. 소규모 인원으로 운영되는 오픈소스 프로젝트 특성상 이런 무의미한 보고서를 검토하는 데 너무 많은 에너지가 소모된다고 하더라고요. 결국 프로젝트의 생존과 팀원들의 정신 건강을 지키기 위해 어쩔 수 없는 선택을 내린 셈이었어요.

왜 AI가 만든 보고서에 분노할까요
가장 큰 문제는 LLM의 환각 증상으로 인해 존재하지도 않는 보안 허점이 마치 실제인 것처럼 보고된다는 점이었어요. 인공지능은 그럴듯한 문장으로 취약점을 설명하지만 실제로는 컴파일조차 되지 않는 엉터리 코드를 제시하는 경우가 허다했거든요. 다니엘 스텐베르는 구글의 바드(Bard)가 제조해낸 가짜 정보를 그대로 믿고 제출하는 사용자들에게 공개적인 경고를 날리기도 했어요. 실제 함수 구조와 맞지 않는 코드를 보면서 관리자들은 허탈함을 느낄 수밖에 없었던 것이죠.
가짜 취약점 보고서를 걸러내는 방법
이런 혼란 속에서 관리자들은 나름의 필터링 기준을 세워 대응하고 있더라고요. 무작정 AI의 답변을 복사해서 제출하기보다는 아래와 같은 검증 과정을 거치는 것이 필수라고 강조했어요.
- 코드 시그니처가 실제 함수 명세와 일치하는지 확인하기
- 보고된 내용이 실제 프로젝트의 변경 이력에 존재하는지 대조하기
- 제시된 익스플로잇 코드가 실제로 컴파일되고 작동하는지 테스트하기
이런 기본적인 확인조차 없이 제출되는 보고서들은 오픈소스 생태계의 신뢰를 무너뜨리는 주범이 되고 있었어요.

AI slop 발생으로 인한 보안의 위기
cURL의 이번 결정은 단순히 한 프로젝트의 문제를 넘어 오픈소스 보안 전반에 큰 파장을 일으키고 있어요. 버그 바운티는 외부 전문가들의 도움을 받아 보안을 강화하는 중요한 수단인데 이것이 차단되면 장기적으로 보안 약화가 우려되기 때문이죠. 하지만 현재처럼 AI slop이 범람하는 상황에서는 진짜 중요한 보안 보고서가 가짜들 사이에 묻혀버릴 위험이 더 크다고 판단한 것 같아요. 음악 스트리밍 서비스가 가짜 음원으로 뒤덮이는 것처럼 보안 업계도 비슷한 위기에 직면했다는 분석이 나오더라고요.
정신 건강을 지키기 위한 관리자 대처법
다니엘 스텐베르는 앞으로 무의미한 보고서로 시간을 낭비하게 만드는 사용자들에게 강력하게 대응하겠다고 선언했어요. 단순한 거절을 넘어 커뮤니티의 건강을 지키기 위해 다음과 같은 조치를 취할 예정이라고 하더라고요.
- 악의적이거나 성의 없는 보고서를 제출하는 사용자 즉각 차단하기
- 공개적인 플랫폼에서 잘못된 보고서의 논리적 허점을 지적하고 박제하기
- 버그 바운티 프로그램을 잠정적으로 종료하여 쓰레기 데이터의 유입 차단하기
개발자도 사람인 만큼 반복되는 가짜 보고서 검토 업무에서 오는 극심한 스트레스를 줄이는 것이 최우선 과제가 된 것이죠.

AI 보안 보고서 문제를 해결하는 방법
물론 인공지능을 활용한 보안 점검이 모두 나쁜 것은 아니었어요. 다니엘 스텐베르도 AI 기반의 도구를 스마트하게 활용하여 수십 개의 유효한 버그를 찾아낸 사례에는 찬사를 보냈거든요. 핵심은 도구를 사용하는 사람의 태도와 이해도에 달려 있다는 점이었어요. 인공지능이 주는 답변을 맹신하지 않고 자신의 지식으로 검증한 뒤 제출한다면 여전히 AI는 강력한 조력자가 될 수 있더라고요. 결국 기술의 발전보다는 그것을 사용하는 사람들의 책임감이 더 중요한 시점이라는 생각이 들었습니다.
마치며
지금까지 AI slop 문제로 인해 cURL이 버그 바운티를 중단하게 된 안타까운 사연을 살펴보았어요. 기술의 발전이 때로는 예상치 못한 부작용을 낳아 누군가의 열정을 갉아먹기도 한다는 사실이 참 씁쓸하게 느껴지네요. 우리 모두가 인공지능을 더 책임감 있게 활용하여 건강한 오픈소스 생태계를 함께 지켜나갔으면 좋겠습니다. 여러분도 도구를 사용할 때는 항상 한 번 더 검증하는 습관을 가져보시는 건 어떨까요?
출처: https://arstechnica.com/security/2026/01/overrun-with-ai-slop-curl-scraps-bug-bounties-to-ensure-intact-mental-health/
이어서 보면 좋은 글
#AIslop #cURL #버그바운티 #오픈소스 #보안취약점 #다니엘스텐베르 #인공지능환각 #보안보고서 #개발자정신건강 #IT뉴스