2026년 2월 26일 가디언 보도에 따르면 Anthropic이 미 국방부의 안전 장치 제거 요구를 정면으로 거부했습니다. 2억 달러 규모의 계약 파기 위협에도 불구하고 클로드 모델의 윤리적 가이드라인을 지키겠다는 의지를 분명히 한 셈입니다. 이번 사태는 AI 기술의 군사적 오남용을 막으려는 기업과 기술 패권을 쥐려는 정부 사이의 긴장을 상징적으로 보여줍니다.

펜타곤은 왜 Anthropic에 가드레일 제거를 요구했나
미 국방부는 최근 Anthropic에 제공하던 2억 달러 규모의 계약을 무기로 강력한 압박을 가하기 시작했습니다. 피트 헤그세스 국방장관은 클로드 모델에 적용된 안전 가드레일을 제거하고 군이 원하는 모든 방식의 사용 권한을 부여할 것을 요구했습니다. 이는 인공지능이 전쟁터에서 제약 없이 판단하고 행동할 수 있는 환경을 구축하려는 의도로 풀이됩니다.
정부는 이러한 조치가 국가 안보를 위해 필수적이라고 주장하지만 그 이면에는 기술적 통제권을 완전히 장악하려는 목적이 깔려 있습니다. 특히 이번 요구는 Anthropic이 군의 기밀 시스템에서 사용 가능한 유일한 모델이었다는 점에서 더욱 파괴력이 컸습니다. 최근 일론 머스크의 xAI가 기밀 시스템 사용 승인을 받으면서 펜타곤의 압박 수위는 한층 높아진 상황입니다.
Anthropic이 압박을 거부한 3가지 결정적 이유
다리오 아모데이 CEO는 양심상 펜타곤의 요구를 수용할 수 없다는 입장을 발표하며 세 가지 핵심적인 이유를 들었습니다. 이는 단순한 거절이 아니라 기술의 안전성에 대한 근본적인 철학이 담긴 결정이었습니다.
- 자율 살상 무기 체계로의 변질 우려: 인간의 개입 없이 생명을 앗아갈 수 있는 무기 시스템에 AI가 활용되는 것을 원천 차단하기 위함입니다.
- 광범위한 국내 감시 오남용 방지: 클로드가 대중을 감시하거나 사생활을 침해하는 도구로 쓰이는 상황을 방지하려는 목적이 큽니다.
- 현재 기술의 신뢰성 부족: 오늘날의 AI 기술은 생사가 걸린 상황에서 100퍼센트 신뢰할 수 있는 수준이 아니라는 판단입니다.

미 국방부의 공급망 위험 지정이 불러올 파장
펜타곤은 Anthropic이 요구에 불응할 경우 공급망 위험 요소로 지정하겠다는 초강수를 뒀습니다. 이는 보통 적대 국가의 기업에 적용되는 조치로 해당 기업의 금융 활동과 공공 계약에 치명적인 타격을 입히는 행위입니다. 만약 이 지정이 확정된다면 미 군 당국과 거래하는 다른 모든 협력사들도 Anthropic의 제품을 사용할 수 없게 됩니다.
이러한 조치는 실질적인 경제적 봉쇄나 다름없으며 한 기업의 윤리적 결단을 국가 안보에 대한 위협으로 간주한다는 점에서 논란이 거세지고 있습니다. 업계에서는 정부가 특정 기업의 기술 철학을 굴복시키기 위해 행정력을 남용하고 있다는 비판이 나오고 있습니다.
군사용 AI의 치명적 오류를 방지하는 2가지 방법
Anthropic은 군과의 협력 자체를 거부하는 것이 아니라 최소한의 안전장치가 필요하다는 점을 강조합니다. 이들이 제시하는 방법은 기술이 통제 범위를 벗어나지 않도록 하는 구체적인 가이드라인입니다.
- 인간의 최종 결정권 유지: 모든 살상 결정이나 중요 작전에서 AI는 보조적인 역할에 머물러야 하며 최종 승인은 반드시 인간이 담당해야 합니다.
- 기술적 한계 인정과 범위 제한: 현재 모델이 수행할 수 있는 안전한 작업 범위를 명확히 설정하고 그 이상의 권한을 부여하지 않는 식입니다.

클로드 AI 모델의 기술적 한계와 윤리적 선택
아모데이 CEO는 현재의 AI 기술이 전장에서 발생할 수 있는 수많은 변수를 완벽하게 계산하기에는 아직 미흡하다고 지적했습니다. 기술적 결함이 있는 상태에서 가드레일을 제거하는 것은 곧 통제 불가능한 사고로 이어질 수 있다는 논리입니다. 이는 기업의 이익보다 사회적 책임을 우선시한 드문 사례로 평가받습니다.
최근 베네수엘라 지도자 검거 작전 등에서 AI가 활용된 사례가 보고되면서 기술의 실전 배치는 가속화되고 있습니다. 이런 상황에서 Anthropic의 고집은 자칫 무분별하게 흘러갈 수 있는 AI 무기화 속도에 제동을 거는 역할을 하고 있습니다.
앞으로 빅테크 기업이 나아가야 할 자율 규제 방향
이번 사태는 정부의 압박 속에서 빅테크 기업들이 어디까지 기술적 소신을 지킬 수 있는지 시험하는 무대가 되었습니다. 단순히 수익을 쫓는 것을 넘어 기술이 인류에 끼칠 해악을 미리 예견하고 방어하는 자세가 그 어느 때보다 중요해진 시점입니다.

인류의 안전을 위한 기술적 결단
결국 기술은 그것을 만드는 사람의 의도를 반영합니다. Anthropic이 보여준 행보는 눈앞의 막대한 계약금보다 기술의 올바른 사용이 더 가치 있다는 사실을 일깨워줍니다. 앞으로 더 많은 기업이 이러한 윤리적 기준을 세우고 정부와의 건강한 긴장 관계를 유지할 때 비로소 우리는 안전한 인공지능 시대를 맞이할 수 있을 것입니다.
출처: https://www.theguardian.com/us-news/2026/feb/26/anthropic-pentagon-claude
이어서 보면 좋은 글
#Anthropic #펜타곤 #클로드 #AI안전 #미국방부 #인공지능윤리 #다리오아모데이 #기술패권 #자율살상무기 #공급망위험