출처: https://www.theguardian.com/technology/2026/mar/09/anthropic-artificial-intelligence-pentagon
최근 실리콘밸리의 AI 기업 앤스로픽(Anthropic)이 미 국방부와의 갈등 중심에 서면서 기술 업계의 긴장감이 고조되고 있습니다. 챗봇 클로드(Claude)를 앞세워 조용히 성장하던 이 기업이 왜 돌연 군사 기술 적용을 거부하며 정부와 날을 세우게 되었는지, 그 배경과 실질적인 기술적 쟁점을 정리했습니다.

앤스로픽이 국방부와 대립하게 된 진짜 이유
앤스로픽은 그동안 AI 안전성을 기업의 최우선 가치로 내세워 왔습니다. 이번 갈등은 국방부가 클로드 모델을 대량 살상 무기 체계 및 국내 감시 시스템에 활용하려던 계획에서 시작되었습니다. 기업 측은 기술의 오남용을 막기 위한 안전장치를 요구했으나, 국방부는 이를 수용하지 않았습니다. 결과적으로 양측의 협상이 결렬되면서, 앤스로픽은 사상 최초로 미 정부로부터 공급망 위험 기업으로 지정되는 처지에 놓였습니다.
클로드 AI는 어떻게 군사 작전에 쓰이고 있나
앤스로픽의 클로드 모델은 이미 팔란티어(Palantir)와 같은 방산 소프트웨어를 통해 군사 시스템에 통합된 상태입니다. 특히 이란과의 전쟁이나 특정 인물 추적 작전 등에서 데이터 분석과 전략 수립을 지원하는 용도로 활용되고 있습니다.
- 방대한 정보의 실시간 분석 및 작전 경로 최적화
- 감시 카메라 영상 속 특정 타겟 식별 및 분류
- 무인 무기 체계의 의사결정 보조 도구 활용
인공지능 안전론과 군사적 현실의 괴리
앤스로픽 경영진은 AI의 실존적 위험을 강조하며 ‘헌법(Constitution)’이라는 이름의 안전 가이드라인을 도입했습니다. 하지만 전문가들은 이들이 말하는 ‘안전’과 실제 ‘전쟁터에서의 윤리’ 사이에는 큰 간극이 존재한다고 지적합니다.
- 특정 집단에 대한 타겟팅이 윤리적이라는 모순적 논리
- 민간용으로 개발된 기술이 군사 용도로 재전환되는 듀얼 유스(Dual-use) 문제
- 기술 개발자와 군 관계자 간의 불투명한 의사결정 블랙박스 현상

왜 다른 AI 기업들은 국방부와 협력하는가
오픈AI를 비롯한 다수의 경쟁사들은 앤스로픽과 달리 국방부와의 파트너십을 전략적으로 선택했습니다. 이는 단순히 기술적 선점뿐만 아니라, 정부 계약을 통해 막대한 자본과 데이터를 확보하려는 의도가 깔려 있습니다. 앤스로픽이 겪는 경영상의 압박은 다른 기업들이 왜 정부의 요구에 순응하며 ‘독재적 찬사’라는 비판을 감수하는지를 단적으로 보여줍니다.
군사 기술로 변질된 AI의 위험성 해결법
전문가들은 인공지능이 무기화되는 속도를 제어할 법적 장치가 부족하다고 입을 모읍니다. 현재의 상황은 개별 기업의 윤리 의식에만 기대기엔 지나치게 위험합니다.
- 국회 차원의 명확한 자율 살상 무기 가이드라인 제정
- AI 학습 데이터 및 활용 범위에 대한 투명성 공시 의무화
- 기술 개발 단계부터 군사 적용 차단을 위한 기술적 록(Lock) 설정

앤스로픽과 국방부 사태, 앞으로의 전망
앤스로픽은 공급망 위험 지정에 대해 법적 대응을 예고했지만, 미 국방부와의 관계 회복은 쉽지 않아 보입니다. 이번 사태는 실리콘밸리의 기술 기업들이 국가 권력과 얼마나 깊숙이 연결되어 있는지, 그리고 그 과정에서 기술적 중립성을 지키는 것이 얼마나 어려운지를 다시금 상기시켜 줍니다. AI의 발전을 주도하는 기업들이 단순한 이익을 넘어 어떤 사회적 책임을 져야 하는지 결정해야 할 시점입니다.

마무리
결국 기술의 운명은 그것을 만드는 사람의 철학과 그것을 사용하는 국가의 통제 방식 사이에 놓여 있습니다. 앤스로픽이 끝까지 자신의 신념을 지킬지, 아니면 거대한 국방 시스템의 일부로 편입될지 지켜볼 일입니다. 우리 역시 기술의 발전 속도만큼이나, 그 기술이 어떤 결과를 초래할지 비판적으로 바라보는 안목이 필요합니다.