앤스로픽과 미국 국방부 사이의 기싸움이 갈수록 거칠어지고 있습니다. 3,800억 달러 가치의 이 인공지능 스타트업이 2억 달러 규모의 계약을 눈앞에 두고 펜타곤과 정면으로 맞서고 있는 상황인데요. 단순히 비즈니스 협상을 넘어 인공지능의 윤리적 마지노선을 어디까지 설정할 것인가를 두고 벌어지는 치열한 논쟁의 중심에 서 있습니다. 과연 무엇이 이들을 이토록 팽팽하게 대립하게 만드는 걸까요.

앤스로픽 펜타곤 협상이 교착 상태에 빠진 진짜 이유
앤스로픽은 최근 미 국방부와 인공지능 모델 공급을 위한 수주 계약을 맺는 과정에서 아주 까다로운 조건을 맞닥뜨렸어요. 바로 ‘어떠한 합법적 사용’도 허용하라는 문구였는데요. 이미 오픈에이아이와 xAI는 이 조건에 합의하고 계약을 진행했지만 앤스로픽만큼은 이 조항을 받아들일 수 없다는 입장을 고수하고 있더라고요.
특히 펜타곤의 최고기술책임자인 에밀 마이클은 과거 우버 시절의 공격적인 협상 스타일을 앞세워 앤스로픽을 강하게 압박하고 있어요. 앤스로픽의 최고경영자인 다리오 아모데이가 직접 국방장관을 만나기로 했지만 분위기는 여전히 냉랭합니다. 앤스로픽 입장에서는 기업의 정체성과도 같은 인공지능 안전 원칙이 무너질 수 있다는 위기감을 느끼고 있는 셈이죠.
미 국방부가 요구하는 어떠한 합법적 사용 조건이란 무엇인가요?
펜타곤이 새롭게 도입하려는 계약 조건의 핵심은 군이 필요로 하는 모든 합법적인 용도에 인공지능을 투입할 수 있게 해달라는 것이에요. 여기에는 우리가 흔히 생각하는 단순한 정보 분석이나 문서 요약을 넘어선 훨씬 민감한 영역이 포함되어 있습니다.
- 인간의 개입 없는 자율 살상 무기 운용
- 광범위한 실시간 대중 감시 체계 구축
- 전장 상황에서의 실시간 타격 결정 지원
미 국방부는 기술 경쟁에서 우위를 점하기 위해 속도가 무엇보다 중요하다는 입장이에요. 안전이나 정렬 문제로 인해 적국보다 늦어지는 것이 더 큰 위험이라고 판단하고 있더라고요. 그래서 기존의 인공지능 사용 제한 정책을 과감하게 걷어내려는 움직임을 보이고 있습니다.

앤스로픽이 절대 양보할 수 없다고 선언한 2가지 레드라인
앤스로픽이 이번 협상에서 끝까지 고집을 꺾지 않는 부분은 크게 두 가지로 요약할 수 있어요. 회사 측은 이 두 영역만큼은 인공지능이 침범해서는 안 될 성역이라고 믿고 있더라고요.
- 자율적인 물리적 타격 작전: 인간이 최종 결정을 내리지 않는 상태에서 인공지능이 스스로 대상을 살상하는 행위는 기술적으로 아직 시기상조이며 위험하다고 보고 있어요.
- 대규모 국내 감시: 시민들의 자유와 프라이버시를 침해할 수 있는 수준의 무차별적인 데이터 수집과 감시 활동에 인공지능이 활용되는 것을 극도로 경계하고 있습니다.
앤스로픽 관계자의 말을 빌리면 법이 기술의 발전 속도를 따라가지 못하는 상황에서 인공지능 기업이 스스로 최소한의 도덕적 방어선을 구축해야 한다는 것이죠. 이는 앤스로픽이 설립 초기부터 강조해온 책임감 있는 인공지능 개발 원칙과 맞닿아 있습니다.
공급망 위험 지정이라는 전례 없는 압박이 불러올 치명적 결과
협상이 난항을 겪자 펜타곤은 앤스로픽을 공급망 위험 기업으로 지정하겠다는 전례 없는 카드를 꺼내 들었습니다. 보통 이 명단은 국가 안보에 위협이 되는 외국 기업에나 붙는 꼬리표인데 이를 자국 기업인 앤스로픽에게 사용하겠다고 위협한 것이죠. 만약 실제로 이 지정이 확정되면 앤스로픽은 엄청난 타격을 입게 됩니다.
- 모든 국방 관련 계약 파기 및 신규 입찰 금지
- AWS나 팔란티어 같은 기존 파트너사와의 협력 중단 압박
- 다른 정부 기관 및 공공 부문으로의 시장 확장 차단
앤스로픽의 클로드는 현재 기밀 정보를 처리할 수 있는 가장 높은 보안 등급을 보유한 유일한 상용 모델인데 이 모든 이점을 한순간에 잃을 수도 있는 상황이에요. 펜타곤은 이를 통해 앤스로픽이 백기를 들기를 기대하고 있습니다.

인공지능 기업이 군사적 활용에서 윤리를 지키는 방법
기술의 군사적 활용은 피할 수 없는 흐름이지만 앤스로픽은 그 과정에서도 최소한의 안전장치가 필요하다고 주장합니다. 무조건적인 거부가 아니라 적절한 수준의 인간 통제권이 보장되어야 한다는 것이죠.
앤스로픽은 이미 국방부와 체결했던 기존 계약에서도 책임감 있는 AI라는 단어를 수차례 강조하며 협력해왔어요. 그들이 제시하는 대안은 인공지능을 전투 보조나 행정 효율화에는 적극적으로 활용하되 생명과 직결된 결정은 반드시 인간의 영역으로 남겨두는 방식입니다. 이를 위해 모델 내부에 특정 군사적 오용을 막는 프로토콜을 심거나 사용 정책을 엄격하게 관리하는 등의 노력을 지속하고 있습니다.
이번 사태가 향후 글로벌 AI 생태계에 미칠 3가지 영향
앤스로픽과 펜타곤의 이 역사적인 충돌은 앞으로 다른 인공지능 기업들에게도 중요한 이정표가 될 것으로 보입니다. 이번 사건이 남길 파장은 생각보다 훨씬 넓고 깊을 거예요.
- 기업 윤리와 국가 안보의 우선순위 재정립: 기업이 국가의 요구를 어디까지 수용해야 하는지에 대한 새로운 기준이 만들어질 것입니다.
- 인공지능 모델의 파편화 가속: 군 전용 모델과 민간용 모델 사이의 기술적 격차와 정책적 분리가 더 뚜렷해질 가능성이 커요.
- 기술 인재들의 이동: 윤리적 가치를 중시하는 개발자들이 군사화되는 빅테크를 떠나 앤스로픽과 같은 신념을 가진 기업으로 결집하는 현상이 나타날 수 있습니다.
이미 구글이나 다른 기업 내에서도 인공지능의 무기화에 반대하는 목소리가 높았던 만큼 앤스로픽의 이번 행보는 업계 전체의 분위기를 좌우할 중요한 변수가 될 것입니다.


기술의 속도보다 중요한 가치를 고민해야 할 때
이번 앤스로픽과 펜타곤의 협상 진통은 단순히 한 기업의 수익 문제를 넘어 우리 사회가 인공지능이라는 강력한 도구를 어떻게 통제할 것인가에 대한 근본적인 질문을 던지고 있습니다. 당장의 효율성과 속도도 중요하지만 한 번 무너진 윤리적 기준을 다시 세우는 것은 불가능에 가깝기 때문이죠. 앤스로픽이 보여주는 고집이 결국 우리 인류를 위한 마지막 안전핀이 될지도 모른다는 생각을 하게 됩니다. 앞으로 펼쳐질 인공지능 시대에 기술적 진보만큼이나 인간다운 가치를 지키기 위한 노력이 더 많이 필요해지는 시점입니다.
출처: https://www.theverge.com/ai-artificial-intelligence/883456/anthropic-pentagon-department-of-defense-negotiations
이어서 보면 좋은 글
#앤스로픽 #펜타곤 #인공지능윤리 #AI안전 #클로드 #다리오아모데이 #미국국방부 #자율살상무기 #공급망위험 #테크트렌드