최근 실리콘밸리 AI 업계가 OpenAI의 미국 국방부(DoD) 계약 건으로 큰 논란에 휩싸였습니다. Anthropic의 CEO 다리오 아모데이가 이를 ‘안전 연극’이라 부르며 작심하고 비판에 나선 것인데요. 기술의 윤리적 사용을 두고 두 거대 기업이 정면충돌하는 현재 상황을 짚어봅니다.

Anthropic CEO 다리오 아모데이가 격노한 이유는 무엇인가
사건의 발단은 지난주 Anthropic과 미 국방부 간의 협상이 결렬되면서 시작되었습니다. Anthropic은 국방부에 AI 기술을 제공하는 대가로 대량 살상 무기나 민간인 감시에 자사 모델을 사용하지 않겠다는 확약을 요구했습니다. 반면 OpenAI는 국방부와 ‘합법적 사용’ 범위 내에서의 계약을 성사시켰죠. 다리오 아모데이는 내부 메모를 통해 OpenAI가 평화 중재자처럼 행동하면서 실제로는 안전 가이드라인을 회피하고 있다고 강하게 비판했습니다.
OpenAI의 군사 계약, 왜 안전 연극이라 불리는가
아모데이가 지적하는 핵심은 ‘합법적 사용’이라는 모호한 표현입니다. OpenAI는 계약 내용에 법적 보호 장치가 포함되어 있다고 주장하지만, 아모데이는 이를 ‘안전 연극(Safety Theater)’에 불과하다고 일축합니다.
- 기업이 군사적 계약을 맺는 과정에서 안전 명분을 내세우는 행태
- 변화 가능한 법적 기준에 의존하여 도덕적 책임을 회피하는 방식
- 내부 직원들을 안심시키기 위한 보여주기식 정책 발표
어떻게 대중은 Anthropic의 손을 들어주고 있는가
이번 사건 이후 시장의 반응은 즉각적이었습니다. 단순히 기업 간의 싸움을 넘어 대중들은 기술이 군사 목적으로 활용되는 것에 상당한 거부감을 보이고 있습니다.
- OpenAI의 계약 발표 직후 ChatGPT 앱 삭제율 295% 급증
- Anthropic을 기술 윤리를 지키는 영웅으로 인식하는 여론 확산
- 앱 스토어 순위에서 Anthropic의 Claude가 상위권 유지
Anthropic과 OpenAI의 접근 방식, 무엇이 다른가
두 회사는 기술의 사회적 책임에 대해 완전히 상반된 철학을 가지고 있습니다. OpenAI가 시장 점유율과 영향력 확장을 위해 실용적인 노선을 택했다면, Anthropic은 내부적으로 ‘남용 방지’를 최우선 순위에 두고 있습니다.
- Anthropic: 기술의 군사적 이용 가능성을 사전에 차단하려는 강경한 방침
- OpenAI: 법적 테두리 안에서의 협력을 통해 시장 주도권을 확보하려는 전략
AI 군사화 논란, 앞으로 법적 기준은 어떻게 변할까
현재의 논쟁은 ‘합법적 사용’의 경계가 어디까지인가에 대한 질문을 던집니다. 지금은 불법으로 간주되는 행위라도 미래의 정치적 상황에 따라 언제든 합법이 될 수 있다는 우려가 존재하기 때문입니다.
- 기술 계약서상의 문구는 법령 변화에 따라 무력화될 가능성
- 정부의 AI 도입 속도와 윤리적 가이드라인 간의 충돌 심화
- 기업이 스스로 제어할 수 없는 기술의 무기화 위험성 증대

OpenAI 직원을 향한 아모데이의 경고는 무엇인가
아모데이는 대외적인 비난뿐만 아니라 내부 결속에도 신경을 쓰고 있습니다. 그는 OpenAI의 이번 조치가 외부인뿐만 아니라 내부 직원들에게도 거짓된 메시지를 심어줄까 우려하고 있습니다. 기업의 기술적 성과가 기업 윤리를 압도하기 시작할 때, 그 조직의 정체성이 어떻게 변질될 수 있는지 경계해야 한다는 메시지입니다.

결론: 기술보다 철학이 중요한 시점
결국 이번 사태는 AI가 단순히 성능 좋은 도구를 넘어, 인류의 가치관과 직결되는 핵심 기술임을 증명합니다. 단순한 편리함에 현혹되기보다 각 기업이 어떤 철학을 가지고 기술을 개발하는지 지켜봐야 할 때입니다.
출처: https://techcrunch.com/2026/03/04/anthropic-ceo-dario-amodei-calls-openais-messaging-around-military-deal-straight-up-lies-report-says/
이어서 보면 좋은 글

#AI윤리 #Anthropic #OpenAI #다리오아모데이 #샘알트만 #군사AI #테크뉴스 #AI기술 #기업윤리 #미국국방부