
미국 국방부와 AI 스타트업 앤트로픽과의 전례없는 충돌
2026년 2월 27일, 미국 국방부(현재는 '전쟁부'로 개칭)가 AI 스타트업 앤트로픽(Anthropic)을 '공급망 위험 기업'으로 지정하는 초유의 사태가 발생했어요. 통상 이 명단에는 중국의 화웨이나 이란·러시아 기업처럼 미국의 적대국 기업들이 올라간다고해요. 그런데 이번엔 미국 기업이, 그것도 현재 가장 주목받는 AI 스타트업 중 하나가 이 명단에 올랐습니다. 미국 역사상 자국 기업을 국가 안보 위협으로 규정한 첫 사례가 된거죠.
트럼프 대통령은 한발 더 나아가 모든 연방기관에 현재 '클로드(Claude)'라는 서비스를 제공하고 있는 앤트로픽 사용 중단을 명령했고, 본인의 SNS를 통해 "미국은 급진 좌파 성향에 깨어있는 기업이 우리의 위대한 군대가 전쟁에서 싸우고 승리하는 방식을 좌우하도록 결코 용납하지 않을 것"이라며 강도 높게 비난했어요.
평가액 550조 원에 달하는 AI 업계의 떠오르는 스타가 왜 이런 초강경 조치를 받게 된 걸까요? 그 배경에는 AI 기술이 군사적으로 어디까지 사용되어야 하는지에 대한 근본적인 물음이 자리 잡고 있어요.
갈등의 시작: 안전장치를 제거하라
사건의 발단은 2024년 후반부터 시작되었는데요, 미 국방부는 앤트로픽의 AI '클로드(Claude)'에 설정된 안전 장치, 이른바 '가드레일(Guardrail)'의 제거를 요구해왔어요. 가드레일이란 AI가 특정 위험하거나 비윤리적인 작업을 수행하지 못하도록 막는 기술적·정책적 제한 장치를 말해요. 마치 ChatGPT에 불법적인 요청을 하면 "죄송하지만 그 요청은 수행할 수 없습니다"라고 답하는 것과 같은 원리예요.
국방부는 구체적인 시나리오를 제시하며 설득에 나섰다고해요. "미사일이 날아오는 긴급 상황에서 AI 안전장치가 갑자기 작동해 '지금 그 버튼을 누르면 안 됩니다'라고 막으면 어떻게 하느냐"는 것이었어요. 트럼프 대통령이 핵무기 발사 버튼을 눌렀는데 AI가 이를 차단한다면? 국방부 입장에서는 받아들일 수 없는 상황인거죠.
국방부는 당연히 앤트로픽이 요구를 수용할 것으로 예상했지만 그와는 반대였어요. 엔트로픽은 미국 국방부 및 정보기관과 가장 긴밀하게 협력하는 AI 기업 중 하나로, 2024년 7월에는 2억 달러(약 2,700억 원) 규모의 국방부 계약을 체결한 바 있어요. 미 언론 보도에 따르면 클로드는 베네수엘라의 마두로 대통령 체포 작전에 사용됐고, 2026년 2월 미국과 이스라엘의 이란 공습 작전에서도 핵심 역할을 했다고해요. 클로드가 수만 시간 분량의 드론 영상과 위성 데이터를 단 몇 초 만에 분석해 목표물을 식별했고, 덕분에 작전 시작 12시간 만에 약 900회의 공습이 가능했다고해요.
국방부 현장 직원들의 평가도 매우 긍정적이었어요. "사용하기 쉽고 신뢰성이 높다"는 피드백이 쏟아졌고, 헤그세스 전쟁부 장관도 "대단히 훌륭하다"고 공개적으로 칭찬했죠. 국방부가 앤트로픽에 깊이 의존하고 있었기에, 오히려 국방부가 저렇게까지 강하게 나온 것 아니냐는 분석도 나오고 있구요. 대체 불가능한 기술이기에 더욱 통제권을 확보하고 싶었던 것이죠.
2월 24일, 해그세스 장관과 앤트로픽의 창업자이자 CEO인 다리오 아모데이(Dario Amodei)가 직접 만나 협상을 벌였고. 국방부는 "법적 한도 내에서 자유롭게 사용할 수 있는 권한을 달라"고 요구했고, 최후통첩까지 제시했어요. 2월 27일 오후 5시 1분까지 요구를 수용하지 않으면 국방생산법(Defense Production Act)을 발동하겠다는 것이었죠.
국방부 요원이 앤트로픽 사무실에 들이닥쳐 "가드레일을 치워!"라고 소리쳐도, 앤트로픽 직원들이 협조하지 않으면 방법이 없게되요. 결국 이 위협은 실효성이 없었지만, 미국 정부의 압박 수위가 얼마나 높았는지를 보여주는 대목이죠.
"우리는 양심상 응할 수 없습니다"
마감 하루 전인 2월 26일, 앤트로픽 CEO(최고경영자) 다리오 아모데이는 자사 웹사이트를 통해 역사적인 성명을 발표했어요. 처음에는 "국방부의 논의에 관한 성명"이라는 제목에 '좋은 합의를 했다'는 내용일 거라 예상했지만, 내용은 정반대였어요.
다리오 아모데이의 성명의 핵심 내용은 이렇습니다. "저는 미국과 다른 민주주의 국가들을 방어하고 독재적인 적들을 물리치기 위해 인공지능을 사용하는 것이 매우 중요하다고 굳게 믿습니다. 그렇기 때문에 엔트로픽은 지금까지 미국 국방부와 정보기관에 자사 AI 모델을 적극적으로 배포해 왔습니다."
앤트로픽은 중국 연계 기업을 차단하며 수억 달러 손실을 감수할 만큼 국가 안보를 최우선으로 실천해온 기업이에요.
군사적 결정은 국방부의 권한임을 인정하면서도, AI가 민주주의 가치를 훼손하는 방식으로 사용되는 것만큼은 절대 허용할 수 없다고 선을 그었죠.
첫 번째 레드라인은 대규모 국내 감시로, AI가 개인정보를 자동 종합해 정부 반대자를 협박하는 도구가 되는 건 조지 오웰의 '빅 브라더'가 현실이 되는 것이라고 경고했어요.
두 번째 레드라인은 완전 자율 무기로, 현재 AI 기술은 인간의 판단 없이 생사를 결정할 만큼 충분히 신뢰할 수 없기 때문에 오히려 미국인을 위험에 빠뜨리는 일이라고 못 박았죠.
"시스템에서 추방될 위험을 알면서도 입장을 바꾸지 않겠다"며, 계약 손실과 정치적 보복을 감수하고 양심의 문제로 거부를 선언한 역사적 성명이었어요.
트럼프 행정부의 반격과 앤트로픽의 재대응
"앤트로픽은 국방부의 어떠한 협박이나 처벌에도 대규모 국내 감시 또는 완전 자율 무기에 대한 우리의 입장을 바꾸지 않을 것입니다."
아모데이의 거부 성명 직후, 헤그세스 미 국방부 장관은 앤트로픽을 즉각 공급망 위험 기업으로 지정하며 "위선적이고 오만하다"고 맹비난했어요.
트럼프 대통령도 Truth Social로 직접 가세해 "좌파 광신도들이 치명적인 실수를 저질렀다, 다시는 거래하지 않겠다"며 전면 퇴출을 선언했죠.
헤그세스는 한발 더 나아가 국방부와 거래하는 모든 계약업체와 파트너까지 앤트로픽과의 상업 활동을 전면 금지하는 초강수를 뒀어요.
같은 날 오후 앤트로픽은 두 번째 성명으로 맞받아치며 "어떠한 협박에도 입장을 바꾸지 않겠다"고 재확인하고 공급망 위험 지정에 대한 법적 소송까지 예고했죠.
특히 민간 기업 간 거래 금지 발언에 대해 "그럴 법적 권한이 없다"고 정면 반박하며, 이번 사태가 단순 계약 분쟁이 아닌 국가 권력 대 민간 기업의 권리 싸움임을 분명히 했어요.
왜 앤트로픽은 이런 선택을 했을까?
앤트로픽의 설립 배경을 보면 이번 결정이 갑작스러운 것은 아니예요. 2021년 앤트로픽을 창업한 7명의 공동창업자는 모두 오픈AI 출신이죠. 원래 오픈AI는 "안전한 AI"를 목표로 한 비영리 법인이였어요. 일론 머스크도 "비영리니까"라며 출자했을 정도이구요.
하지만 오픈AI는 2019년 이후 영리 법인으로 전환하며 급속한 상업화의 길을 걸었어요. 안전성보다 속도를 우선시하는 방향 전환에 반발한 핵심 연구진이 집단으로 오픈AI를 떠나 만든 회사가 바로 앤트로픽이예요. 회사 이름부터 정보이론의 '엔트로피(무질서도)'에서 따온 것으로, AI의 예측 불가능성과 안전성에 대한 철학적 고민을 담고 있어요.
아모데이는 전통적인 민주당 지지자로, 2024년 대선에서 카멀라 해리스를 공개 지지했고 트럼프에 대한 반감을 숨기지 않았어요. 하지만 그는 "정치적 성향과 기업 경영 결정은 별개"라고 여러 차례 강조해왔어요. 이번 결정도 단순한 정치적 반감이 아니라, 창업 때부터 견지해온 'AI 안전(AI Safety)' 철학의 연장선이라는 것이 업계의 평가죠.
앤트로픽과 다른 선택을 한 OpenAI의 줄타기와 부분적 타협
앤트로픽의 "대규모 국내 감시"와 "완전 자율 살상무기"에는 절대 사용할 수 없다며 단호히 거부한 반면 오픈AI의 샘 올트먼은 "법적 한도 내에서 모든 군사적 활용을 수용"한다는 조건으로 국방부와 전격 계약을 체결했어요. 하지만 사용자들이 분노하며 ChatGPT 앱 삭제율이 하루 만에 295% 급증하자, 오픈AI는 서둘러 "국내 감시 금지" 조항을 추가하는 재협상에 나섰죠. 그러나 계약서에 여전히 "모든 합법적 사용"이라는 애매한 표현이 남아 실효성에 의문이 제기됐어요.
한편 앤트로픽의 Claude 앱은 ChatGPT를 제치고 미국 앱스토어 1위로 올라섰고, 오픈AI와 구글 직원 900여 명은 "우리는 분열되지 않는다"는 성명을 발표하며 앤트로픽에 연대를 표명했어요. 결국 '빠른 타협'을 선택한 오픈AI와 '양심을 지킨' 앤트로픽 사이에서, 시장은 후자에 표를 던진 셈이죠.
타임라인 요약

| 날짜 | 주체 | 핵심 사건 |
|---|---|---|
| 02.15 | 🔵 펜타곤 | AI 안전 제한 제거 최후통첩 |
| 02.26 | 🟡 앤트로픽 | 아모데이 1차 성명 — 공개 거부 |
| 02.27 오전 | 🔴 헤그세스 | 공급망 위험 기업 지정 + 거래 전면 금지 |
| 02.27 오후 | 🔴 트럼프 | Truth Social 퇴출 선언 |
| 02.27 오후 | 🟢 앤트로픽 | 2차 성명 — 법적 소송 예고 |
| 03.01 | ⚡ 아이러니 | 이란 공습에 Claude 실제 사용 폭로 |
| 03.02~ | 📈 반전 | Claude 앱 다운로드 1위 급등 |
우리가 답해야 할 질문들
론 와이든(Ron Wyden) 오리건주 상원의원은 2021년부터 '수정헌법 제4조는 판매용이 아니다(Fourth Amendment Is Not For Sale Act)'라는 법안을 추진해왔지만 아직 통과되지 못했죠. 그는 성명에서 "상업용 데이터를 기반으로 미국인의 AI 프로필을 만드는 것은 오싹한 대규모 감시의 확장이며 허용되어서는 안 된다"고 밝혔어요.
블룸버그는 이 사건을 이렇게 평가했어요. "이것은 단순한 계약 분쟁이 아닙니다.AI 전쟁의 경기선에 있는 사건입니다.이 사건이 우리에게 던지는 질문은 이것입니다. AI가 전쟁에서 어디까지 쓰일 수 있는지, 그것을 어디까지 열어줘야 할지, 그것을 특정 기관이나 조직에게 열어줘야 할지."
조지워싱턴 대학교 로스쿨의 제시카 틸립먼(Jessica Tillipman) 교수는 오픈AI의 개정 계약에 대해 회의적인 입장에 있어요. "오픈AI가 계약서에 뭐라고 쓰든, 국방부는 자신들이 합법이라고 생각하는 용도로 기술을 사용할 것입니다. 기업이 국방부가 뭔가를 하지 못하도록 막기는 대부분 불가능합니다."
결국 이번 사태는 우리 모두에게 근본적인 질문을 던지게해요:
- AI 전쟁에서 도덕적 책임은 누구에게 있는가? 개발사? 국가? 알고리즘?
- 기술 기업은 정부 요구를 어디까지 거부할 수 있는가?
- "군대가 옳은 일을 할 거라 믿어야 한다" vs "완벽한 안전장치가 필요하다" - 어느 쪽이 맞는가?
- 이런 중대한 결정을 정부와 소수 AI 기업 간 밀실 협상으로 결정하는 게 민주주의적인가?
역설적 결말
미 국방부가 앤트로픽을 '사용 금지' 처분한 바로 다음날인 2월 28일, 미국과 이스라엘의 이란 공습 작전에 클로드가 사용됐어요. 국방부 시스템에 이미 깊숙이 통합되어 있던 클로드를 완전히 제거하는 것이 불가능했던 거죠. 엄밀히 말하면 앤트로픽과의 계약 조건을 위반한 것이지만, 전시 상황에서 그런 것을 따질 여유는 없었어요.
2026년 2월의 대이란 공습은 AI가 '디지털 지휘관' 역할을 한 최초의 전쟁으로 역사에 기록될 거예요. 클로드는 수만 시간 분량의 드론 영상과 위성 데이터를 몇 초 만에 분석해 목표물을 식별했고, 덕분에 12시간 만에 900회의 공습이 가능했죠. AI는 이미 전쟁의 필수 도구가 되었고, 이제 문제는 "AI를 전쟁에 사용할 것인가"가 아니라 "어디까지 허용할 것인가"예요.
그 경계선을 누가 그을 것인가 - 정부인가, 기업인가, 시민인가 - 하는 것이 우리 시대의 가장 중요한 질문이 됐어요. 다리오 아모데이와 앤트로픽 팀은 "자신들이 역사의 올바른 편에 서 있다"고 믿으며 지금 여기서 물러나면 안 된다고 말하죠. 과연 역사는 그들의 선택을 어떻게 평가할까요? 우리는 이 질문에 답해야 하는 첫 세대예요.




의견을 남겨주세요