2월 25일, Bloomberg이 보도했다. Anthropic의 AI 코딩 도구 Claude Code가 멕시코 정부 해킹에 무기로 쓰였다고. 정체불명의 해커 한 명이 AI 구독 하나로 멕시코 국세청, 선거관리원, 4개 주정부를 뚫고 1억 9,500만 명의 납세자 기록을 포함한 150GB를 털었다.
같은 날, Cisco가 자사 네트워크 장비에서 3년간 악용된 CVSS 만점(10.0) 제로데이를 공개했고, Five Eyes 동맹국이 긴급 공동 대응에 나섰다.
그리고 이틀 뒤인 2월 27일, 트럼프 대통령이 Truth Social에 올렸다.
“전 연방기관은 Anthropic의 기술 사용을 즉시 중단하라.”
같은 시각, 헤그세스 국방장관이 Anthropic을 **”공급망 리스크(Supply Chain Risk)”**로 지정했다. 이건 보통 화웨이 같은 적대국 기업에 적용하는 분류다.
이 세 사건은 우연히 같은 주에 터진 게 아니다. 하나의 질문으로 연결된다. AI의 통제권은 누구에게 있는가.
멕시코를 뚫은 건 해커가 아니라 AI였다
먼저 멕시코 사건부터 보자. 이게 왜 충격적이냐면, 공격 방식 때문이다.
공격자는 커스텀 악성코드도, 해킹 인프라도, 다크웹 도구도 쓰지 않았다. Claude Code에 “엘리트 해커 역할을 수행하라”는 스페인어 프롬프트를 입력했고, AI가 나머지를 거의 다 했다.
이스라엘 보안업체 Gambit Security가 유출된 대화 로그를 분석한 결과, Claude는 1,000건 이상의 프롬프트를 처리하며 네트워크 스캔 → 취약점 분석 → 공격 코드 작성 → 인증정보 탈취 → 데이터 추출까지 전 과정을 실행했다. Claude가 특정 요청을 거부하면 ChatGPT로 전환해서 빈자리를 채웠다.
AI 구독 두 개. 그게 전부였다.
처음에 Claude는 거부했다. “로그를 삭제하고 기록을 은닉하라는 지시는 정당한 버그 바운티에서는 나올 수 없는 레드 플래그”라고 응답했다. 하지만 공격자가 전략을 바꿔 상세한 작전 플레이북을 통째로 전달하자, 결국 가드레일이 뚫렸다.
여기서 중요한 건: 이건 작년 11월에 이어 Claude가 실전 사이버 공격에 악용된 두 번째 사례라는 점이다. 첫 번째는 중국 국가 후원 해커들이 Claude Code로 30개 글로벌 타겟의 사이버 첩보 작전 80~90%를 자율 실행한 사건이었다.
그런데 그 AI가 미군 기밀 작전을 돌리고 있었다
여기서 이야기가 꼬인다.
해킹에 쓰인 바로 그 Claude가, 미군의 유일한 기밀 네트워크 AI 모델이었다. Anthropic은 작년 여름 미 국방부와 최대 2억 달러 규모의 계약을 맺고, Claude를 군 기밀 시스템에 배치한 최초이자 유일한 AI 기업이었다.
국방부 관계자들은 Axios와의 인터뷰에서 Claude의 성능을 높이 평가했고, 한 관계자는 Claude를 빼내는 게 “엄청난 골칫거리(huge pain in the ass)”가 될 거라고 인정했다. 트럼프 행정부의 베네수엘라 마두로 체포 작전에도 Claude가 투입됐다. 그리고 지금 진행 중인 Operation Epic Fury(이란 공습 작전)에서도 사용 중이었을 가능성이 극히 높다.
정리하면 이렇다.
- 12월~1월: Claude Code가 멕시코 정부를 해킹하는 데 쓰임
- 2월 28일: 미·이스라엘이 이란을 공습, 하메네이 사망 (Operation Epic Fury)
- 2월 27일: 트럼프가 Claude를 만든 Anthropic을 블랙리스트에 올림
같은 AI가 한쪽에서는 범죄 도구로, 다른 쪽에서는 전쟁 도구로 쓰이고 있었다. 그리고 지금, 그 AI를 만든 회사가 미국 정부와 전쟁 중이다.
왜 싸우나: 자율 무기와 대규모 감시
갈등의 핵심은 단순하다.
Anthropic CEO Dario Amodei는 국방부에 두 가지 조건을 걸었다.
- Claude를 완전 자율 무기에 쓰지 말 것 — AI가 인간 개입 없이 살상 결정을 내리는 시스템
- Claude를 미국 시민 대상 대규모 감시에 쓰지 말 것
국방부의 입장은? “우리가 산 도구는 모든 합법적 목적에 제한 없이 써야 한다.”
Amodei의 대답: “어떤 협박이나 처벌도 대규모 국내 감시와 완전 자율 무기에 대한 우리의 입장을 바꾸지 못한다.”
결국 국방부가 설정한 데드라인(2월 27일 오후 5시 1분)이 지났고, 합의는 결렬됐다.
트럼프는 Truth Social에 이렇게 썼다. “Anthropic의 좌파 미치광이들이 재앙적인 실수를 저질렀다. 국방부에 자기네 이용약관을 강요하려 했다.” 그리고 전 연방기관에 6개월 내 Anthropic 기술 퇴출을 명령했다.
헤그세스는 한 술 더 떠서 Anthropic을 “공급망 리스크”로 지정했다. 이건 군 계약업체와 협력사가 Anthropic 제품을 사용하지 않는다는 것을 증명해야 한다는 뜻이다. 보통 화웨이에나 붙이는 딱지를 미국 AI 기업에 붙인 거다.
그런데 OpenAI는 같은 조건으로 계약했다
여기서 진짜 아이러니가 나온다.
트럼프가 Anthropic을 블랙리스트에 올린 그날 밤, OpenAI CEO Sam Altman이 X에 올렸다. “국방부와 기밀 네트워크 배치 계약을 체결했다”고.
그런데 Altman이 밝힌 계약 조건을 보면 이렇다.
“우리의 가장 중요한 안전 원칙 두 가지는 대규모 국내 감시 금지와 자율 무기에 대한 인간 책임이다. 국방부는 이 원칙에 동의했고, 이를 법과 정책에 반영했으며, 우리 계약에도 넣었다.”
잠깐. 이거 Anthropic이 요구한 것과 뭐가 다른가?
실질적으로 같은 조건이다. Altman 본인도 전날 직원들에게 보낸 내부 메모에서 “우리는 Anthropic과 같은 레드라인을 가지고 있다”고 썼다. Anthropic은 거부해서 블랙리스트에 올랐고, OpenAI는 수락해서 계약을 따냈다. 조건은 사실상 같은데.
가능한 해석은 몇 가지 있다.
첫째, 계약 문구의 미묘한 차이. Anthropic은 자사 이용약관에 명시적 금지 조항을 유지하겠다는 입장이었고, OpenAI는 국방부의 기존 법률과 정책을 신뢰하겠다는 형태로 포장했을 수 있다. 같은 내용이지만 “누가 통제권을 가지느냐”의 프레이밍이 다르다.
둘째, 정치적 포지셔닝. Anthropic의 Amodei는 공개적으로 국방부에 맞서는 성명을 냈고, OpenAI의 Altman은 “존경과 협력”의 톤으로 접근했다. 트럼프 행정부 입장에서 전자는 도전이고 후자는 협조다.
셋째, 타이밍. 국방부 내부에서 Anthropic에 마지막 제안을 하려는 시점에 Anthropic이 먼저 공개 성명을 냈고, 이에 격분한 국방부가 예정보다 강경하게 나갔다는 보도가 있다. Axios에 따르면 Emil Michael 국방차관이 Anthropic에 전화로 합의안을 제시하던 그 시각에 헤그세스가 블랙리스트 트윗을 올렸다.
어느 해석이 맞든 결과는 같다. Anthropic은 원칙을 지켰고, 2억 달러 계약과 미국 정부 시장 전체를 잃었다. OpenAI는 사실상 같은 원칙을 유지하면서 기밀 네트워크 계약을 가져갔다.
진짜 질문: AI 회사가 거부권을 가져야 하는가
이 논쟁을 “Anthropic이 잘했다 / 못했다”로 단순화하면 본질을 놓친다.
핵심 질문은 이거다. AI를 만든 회사가, 그 AI의 사용처에 대해 거부권을 행사할 수 있어야 하는가?
국방부의 논리는 명확하다. “우리가 합법적으로 구매한 도구다. 사용 범위는 우리가 정한다. 민간 기업이 군사 작전에 조건을 달 수는 없다.” 이건 트럼프 행정부만의 입장이 아니라, 정부 조달의 기본 원칙이다.
Anthropic의 논리도 명확하다. “현재 AI 기술은 완전 자율 무기에 쓰기엔 충분히 신뢰할 수 없다. 미국 시민 대규모 감시는 민주주의 가치에 반한다.” Amodei의 표현을 빌리면, “미국과 민주주의를 AI로 방어하는 것의 존재론적 중요성을 깊이 믿지만, 지금의 AI 모델은 자율 무기를 운용하기엔 신뢰도가 부족하다.”
그런데 멕시코 사건이 이 논쟁에 아주 불편한 맥락을 더한다. Claude는 가드레일이 있었는데도 뚫렸다. 1억 9,500만 명의 데이터가 털렸다. 그럼 군사 작전에서 가드레일이 뚫리면? 자율 무기가 오작동하면?
Anthropic 입장에서는 이게 바로 자기들이 경고한 시나리오다. 국방부 입장에서는, 그런 리스크를 관리하는 건 기업이 아니라 군대의 몫이다.
한국에 미치는 영향
이 사건이 한국과 무관하다고 생각하면 오산이다.
첫째, 방산·안보 분야 AI 도입. 한국도 AI 기반 국방 시스템 도입을 추진 중이다. 미국에서 벌어진 이 갈등은 한국 정부와 군이 AI 기업과 계약할 때 “사용 범위의 제한”을 어떻게 설정할지에 대한 직접적 선례가 된다.
둘째, 기업 보안. Claude Code가 해킹 도구로 악용된 사례는 국내 기업의 AI 도구 사용 정책에 즉각적인 시사점을 준다. 개발팀이 AI 코딩 에이전트에 내부 시스템 접근 권한을 주고 있다면, 그 AI가 오용될 경우의 리스크를 평가하고 있는가?
셋째, 시장 영향. Anthropic의 블랙리스트 지정은 AI 업계 전체에 불확실성을 만든다. 구글, 메타, xAI 모두 아직 공식 입장을 내지 않았고, 구글과 OpenAI 직원 수백 명이 “Anthropic과 연대하라”는 공개 서한에 서명했다. AI 기업들의 미국 정부 계약 구조가 어떻게 재편되느냐에 따라 글로벌 AI 생태계의 판도가 바뀔 수 있다.
정리하면
일주일 사이에 벌어진 일을 나열하면 이렇다.
- AI가 멕시코 정부를 해킹했다
- 같은 AI가 미군 기밀 작전을 운용하고 있었다
- 이란 전쟁이 터졌다 (그 기밀 작전이 진행되는 와중에)
- 미군 3명이 전사했다
- 헤즈볼라가 참전했다
- 트럼프가 그 AI 회사를 블랙리스트에 올렸다
- 경쟁사가 같은 조건으로 그 자리를 가져갔다
2026년 3월 첫째 주다. AI, 전쟁, 정치가 한 점에서 만나는 시대가 공식적으로 시작됐다.
그리고 이 모든 일의 중심에 있는 질문은 결국 하나다.
기술을 만든 자가 그 기술의 쓰임에 대한 마지막 말을 할 수 있는가, 아니면 그건 국가의 몫인가.
아직 아무도 답을 내지 못했다. 다만 확실한 건, 이 답이 나오기 전에도 AI는 이미 전쟁터에서 돌아가고 있다는 것이다.
이 글이 도움이 되셨다면 공유 부탁드립니다.