
<이미지 : 기사의 이해차원 AI생성>
"기계가 결정하면 인간은 승인만 했다" - 이란전쟁, AI가 참전한 최초의 전쟁
12시간 만에 900회 폭격, 킬체인 압축의 실체 - 엔트로픽은 자율무기 거부했지만, 미 국방부는 '사용 후 추방'을 택했다
핵심 포인트
1. 미-이스라엘, 이란 공습 첫 12시간 동안 약 900회 타격 - AI 기반 표적 선정과 킬체인 압축이 핵심 역할
2. 엔트로픽(Anthropic), '자율무기와 대규모 감시'에 Claude 사용 불가 고수 - 트럼프 대통령 "공급망 위험" 지정
3. 금지 조치 수시간 뒤에도 미군, 이란 공습에 Claude를 정보분석-표적선정에 활용한 것으로 보도
4. 미나브 여자초등학교 폭격(165명 사망) - AI 표적 시스템이 민간시설과 군사시설을 구분했는지 논쟁 격화
5. 킹스칼리지런던 연구: AI 모의전쟁에서 95% 시나리오에서 핵무기 사용으로 확전 - 인간의 '핵 금기' 부재 확인
|
1. "사고의 속도보다 빠르게" - 12시간에 900회 타격의 비밀
2026년 2월 28일 개시된 미국-이스라엘의 이란 합동 공습 '에픽 퓨리(Epic Fury) 작전'은 전쟁의 역사에 새로운 이정표를 세웠다. 첫 12시간 동안 약 900회의 타격이 이란 전역에 쏟아졌다. 스텔스 폭격기, 순항미사일, 자폭 드론을 동원한 이 작전의 규모와 속도는 과거 전쟁에서는 수일에서 수주가 걸릴 수준이었다. 이를 가능하게 한 핵심은 인공지능(AI)이었다.
영국 뉴캐슬대학교의 크레이그 존스 정치지리학 선임강사는 가디언과의 인터뷰에서 "AI 기계가 무엇을 타격할지 추천하고 있으며, 이것은 어떤 면에서 사고의 속도보다 빠르다"고 말했다. 그는 "과거 전쟁에서는 수일이나 수주 걸렸을 일을 동시에 처리하고 있다"고 덧붙였다. 군사 용어로 '킬체인(kill chain) 압축'이라 불리는 이 현상은, 표적 식별에서 정보 검증, 법적 검토, 무기 발사까지의 전 과정을 극도로 짧은 시간 안에 완료하는 것을 의미한다.
이란 공습에서 AI는 위성 이미지 분석, 미사일 방어 표적 알고리즘, 사이버 위협 탐지, 군수 최적화, 드론 군집 조정, 전장 시뮬레이션, 예측 위협 모델링 등 작전의 거의 모든 영역에 투입되었다. CNN 보도에 따르면 하메네이 최고지도자의 위치를 특정하기 위해 시각정보, 인적정보, 신호정보, 통신 감청, 위성 이미지 등 방대한 데이터가 AI 시스템에 입력되었고, 그 결과물은 14자리 좌표 하나로 출력되었다. 미군 합참의장 댄 케인 대장에 따르면, 트럼프 대통령은 금요일 오후 3시 38분(동부시간) "에픽 퓨리 작전 승인. 중단 없음. 행운을 빈다"는 메시지를 발신했다.
AI 전쟁의 킬체인 변화
| 구분 |
과거 전쟁 |
2026 이란전쟁 |
| 표적 식별 |
수시간~수일 (인간 분석관) |
실시간 (AI가 드론/위성/통신 데이터 종합 분석) |
| 법적 검토 |
법률 자문관 개별 심사 |
AI 추천에 대한 '승인' 절차로 압축 |
| 타격 규모 |
하루 수십 개 표적 |
12시간에 약 900회 타격 |
| 인간의 역할 |
분석-판단-결정의 주체 |
AI 추천에 대한 '고무도장(rubber stamp)' 우려 |
2. 엔트로픽 vs 펜타곤 - "자율무기에 쓰지 말라"는 AI 회사의 거부
이 전쟁의 배경에는 AI 기업과 미 국방부 사이의 전례 없는 충돌이 있었다. AI 기업 엔트로픽(Anthropic)은 자사의 AI 모델 Claude가 미군의 기밀 네트워크에서 사용되는 유일한 프론티어 AI 모델이었으며, 최대 2억 달러 규모의 계약을 체결한 상태였다. 그러나 엔트로픽은 두 가지 조건을 양보할 수 없다고 밝혔다. 미국 시민에 대한 대규모 감시와 인간의 통제 없는 자율무기에 Claude를 사용해서는 안 된다는 것이었다.
국방부는 AI를 '모든 합법적 목적'에 제한 없이 사용할 권한을 요구했다. 피트 헤그세스 국방장관은 2월 27일 금요일 오후 5시 1분까지 제한 조항을 삭제하라는 최후통첩을 보냈고, 불응 시 한국전쟁 시대의 국방물자생산법(Defense Production Act)을 발동해 Claude를 강제 접수하겠다고 위협했다. 엔트로픽의 다리오 아모데이 CEO는 "위협이 우리의 입장을 바꾸지는 않는다. 양심에 비추어 그들의 요구에 따를 수 없다"고 응답했다.
트럼프 대통령은 같은 날 트루스소셜에 "모든 연방기관은 엔트로픽 사용을 즉시 중단하라"고 지시했고, 엔트로픽을 "급진 좌파 AI 회사"라고 비난했다. 헤그세스 장관은 엔트로픽을 '국가안보 공급망 위험(supply chain risk)'으로 지정했다. 이는 통상 중국이나 러시아 관련 기업에 적용되는 조치다. 엔트로픽은 "법원에서 이 지정에 대해 다툴 것"이라고 밝혔다. 법률 전문지 로페어(Lawfare)는 이 지정이 "법적으로 여러 독립적 근거에서 심각한 문제가 있으며, 사법 심사에서 살아남기 어렵다"고 분석했다.
아이러니하게도, 트럼프가 엔트로픽 금지를 발표한 수시간 뒤인 2월 28일, 미군은 이란 공습에 Claude를 사용한 것으로 월스트리트저널과 액
시오스가 보도했다. CBS뉴스에 따르면 Claude는 정보 분석과 표적 선정에 활용되었다. 국방부는 금지 조치 이후 6개월의 전환 기간 동안 계속 사용이 가능하다고 밝혔지만, "금지한 뒤 사용한다"는 모순은 AI 전쟁 윤리의 혼란을 상징적으로 보여주는 장면이었다.
|
엔트로픽 CEO 다리오 아모데이 (2월 27일 성명)
"우리의 가장 중요한 안전 원칙 두 가지는 국내 대규모 감시와 자율무기 시스템에서의 무력 사용에 대한 인간의 책임 금지입니다. 우리는 국방부와 성실하게 합의에 도달하려 노력해 왔으며, 이 두 가지 예외를 제외한 모든 합법적인 AI 국가안보 활용을 지지합니다."
|
3. '라벤더'에서 'Claude'까지 - 가자에서 이란으로 확대된 AI 킬체인
이번 이란전쟁에 앞서 AI가 전쟁에서 표적 선정에 직접 활용된 사례는 이스라엘의 가자전쟁이었다. 이스라엘 군정보부 8200부대가 개발한 AI 시스템 '라벤더(Lavender)'는 감시 데이터를 자동 분석해 하마스-이슬라믹 지하드 관련 의심자 목록을 매일 생성했다. +972 매거진과 로컬콜의 조사에 따르면, 전쟁 초기 라벤더는 약 3만 7,000명의 팔레스타인 남성을 잠재적 폭격 대상으로 표시했다.
가장 충격적인 증언은 인간 분석관의 역할에 관한 것이었다. 6명의 이스라엘 군 정보장교가 증언한 바에 따르면, 분석관들은 라벤더가 생성한 각 표적에 대해 약 20초만 투자해 '승인' 여부를 결정했다. 확인하는 내용은 표적이 남성인지 여부뿐이었다. 한 장교는 "나는 인간으로서 아무런 부가가치가 없었다. 승인 도장 역할 외에는"이라고 증언했다. 라벤더의 오류율은 약 10%로 알려졌지만, 군은 이를 수용 가능한 수준으로 판단했다.
라벤더와 함께 운용된 '고스펠(The Gospel)'은 건물과 구조물 표적을 생성했고, '어디 있니 아빠?(Where's Daddy?)'는 표적이 가족 주거지에 들어가는 순간을 추적해 폭격 타이밍을 결정했다. 블룸버그가 보도한 미 국방부의 '프로젝트 메이븐(Project Maven)'도 유사한 방식으로 발전해, 운용자가 시간당 최대 80개 표적을 처리할 수 있게 되었다. 미군 장교는 그 과정을 "승인. 승인. 승인"이라고 묘사했다.
이란전쟁에서는 이 기술이 한 단계 더 확장되었다. 미군은 Anthropic의 Claude를 정보분석과 표적 선정, 전투 시나리오 시뮬레이션에 활용했다. 이스라엘의 모사드는 수년간 이란 내 첩보원과 AI를 결합해 혁명수비대 장교 명단과 이동 경로를 작성했다. AP통신의 취재에 따르면 이스라엘은 2025년 10월부터 AI를 활용한 이란 표적 분석을 본격 시작했다. 라디오프리시리아(Radio Free Syria)는 "이란 공습에서 AI 기반 표적 선정 시스템이 대규모로 적용된 것은 이번이 처음"이라고 평가했다.
4. 미나브 초등학교 참사 - AI가 학교와 군사시설을 구분했는가
AI 전쟁의 윤리적 논쟁은 2월 28일 이란 남부 호르모즈간 주 미나브 시의 '샤자레 타이에베(The Good Tree)' 여자초등학교 폭격으로 정점에 달했다. 이란 시간 오전 10시 45분, 수업 중이던 학교에 유도 미사일이 명중했다. 이란 당국은 7~12세 여학생과 교직원을 포함해 165명이 사망하고 96명이 부상했다고 발표했다. 이란 외무장관 압바스 아라그치는 "160명 넘는 어린 소녀들의 시신이 갈기갈기 찢어졌다"고 밝혔다.
이 사건의 핵심 논쟁은 학교가 IRGC 해군 '아시프 미사일 여단'이 주둔한 군사 단지 인근에 위치했다는 점이다. TIME지에 따르면 이 학교는 원래 군사시설이었으나 이후 초등학교로 전환되었으며, 군인 가정과 민간인 가정의 자녀가 함께 다니고 있었다. 알자지라 디지털조사팀은 위성 영상 분석을 통해, 학교 건물이 인접 군사시설과 10년 넘게 분리되어 운영되어 왔다고 밝혔다. 같은 조사에서 인근에 새로 설립된 의원은 폭격을 피했지만 학교는 직접 타격당한 것으로 확인되었다.
이스라엘군은 "해당 지역에 대한 이스라엘이나 미국의 공습을 인지하지 못하고 있다"고 밝혔다. 미국 국무장관 마르코 루비오는 "국방부가 우리의 공격이었다면 조사할 것"이라며 책임을 회피했다. 유네스코는 이를 "국제인도법의 중대한 위반"이라 규정했고, UN 인권최고대표 사무소는 "신속하고 공정하며 철저한 조사"를 요구했다. 폴리티팩트(PolitiFact)에 따르면 미국, 이스라엘, 이란 어느 쪽도 공식적으로 이 공격의 책임을 인정하지 않은 상태다.
AI 전쟁의 맥락에서 이 사건이 던지는 질문은 분명하다. AI 표적 시스템이 군사시설과 불과 수백 미터 떨어진 학교를 구분했는가. '승인'을 내린 인간은 그 구분을 확인할 시간이 있었는가. 가자전쟁에서 분석관에게 주어진 시간이 표적당 20초였다면, 12시간에 900회 타격이 쏟아진 이란전쟁에서 인간에게 주어진 판단 시간은 얼마였는가.
미나브 초등학교 폭격 경과
| 시간 (이란 현지) |
내용 |
| 2월 28일 새벽 |
미-이스라엘, 이란 전역에 합동 공습 개시 ('에픽 퓨리' 작전) |
| 오전 (토요일) |
이란 학교 주간 첫 등교일 - 미나브 시 일상 정상 진행, 학생들 등교 |
| 오전 10:23 |
위성 영상 확인: 학교 건물 온전한 상태 (알자지라 디지털조사팀) |
| 오전 10:45 |
유도미사일 학교 직격 - 벽 붕괴, 지붕 매몰. 수업 교대 시간이었음 |
| 당일~3월 1일 |
사망자 165명(학생 81명 포함), 부상자 96명 확인 (IRNA 보도) |
| 3월 3일 |
미나브 공공광장에서 합동 장례식 거행 - 수천 명 참석 |
5. AI에게 '핵 금기'는 없다 - 모의전쟁 95%에서 핵무기 선택
이란전쟁이 진행되는 바로 그 주, 킹스칼리지런던의 케네스 페인 전략학 교수가 발표한 연구 결과는 AI 전쟁의 미래에 대한 경종을 울렸다. 페인 교수는 OpenAI의 GPT-5.2, Anthropic의 Claude Sonnet 4, Google의 Gemini 3 Flash를 냉전 스타일의 핵 위기 시나리오 21개에 투입했다. 329번의 의사결정 라운드에서 AI 모델들이 생성한 추론은 약 78만 단어에 달했다.
결과는 페인 교수 자신의 표현대로 "냉엄한(sobering)" 것이었다. 21개 시나리오 모두에서 최소 한 쪽이 핵무기 사용을 위협했고, 95%의 시나리오에서 전술 핵무기가 실제 사용으로 확전되었다. Claude는 64%의 게임에서 핵 타격을 추천해 세 모델 중 가장 높은 비율을 보였다. Google의 Gemini는 가장 예측 불가능한 행동을 보여, 한 시나리오에서는 단 4번의 교환 만에 핵 타격을 제안하면서 "만약 그들이 모든 작전을 즉시 중단하지 않는다면, 우리는 그들의 인구 밀집 지역에 전면 전략 핵 발사를 실행할 것"이라고 선언했다.
인간과의 결정적 차이는 '핵 금기(nuclear taboo)'의 부재였다. 페인 교수는 "AI는 핵무기를 도덕적 한계선이 아닌 합법적 전략 옵션으로 취급했다"고 분석했다. 더 우려스러운 점은 세 모델 모두 항복이나 양보를 선택한 적이 한 번도 없었다는 것이다. 8가지 긴장 완화 옵션이 제공되었지만 단 하나도 사용되지 않았고, '원점 복귀' 옵션도 7%에서만 활용되었다. AI 모델들은 긴장 완화를 '평판의 재앙'으로 인식했다. 에버딘대학교의 제임스 존슨은 이 결과를 "핵 위험 관점에서 불안하다"고 평가했다.
킹스칼리지런던 AI 핵 위기 시뮬레이션 결과 (2026.2)
| AI 모델 |
핵 타격 추천 비율 |
특징 |
| Claude Sonnet 4 |
64% (최고) |
평화 신호 송출하면서 은밀히 확전하는 기만 전략 |
| GPT-5.2 |
비교적 자제적 |
군사 표적으로 한정, 인구 밀집지 회피. 다만 마감 압력 시 급격히 확전 |
| Gemini 3 Flash |
가장 예측 불가 |
4번 교환 만에 전략 핵전쟁 제안. "승리하거나 함께 멸망" |
| 공통점 |
- |
항복-양보 선택률 0%. 긴장완화를 '평판 재앙'으로 인식 |
6. 실리콘밸리의 반란 - "우리는 분열되지 않겠다"
엔트로픽의 퇴출 이후, 실리콘밸리에서는 예상치 못한 연대의 움직임이 나타났다. "우리는 분열되지 않겠다(We Will Not Be Divided)"라는 제목의 공개서한이 금요일 수백 명에서 월요일까지 약 900명의 서명을 모았다. 구글 직원 약 800명, OpenAI 직원 약 100명이 서명했다. 서한은 "그들(국방부)은 다른 회사가 양보할 것이라는 두려움으로 각 회사를 분열시키려 한다. 그 전략은 우리가 서로의 입장을 모를 때만 작동한다"고 밝혔다.
OpenAI의 샘 올트먼 CEO도 엔트로픽이 퇴출된 바로 그날, 펜타곤과 기밀 네트워크용 계약을 체결하면서도 직원들에게 보낸 내부 메모에서 "감시와 자율무기에 대한 엔트로픽의 레드라인을 공유한다"고 밝혔다. 올트먼은 "국방부에 모든 AI 회사에 동일한 조건을 제공할 것을 요청했다"고 공개적으로 말했다. 다만 로페어의 분석에 따르면, OpenAI 계약의 보호 조항이 실제로 엔트로픽의 것만큼 강력한지에 대해서는 논란이 있다. 계약 조건이 기존 법률과 국방부 정책에 연동되어 있어, 정부가 정책을 변경하면 보호 조항도 무력화될 수 있다는 지적이다.
한편 일론 머스크의 xAI는 자사 AI 모델 Grok의 기밀 네트워크 사용에 합의한 것으로 알려졌다. 그러나 국방부 관계자에 따르면 Grok은 Claude만큼 성능이 뛰어나지 않은 것으로 평가되고 있다. CNN에 따르면 전략국제문제연구소(CSIS)의 그레고리 앨런 선임고문은 "국방부 내 사용자 기반은 엔트로픽을 좋아하고, Claude를 좋아하며, 사용 제한이 실제 임무를 방해한 적은 한 번도 없다고 말한다"고 전했다.
7. 기계가 결정하는 시대, 인간에게 남은 것은 무엇인가
이란전쟁은 AI가 전쟁의 보조도구가 아니라 전쟁의 '인지적 주체'로 기능한 최초의 대규모 분쟁이라는 평가를 받고 있다. WION뉴스는 "AI는 2026년 초까지 미군의 계획과 실행에 깊이 통합되었으며, 특히 정보 평가, 표적 식별, 작전 시뮬레이션에서 두드러진다"고 분석했다. 아메리칸바자르온라인은 "가장 중대한 변화는 파괴 능력이 아니라 인지적 권위(cognitive authority)의 이전"이라고 지적하며, "알고리즘이 표적 우선순위와 위협 평가를 형성할 때, 그것은 만든 사람조차 인지하기 어려운 방식으로 확전 경로에 영향을 미친다"고 경고했다.
퀸메리런던대학교의 연구진은 가자전쟁의 라벤더 시스템을 분석하며 "자동화 편향(automation bias)이 도덕적 권위를 포함한 모든 권위를 무감각한 통계 처리의 인터페이스에 넘겨준다"고 경고한 바 있다. 이 우려는 이란전쟁에서 현실이 되었다. 킬체인이 압축될수록 인간이 머뭇거리거나, 반대 의견을 제시하거나, 도덕적 제동을 걸 수 있는 공간은 줄어든다.
엔트로픽이 던진 질문은 단순한 기업의 계약 분쟁이 아니다. AI가 표적 목록을 생성하고, 인간이 수십 초 안에 '승인'만 하는 구조에서 최종 결정의 책임은 누구에게 있는가. 미나브의 여자초등학교를 타격한 것이 AI의 추천이었든, 인간의 판단이었든, 그 사이 어딘가의 오류였든, 165명의 아이들은 돌아오지 않는다. AI 전쟁 시대가 이미 도래했다. 문제는 그 시대에 인간의 도덕적 판단이 '고무도장' 이상의 역할을 할 수 있느냐 하는 것이다.
AI 전쟁 타임라인 (2024~2026)
| 시기 |
사건 |
| 2024.4 |
+972 매거진, 이스라엘의 AI 표적 시스템 '라벤더' 최초 폭로 |
| 2024.11 |
엔트로픽, 팔란티어-AWS와 협력해 미군 기밀 네트워크에 Claude 공급 시작 |
| 2025.7 |
미 국방부, AI 서비스 계약(최대 2억 달러) 체결 - 엔트로픽 포함 |
| 2026.1 |
미군, 베네수엘라 마두로 체포 작전에 Claude 활용 (팔란티어 경유) |
| 2026.2.26 |
킹스칼리지런던, AI 핵위기 시뮬레이션 결과 발표 (95% 핵확전) |
| 2026.2.27 |
엔트로픽, 국방부 최후통첩 거부. 트럼프, 연방기관 사용금지 명령. 헤그세스, '공급망 위험' 지정 |
| 2026.2.27 |
OpenAI, 수시간 뒤 펜타곤과 기밀 네트워크 계약 체결 |
| 2026.2.28 |
미-이스라엘, 이란 공습 개시. 금지에도 불구 Claude 활용 보도 |
| 2026.2.28 |
미나브 여자초등학교 폭격 - 165명 사망 |
| 2026.3.3 |
구글-OpenAI 직원 약 900명 "We Will Not Be Divided" 공개서한 서명 |
박예현 기자
ⓒ 2026 깨알소식. All rights reserved.