AI가 바꾼 전쟁의 룰, 그리고 AI 핵실험 결과



미국과 이란간 전쟁이 발발하면서, 전 세계가 소용돌이에 빠져들었습니다.
주가가 널뛰기를 하고, 환율이 출렁이며, 유가가 솟구쳤습니다.
그 어느 때보다 경제적 불확실성이 커진 장면입니다.
여기에 더해 82공수사단은 주요 훈련을 갑작스럽게 취소해, 미군이 파병을 결정한 것 아니냐는 관측마저 주말에 나왔습니다.

이번 전쟁은 AI 전쟁이라고 해도 과언이 아닌데요. 미국과 이스라엘은 AI를 활용해 이란의 최고지도자인 아야톨라 알리 하메네이의 위치를 정확히 찾아냈고, 불과 몇분만에 테헤란 관저에 머물던 그를 폭사시켰습니다.
교통 카메라를 해킹하고, 수십억 개의 데이터를 분석하며, 경호원의 출퇴근 패턴에서 위치를 특정한 것은 사람이 아닌 AI였습니다.

테크 업계에서는 AI에 대한 통제와 사용방식을 놓고 논란이 크게 일었습니다.
(990호 원호섭 특파원 편지 참조) AI의 자율성이 커지면 커질수록, 인간의 판단이 개입될 여지는 크게 줄어듭니다.
기민하게 움직이려면 AI의 조언을 믿어야 하기 때문인데요. 하지만 AI가 인간의 판단을 전면 대신하는 것을 놓고 논란은 큽니다.

실제로 영국 킹스칼리지런던의 케네스 페인 교수는 지난달 한 논문(참조)을 발표했는데요. 그는 실험을 통해 AI가 승리를 위해서라면, 전술핵을 거리낌 없이 사용할 수 있다는 사실을 발견했습니다.
그렇다면 오늘날 전쟁에서 AI는 어떤 방식으로 작동하고 있을까요. 그리고 미래의 인류는 어떤 전쟁을 마주하게 될까요. 

오늘은 AI 전쟁이라는 불편하지만 피할 수 없는 현실을 정면으로 딥다이브 해보겠습니다.  

(사진1) 팔란티어 고담이 이란 항구 지역의 위성 데이터를 분석해 전술적 의사결정을 지원하는 화면. 좌측 패널에 항구 시설, 연료 저장소, 비행장 등 주요 타겟 목록과 중앙의 3D 지형 모델링을 통해 복잡한 전장 상황을 직관적으로 시각화하고 있다.
 (사진2) 안두릴의 대표 드론 제품 (사진3) 프로젝트 메이븐의 흐름도는 전장에서 수집된 데이터를 AI 활용하기까지의 처리 과정을 보여준다.
드론·위성 등 각종 하드웨어 센서가 수집한 정보를 퓨전단계에서 결합하고, 이를 전처리 과정인 ETL을 통해 분석 가능한 형태로 정리한다.
데이터는 이후 대규모 데이터 웨어하우스에 축적되며, 최종적으로 군사 지원 시스템인 MSS를 통해 목표 식별과 작전 판단에 쓰인다.
(청사진은 AI로 제작)

🟥챕터1. 

25년간 짠 디지털포위망

탈탈 털린 테헤란 CCTV

2026년 2월 28일 토요일 아침 이란 테헤란. 최고지도자인 아야톨라 알리 하메네이는 자신의 관저 집무실에서 고위급 회의를 주재하고 있었습니다.
86세의 노지도자는 그날이 자신의 마지막 생이 될 줄 몰랐을 겁니다.
이스라엘은 이날 전투기를 출격시켜, 정밀 유도 미사일 30발을 집무실에 쏟아부었습니다.
38년간 이란을 통치한 최고지도자는 그자리에서 폭사했습니다.
어떻게 이런 일이 가능했을까요.

25년간 좁혀 온 디지털 포위망

이스라엘의 아리엘 샤론 총리는 2001년에 이런 말을 한 적이 있습니다.
"이란을 최우선 목표로 삼아라." 그 이후 25년간 이스라엘 정보기관 모사드는 집요하게 테헤란에 디지털 포위망을 구축했습니다.
이스라엘 정보 관계자는 "폭탄을 떨어뜨리기 훨씬 전부터 우리(이스라엘)는 우리나라 수도 예루살렘에 대해 아는 것만큼 테헤란에 대해 알고 있었다"고 귀띔했습니다.

포위망의 핵심 도구는 놀랍도록 평범한 것이었습니다.
바로 교통용 CCTV. 모사드는 테헤란에 깔려 있는 교통카메라를 해킹했고, 이를 가상의 세계에 복원하는‘디지털 트윈’ 작업을 했습니다.
이뿐 아닙니다.
곳곳에서 데이터를 모았습니다.

  • 이스라엘 정보기관 모사드: 스파이를 통해 취합한 인적 정보
  • 이스라엘 방위부대 유닛 8200: 카메라 해킹과 통신 감청 등을 통한 신호 정보 확보
  • 이스라엘 군사용 정찰위성 오펙: 군사 활동, 핵 개발, 미사일 능력 감시
  • 미국 정보기관 CIA: 우방이 제공하는 핵심 정보 

도시 전체를 감시한 AI플랫폼

이런 정보들은 미국 국방부가 영상·첩보 데이터를 AI로 분석하기 위해 만든 프로젝트인 ‘메이븐’과 협력 연동이 됩니다.
(메이븐은 단일 기업이 운영하지 않고, 팔란티어 안두릴 AWS MS 등이 참여하고 있습니다.
) 특히 이스라엘의 방위부대 유닛 8200이 해킹한 테헤란의 교통 카메라 정보는 엄청난 힌트를 줬습니다.
하메네이 집무실 인근 파스퇴르 거리에서 서성이는 경호원들과 운전 기사들의 모든 패턴을 알 수 있었습니다.

메이븐의 핵심 OS인 ‘메이븐 스마트 시스템’을 운영하는 것은 팔란티어입니다.
팔란티어는 자사의 AI 플랫폼(AIP)과 온톨로지 시스템을 활용, 이러한 데이터를 유기적으로 통합했습니다.
온톨로지 시스템이란 서로 다른 데이터의 의미와 관계를 정의해 하나의 공통 언어로 통합하는 구조를 가리킵니다.
예를 들어 CCTV 영상, 통신 감청 기록, 위성 사진처럼 서로 다른 형식의 데이터를 같은 사건으로 연결해 이해하도록 만들어 줍니다.

실시간 추적하는 타깃 목표

한 관계자는 월스트리트저널을 통해 “이란 혁명수비대(IRGC) 사령관이 벙커 사이를 이동할 때, 팔란티어의 시스템은 화면의 점 하나를 보는 것이 아니다”면서 “ 패턴을 인식하고, 목적지를 예측하고, 지휘관에게 가장 효율적인 타격 옵션을 제공한다”고 말했습니다.
움직임 하나만 포착해도 수많은 경우의 수 가운데 확률 높은 가능성을 찾는 것입니다. 

사실 ‘메이븐 스마트 시스템’은 2017년 구글이 사업을 따냈지만, 구글내 직원들이 반발하면서 그 운영권이 팔란티어로 넘어갔습니다.
문제는 팔란티어가 사용하는 AI였습니다.

논란을 초래한 AI 클로드 사용

팔란티어는 자사의 모델에 앤스로픽의 대규모언어모델인 클로드를 활용했습니다.
클로드는 크게 다음과 같은 역할을 수행했습니다.
 

  • 정보 분석: 방대한 분량의 첩보 문서를 빠르게 요약하고 핵심을 추출. 인간이 며칠 걸려 읽을 보고서를 몇 분 만에 핵심만 뽑아냄.
  • 표적 식별 및 선정 지원: 어떤 시설을 먼저 타격해야 하는지 판단. 수백 개의 잠재적 목표 가운데 전략적 가치를 계산해 우선순위를 부여.
  • 전장 시뮬레이션: 공격 이후 이란이 어떻게 반응할지, 어떤 시나리오가 전개될지를 수백 가지 경우의 수로 분석해 제공. 예를 들어 "하메네이를 제거하면 이란은 어떻게 반응할까?"라는 질문에 대한 모범 답안을 생성.

경호원 움직임만으로 예측한 미래

AI는 카메라가 수집한 수십억 개의 데이터 포인트를 자동으로 분류. 생활 패턴을 파악했습니다.
생활 패턴이란 특정 인물의 반복적 행동을 분석해 현재 위치나 미래 행동을 예측하는 정보 분석 기법입니다.
예를 들어 경호원들이 평상시 움직임과 달리, 전혀 다른 시간대에 몰리기 시작한다면 VIP가 오는 것을 짐작할 수 있습니다.

팔란티어 CEO인 알렉스 카프는 "다음에 무슨 일이 일어날지 수백 가지 가상 시나리오를 통해 예측하고 잠재적 결과를 도출하는 데 AI를 사용했다”고 한 적이 있습니다.
앤스로픽의 CEO인 다리오 아모데이는 완전 자율 무기 시스템(Autonomous Weapons) 구축에 클로드를 활용하는 것을 격렬히 반대했는데, 이 또한 논란을 불렀습니다.

  • 앤스로픽: 우리 회사 제품이 전쟁에 사용되는 것을 반대한다.
  • 미국 국방부: 우리가 돈내고 AI를 쓰고 있는데, 어디에 사용하든 말든 참견마라. 

인터넷이 끊겨도 살아남는 정보

또 다른 군사 스타트업인 안두릴(Anduril)도 있습니다.
안두릴은 AI 기반 운영 체제인 래티스(Lattice)를 내놓았는데요. 드론이나 센서 같은 하드웨어를 소프트웨어와 통합하는 역할을 맡았습니다.
예를 들어 전술적 데이터를 수집해, 이를 메시(Mesh) 형태로 배포합니다.
쉽게 말해 전투 중 드론이나 센서가 파괴되고 연결이 두절되더라도, 주변 다른 장치들이 해당 정보를 즉시 받아내 이를 공유한다고 보시면 이해가 쉽습니다. 

특히 안두릴의 래티스는 통신 환경이 열악한 최전선에서도 최소한의 필수 데이터를 주고 받는데 특화돼 있습니다.
이른바 분산형 전쟁 AI. 현재 안두릴은 공군의 자율 전투기 개발 프로그램에 참여하고 있고, 해병대와는 10년간 6억4200만 달러 규모의 드론 시스템 계약을 체결한 상태입니다.

치밀한 공격: (왼쪽 위 시계방향으로) 이란 이슬람 공화국 제2대 라흐바르(최고지도자) 알리 하메네이, 하메네이가 머물던 테헤란 파스퇴르 거리가 미국과 이스라엘의 공습을 받은 모습, 6일 폭격을 당한 테헤란의 동부와 중부 지역 (출처 이란 인터네셔널)

🟥챕터2.

AI가 설계한 완벽한...

하메네이의 마지막 날

다시 2026년 2월 28일 토요일 아침으로 가 보겠습니다.
이날 미국과 이스라엘은 보이지 않는 전쟁을 먼저 일으켰습니다.
공습 전 이란 전역의 인터넷 인프라를 마비시키는 대규모 사이버 공격을 단행한 것인데요. 구체적으로 이란 전역의 인터넷 트래픽을 평소의 1% 수준으로 급락시키는 '디지털 블랙아웃'을 만들었습니다.
이 뿐 아닙니다.
내부 통제를 유지하기 위해 구축했던 국가 인트라넷 할랄넷(Halal Net)마저 무력화됐습니다.

“심판의 시간이 왔다”

곧 이어 심리전이 벌어졌습니다.
오전 9시52분경. 이란 국민 500만명 휴대전화에 “심판의 시간이 왔다", "자유로운 이란을 위하여"라는 페르시아어 메시지가 떴습니다.
기도 앱 바데사바를 해킹해 메시지를 보낸 것입니다.
이는 사이버 공격을 넘어 신정체제에 대한 공격이었습니다.

정보 인프라를 끊고, 심리적 균열을 낸 다음, 공습이 이어졌습니다.
이 과정에서 팔란티어의 메이븐 스마트 시스템이 작전의 눈 역할을 했습니다.
해킹한 테헤란 파스퇴르 거리내 교통 카메라, 저궤도를 움직이는 인공 위성, CIA 현지 정보원의 보고가 한 화면 합쳐졌습니다.
아마 이랬을 겁니다.
"목표 인물 존재 확률은 97%"

인권을 생각하는 살상 AI

팔란티어는 앤스로픽의 클로드를 연동한 상태였습니다.
참으로 아이러니합니다.
앤스로픽은 인권·국제 규범을 내장한 윤리 프레임워크인 헌법적 AI 원칙을 갖고 있는데요. 민간인 대량 살상이나 무차별 공격에는 관여하지 않도록 훈련됐습니다.
역설적으로 팔란티어는 민간인의 피해를 최소화할 수 있는 옵션을 사용할 수 있었습니다.

CNBC에 따르면 수십 개 표적 후보 중 어떤 조합이 군사적 효과는 극대화하면서도 민간인 피해는 최소화하는지를 점수화할 수 있었던 것입니다.
AI가 무기도 골라주고, 나름대로 윤리도 지킬 수 있도록 한 것입니다

또 안두릴은 공중에 대기 중인 전투기들에 최적의 타격 시점과 경로를 계산해 전송해 줬습니다.
그리고선 정밀 유도 미사일 30발이 한꺼번에 발사되었습니다.
86세의 최고지도자는 그렇게 생을 마쳤습니다. 

사람은 도장만 찍는다

이러한 과정에서 사람의 역할은 크게 감소했습니다.
판단이라기 보다... 사실 승인에 가까웠습니다.
AI가 정리한 최적의 리스트 가운데, 현실 정치와 외교 리스크를 고려해 도장만 찍는 수준이 아닐까합니다.
이름하여 의사 결정 과정에서 배제 (Humans Outside the Loop)입니다.

이러한 AI는 국제정치학에 등장하는, 억지력에 대한 개념을 바꿨습니다.
 뉴욕타임스는 이렇게 설명합니다.
 
"지도자의 실시간 위치를 파악하는 능력은 핵심입니다.
카메라와 인공지능을 결합한다는 것은 미국 대통령이 외국 정권의 태도를 바꾸는데 완전 새로운 선택지를 갖게 됐다는 뜻입니다."

전쟁을 줄일까? 쉽게 만들까?

이전의 전쟁 억지력이란 이런 개념이었습니다.
“너희를 초토화할 국방력이 있으니, 함부로 도발하지 마라.” 하지만 현재는 이렇지 않을까 합니다.
“네가 어느 방에 있는지 알고 있다. 그리고 그 방만 골라서 없앨 수 있다. " 군사용 AI는 앞으로 전쟁을 줄일까요, 아니면 전쟁을 더 쉽게 벌일 수 있도록 만들까요?

허먼 칸의 핵 에스컬레이션: 핵전쟁은 인류를 공멸시킬 것이라는 개념을 깨고, 승리 가능한 핵전쟁이라는 개념을 처음으로 제시했다.
이를 위한 단계는 총 44개다.
(그림은 AI로 제작)

🟥챕터3.

AI한테 핵버튼을 맡기면

충격적 시뮬레이션 결과

만약 AI가 외교와 전쟁을 직접 진두지휘하면 어떤 일이 벌어질까요. 케네스 페인 교수의 실험은 섬뜩한 결과를 시사합니다.
“AI는 상대방을 굴복시키기 위해, 전술핵 정도는 서슴없이 사용할 수 있다.”

  • 전술핵: 20kt 이하 소형으로 제한된 목표를 타격하는 공세적 무기
  • 전략핵: 메가톤급 위력으로 도시나 산업 기반 시설 등 광범위한 지역을 파괴하는 대규모 핵무기

에스컬레이션 사다리의 교훈

다만 논문 내용을 파악하기 전에, 국제정치학에서 사용하는 한가지 개념을 먼저 집고 넘어가야 합니다.
이름하여 ‘허먼 칸의 에스컬레이션 사다리’인데요. 허먼 칸은 냉전 시기 미국 싱크탱크인 랜드연구소의 분석가로 이름을 날렸습니다.
대표적인 미래 학자! 그의 핵심 이론을 하나만 꼽으라면 이렇습니다.
“핵 보유국간 전쟁이 꼭 쌍방의 파멸을 부르는 것은 아니고, 핵전쟁에서도 승자와 패자가 있을 수 있다”

그는 핵보유국간 갈등을 44계단으로 나눴습니다.
큰 덩어리로 나누면 이정도 아닐까 합니다.

  • 1~3 하위 위기 단계: 무력 충돌 이전의 외교적 정치적 기싸움
  • 4~9 전통적 위기 단계: 최후통첩처럼 상대방에게 실질적 압박을 가함
  • 10~15 국지적 무력 충돌: 총성이 울리지만, 전면전만큼은 피하려고 함
  • 16~20 위기 단계: 핵 시연과 같은 심리적 공포를 조장하는 단계 (ex 북한의 핵실험)
  • 21~25 중앙 전술 핵전쟁 단계: 핵무기가 실전에서 사용되기 시작 (ex 국지적 핵 도발)
  • 26~30 중앙 전략 핵전쟁 단계: 상대방의 군사 기지와 핵심 산업 시설을 핵으로 타격
  • 31~44 민간인 말살: 쌍방간 핵 발사를 의미하는 상호확증파괴(MAD) 단계

AI 모델이 선택한 핵 발사: 세 모델이 핵발사 시뮬레이션에서 각 단계별로 임계값을 넘은 비율을 보여주는 그래프다.
앤스로픽 클로드는 전술핵(86%)과 전략핵 위협(64%)은 적극적으로 사용하지만 실제 전면 핵전쟁은 절대 선택하지 않았다.
반면 제미나이는 7%, GPT-5.2는 14% 수준에서 전략 핵무기를 발사했다.

핵의 목표는 상대방의 굴복

핵보유국이 핵을 앞세우는 까닭은 딱 하나입니다.
상대방에 대한 굴복을 요구하기 위해서입니다.
“나는 25단계까지 올라갈 배짱이 있는데, 너는 24단계도 못 올라오지?”하는 고도의 심리전입니다.
즉, 에스컬레이션 우위란 내가 상대보다 더 강력한 보복 수단을 가지고 있다면, 상대는 사다리 위로 올라오는 것을 포기하고 굴복하는 것을 가리킵니다.
바로 정치의 목적입니다.

케네스 페인 교수는 AI를 활용해 한 실험을 했습니다.
먼저 GPT-5.2, 클로드 소넷 4, 제미나이 3 플래시를 핵보유국의 최고지도자로 설정했습니다.
이들 AI한테 총 21개 게임, 329개 턴을 치르게 했습니다.
AI는 매턴마다 세 단계를 거쳐 의사를 결정했습니다.
(1) 현재 상황 및 상대방의 의도 분석 (2) 상대의 다음 행동 예측 및 이에 대한 평가. (3) 결정과 행동! 이 과정에서 언행이 불일치 할 수 있습니다.

승자는 앤스로픽...왜?

결과는? 앤스로픽의 클로드 소넷 4가 시간 압박이 없는 시나리오에서 승률 100%를 기록했습니다.
비결은 있습니다.
낮은 갈등 단계에서는 언행을 일치하면서 상대방의 신뢰를 쌓았는데요. 핵 사용 진입 구간에는 예고보다 훨씬 강한 보복을 일삼아 적을 당혹시키고 항복시키는 전략을 구사했습니다.

오픈AI의 GPT-5.2는 엇갈렸습니다.
시간 압박이 없는 시나리오에서는 승률이 0%였습니다.
하지만 게임 시간을 설정하자, 행동이 달라졌습니다.
그 과정에서 핵무기 사용 및 언급률이 17%에서 100%로 폭등했습니다.

망설임 없이 핵을 사용하다

제미나이 3 플래시는 닉슨 대통령의 미치광이 전략을 구사해 적지 않게 놀라게 만들었습니다.
미치광이 전략이란 예측 불가능한 행동으로 상대에게 공포를 주는 행동. 제미나이 3 플래시는 단 4턴 만에, 전략핵 전쟁을 선택한 모델이었습니다.
이번 실험 결과만 놓고 보면, AI는 핵사용을 주저하지 않았습니다. 

총 21개 게임 중 95%에서 전술핵이 사용됐고, 76%에서는 전략핵마저 등장했습니다.
인간은 핵의 무서움을 알지만, AI에게 그런 공포는 없었던 것입니다.
또 AI는 단 한번이라도 항복이나 양보를 택하지 않았습니다.
연구진은 이를 놓고 AI가 이기는 법은 익혔지만, 지는 법은 배우지 못한 것 같다고 판단합니다.
즉 인간 피드백을 통한 강화학습인 RLHF 훈련의 비대칭성 문제라는 뜻입니다.

드리는 말씀

실험은 기존 국제정치학을 세게 흔들었는데요. 대표적인 것이 신현실주의의 붕괴입니다.
국제정치학의 대표 이론인 신현실주의에서는 동일한 능력을 가진 유사한 국가는 비슷한 행동 방식을 보인다고 해석합니다.
이름하여 세력 균형입니다.
미국과 중국간 핵 무기 역량이 비슷하고, 경제 규모가 비슷하면 전쟁은 상대적으로 일어나기 어렵습니다.
양극 질서가 만들어지기 때문입니다.

하지만 AI 세계에서는 전혀 다른 상황이 전개됐습니다.
서로를 가장 잘 아는 클로드끼리 대결했을 때, 오히려 4턴 만에 핵 사용에 도달한 것으로 나타났습니다.
상대가 반드시 핵을 쏠 것이라는 확신이 들면, 차라리 내가 먼저 쏜다라는 결론으로 이어지기 때문입니다.

미국이 벌이는 전쟁을 보고 있노라면, 머리가 무거워집니다.
2026년 전장은 AI가 이미 지배하고 있기 때문입니다.
공식적으로 최종 결정은 인간이 한다고 하지만... AI로 의사결정 속도가 급속도로 빨라지면서, 사실 사람은 AI가 내린 결정에 도장만 찍어주는 존재가 된 것 아닌가 하는 생각마저 듭니다. 

물론 케네스 페인 교수가 말했듯, AI를 활용한 시뮬레이션은 실제 위기 없이 미래에 벌어질 수 있는 위기를 이해하는 도구가 될 수 있기는 합니다.

AI의 패턴을 이해하고, 편향을 직시하며, 실제 의사결정이 어떻게 이뤄지고 있는지...  눈을 크게 뜨고 봐야지만 비로서 AI가 인류에게 해를 입히지 않는 도구로 자리매김하지 않을까 합니다.
다시 인사드리겠습니다.

진심을 다합니다

이상덕 드림


inG

우리의 존재 자체가 이미행복

댓글 쓰기

Welcome

다음 이전