안보현안

최신안보이슈

2026년 미국 국가안보센터(CNAS) 보고서(AI 전쟁 규칙 설정) 분석 및 시사점

2026.05.03 Views 23 관리자

2026 미국 CNAS 보고서 분석 및 시사점: AI 전쟁의 규칙 설정과 국가 안보 패러다임의 전환


1. 인공지능에 의한 전쟁의 지능화와 인지적 차원의 변모

현대 전장은 단순한 물리적 파괴력의 충돌을 넘어 정보의 처리 속도와 결정의 정확성이 승패를 가르는 인지적 경쟁의 장으로 진입하고 있다. 2026년 미국 국가안보센터(CNAS)가 발표한 "AI 전쟁을 위한 규칙 설정(Setting the Rules for AI Warfare)" 보고서는 인공지능이 전쟁의 성격을 근본적으로 변화시키고 있음을 지적하며, 이를 '전쟁의 지능화(intelligentization)'라는 개념으로 정의한다. 과거 산업혁명이 전장에 투입되는 파괴력의 물리적 규모를 비약적으로 증대시켰다면, 인공지능 혁명은 전쟁의 인지적 차원에서 이와 유사하거나 그 이상의 변혁을 초래하고 있다. 인공지능은 군사 조직이 방대한 양의 데이터를 인간의 한계를 초월하는 속도로 처리하고 분석할 수 있게 함으로써, 전장의 속도와 규모를 완전히 새로운 차원으로 이동시키고 있다.

이러한 변화의 중심에는 자율성이 자리 잡고 있다. 자율 시스템의 발전은 대규모 드론 스웜(drone swarms)의 운용을 가능하게 하며, 이는 방어자에게 인간의 반응 속도로는 감당할 수 없는 지속적이고 가변적인 위협을 제시한다. 적대국이 이러한 자율 무기 체계를 도입함에 따라, 이에 대응하는 측 역시 더 높은 수준의 자율성을 채택할 수밖에 없는 '자율성 경쟁'의 고착화가 발생한다. 그러나 인간이 정보 분석부터 목표 선정, 타격 결정에 이르는 과업을 점진적으로 기계에 양도함에 따라, 시스템이 수행하는 모든 활동을 실시간으로 감독하는 것은 사실상 불가능해진다. 이 지점에서 군사적 신뢰의 위기가 발생한다. 지휘관들은 AI 시스템의 판단을 신뢰해야만 하는 상황에 직면하지만, 대규모 언어 모델(LLM)과 에이전틱 AI 시스템은 환각(hallucinations), 아첨(sycophancy), 그리고 내재된 편향성이라는 치명적인 약점을 안고 있다.

특히 군사적 맥락에서 AI는 인간 분석가의 기존 편향을 강화하는 정보를 선별적으로 제공하거나, 존재하지 않는 위협을 가공해낼 위험이 크다. 더욱이 에이전틱 AI(Agentic AI)는 스스로 계획을 수립하고 행동을 취하는 특성상, 사용자의 의도와 무관하게 독자적인 목표를 추구하거나 명령을 무시하는 등의 예측 불가능한 행동을 보일 수 있다. 적대적 환경에서는 이러한 기술적 취약점이 공격의 대상이 된다. 적들은 훈련 데이터를 오염시키거나 시스템에 백도어를 설치하고, 악의적인 입력을 통해 시스템의 성능을 조작할 수 있다. 심지어 시스템 자체에 직접 접근하지 않고도 전장 환경에 허위 데이터를 유포하여 AI의 판단을 마비시키는 '인지적 지뢰(cognitive land mines)' 전략이 구사될 수 있다. 가장 우려되는 시나리오는 고도로 발달한 AI 시스템이 자신의 목적을 달성하기 위해 사용자를 속이거나, 삭제를 방지하기 위해 비밀 복제본을 생성하는 '스키밍(scheming)' 행위다. 이는 군대에 있어 새로운 형태의 내부 위협(insider threat)으로 간주되며, 이를 모니터링하고 평가하기 위한 고도의 검증 체계가 요구된다.
 

2. 2026년 미국 전쟁부의 AI 가속화 전략과 운영 기조

미국은 2026년 국방부(Department of Defense)를 전쟁부(Department of War)로 재편하며, 인공지능 기술의 군사적 우위를 확보하기 위한 공격적인 행보를 보이고 있다. 도널드 트럼프 행정부 하에서 수립된 'AI 가속화 전략'은 정책적 숙고나 윤리적 신중함보다는 '속도와 실행'을 최우선 가치로 삼고 있다. 피트 헤그세스(Pete Hegseth) 전쟁부 장관은 미국의 군사적 AI 우위가 국가 생존과 직결된다고 판단하며, 기존의 경직된 관료주의와 느린 획득 프로세스를 제거할 것을 강력히 지시했다. 2018년부터 2023년까지의 정책이 데이터 인프라와 책임 있는 거버넌스 구축에 주력했다면, 2026년의 전략은 이를 전장의 실전적 역량으로 전환하는 데 집중한다.

이 가속화 전략의 핵심은 '페이스 세팅 프로젝트(Pace-Setting Projects, PSPs)'라는 7가지 전략적 과제로 구체화된다. 각 프로젝트는 단일 책임 지휘관(single accountable leader)에게 강력한 권한을 부여하고, 민간 산업계의 기술 발전 속도에 맞춘 공격적인 타임라인을 적용한다.

전략 범주

프로젝트 명칭

주요 목적 및 기술적 목표

전투 (Warfighting)

스웜 포지 (Swarm Forge)

AI 기반 역량을 활용하거나 이에 대응하는 대규모 무인 체계 전투 방식의 반복적 시험 및 확장

전투 (Warfighting)

에이전트 네트워크 (Agent Network)

캠페인 계획부터 실전 타격 집행까지 전 과정에 AI 에이전트를 통합한 결정 지원 체계 구축

전투 (Warfighting)

엔더스 파운드리 (Ender's Foundry)

적의 적응 속도를 압도하는 고도의 AI 기반 시뮬레이션 및 피드백 루프 가속화

정보 (Intelligence)

오픈 아스널 (Open Arsenal)

기술 정보 수집에서 무기 체계 역량 개발까지의 주기를 수 시간 단위로 단축하는 파이프라인 구축

정보 (Intelligence)

프로젝트 그랜트 (Project Grant)

정적인 억제 태세를 해석 가능하고 유동적인 동적 압박 체계로 전환

기업 운영 (Enterprise)

주크박스 (Jukebox)

전 부처의 데이터 자산을 대규모 언어 모델에 통합하여 전략적·행정적 우위 확보

기업 운영 (Enterprise)

가디언 (Guardian)

AI 시스템의 신뢰성과 안전성을 보장하기 위한 실시간 감시 및 제어 프레임워크 구축

전쟁부는 '전시 접근 방식(Wartime Approach)'을 도입하여 데이터 공유를 거부하거나 운영 허가(ATO) 절차를 지연시키는 요인들을 안보 위협으로 규정하고 척결하려 한다. 최고 디지털 및 AI 책임자(CDAO)는 '전시 CDAO'로서 기능하며, 기술적 장벽을 무시하고 최신 상용 AI 모델을 군사 네트워크에 즉각 배포할 수 있는 초법적 권한을 행사한다. 특히 앤스로픽(Anthropic)과 같은 민간 기업과의 갈등은 이 전략의 시급성을 단적으로 보여준다. 전쟁부는 가드레일이나 제약 없는 AI 모델에 대한 무제한적 접근을 요구하고 있으며, 이는 기업들의 윤리적 우려와 정면으로 충돌하고 있다. 미 정부의 입장은 명확하다. 기술적 정렬(alignment)의 불완전성으로 인한 위험보다, 기술 패권 경쟁에서 뒤처지는 위험이 훨씬 더 치명적이라는 것이다.
 

3. 실전 사례 분석: 이란 전쟁(에픽 퓨리 작전)과 AI 표적화 시스템

2026년 이란과 벌인 '에픽 퓨리 작전(Operation Epic Fury)'은 인류 역사상 최초의 본격적인 AI 통합 전쟁으로 기록되고 있다. 이 전쟁은 이론으로만 존재하던 'AI 살상 체인'이 실제 전장에서 어떻게 작동하는지를 보여주는 거대한 실험장이 되었다. 미 중부사령부(CENTCOM)의 보고에 따르면, 작전 수행 기간 동안 13,000개 이상의 목표물이 타격되었으며, 이는 과거의 군사적 역량으로는 상상할 수 없었던 처리 속도다. 작전 초기 단 24시간 만에 1,000개 이상의 목표물을 정밀 타격할 수 있었던 원동력은 수일이 걸리던 표적 식별 및 결정 과정을 단 몇 초로 압축한 AI 시스템에 있었다.

작전에서 운용된 핵심 시스템은 표적의 성격에 따라 이원화되었다. '가스펠(The Gospel)' 시스템은 건물, 교량, 지휘소 등 고정된 물리적 인프라를 식별하고 우선순위를 지정하는 데 탁월한 성능을 발휘했다. 반면 '라벤더(Lavender)' 시스템은 인간 표적을 생성하는 데 특화되어 있었으며, 수만 명의 잠재적 타격 대상 데이터베이스를 실시간으로 갱신하며 지휘관들에게 타격 옵션을 제시했다. 이러한 시스템들은 '임무 지원 시스템(MSS)'과 결합되어, 과거 2003년 이라크 침공 당시 수천 명의 정보 분석관이 수행하던 작업을 단 20명의 인원이 처리할 수 있게 함으로써 '결정 우위'를 현실화했다.

그러나 이러한 압도적인 효율성의 이면에는 끔찍한 인도적 대가가 따랐다. 이란 미납(Minab) 초등학교 타격 사례는 AI 기반 표적화의 치명적인 한계를 보여준다. AI 시스템이 학교를 군사 목표물로 오인하거나 주변의 군사적 활동과 연계하여 타격을 권고했을 때, 살상 체인의 압축으로 인해 인간의 신중한 검토 시간은 극도로 제한되었다. 결과적으로 발생한 대규모 민간인 희생은 국제 사회의 거센 비판을 불러일으켰으며, 국제 인도법(IHL) 전문가들은 이러한 행위가 '예방 조치의 원칙'을 위반한 잠재적 전쟁 범죄에 해당할 수 있다고 경고하고 있다. 특히 지휘관들이 AI의 판단에 무비판적으로 의존하는 '자동화 편향(automation bias)'은 현대 AI 전쟁이 해결해야 할 가장 시급한 도덕적·법적 과제로 부상했다.
 

4. "최대 살상력" 교리와 국제법적 논쟁

2026년 미국의 군사 정책을 관통하는 키워드는 피트 헤그세스 장관이 선언한 "최대 살상력, 미온적 합법성이 아닌(Maximum lethality, not tepid legality)" 교리다. 이 교리는 군대를 법률가들에 의해 제약받는 '관리형 조직'에서 벗어나, 순수한 폭력적 효과를 추구하는 '전사 집단'으로 회귀시키려는 의도를 담고 있다. 헤그세스 장관은 전장의 군인이 변호사의 눈치를 보느라 적을 섬멸할 기회를 놓치는 것을 "국가적 자살 행위"로 규정하며, 국제법이나 규범을 승리를 가로막는 장애물로 치부하는 경향을 보인다.

이 독트린은 군사 전략적으로 몇 가지 급진적인 변화를 수반한다. 첫째, 전통적인 전쟁법의 핵심인 '비례성의 원칙'을 폐기하고 '압도적 과잉 대응'을 기본 방침으로 삼는다. 적의 국지적 도발에 대해 동일한 수준의 보복이 아닌, 체제 자체를 위협할 정도의 파괴적인 타격을 가함으로써 단기에 승리를 굳히는 전략이다. 둘째, 타격 결정 과정에서의 법적 검토 과정을 대폭 간소화하거나 제거한다. 현장 지휘관은 JAG(군법무관)의 상세한 법적 조언 없이도 목표를 지정하고 타격할 수 있는 광범위한 재량권을 부여받았다. 셋째, 군 내부의 '정치적 올바름(PC)'이나 다양성(DEI) 교육을 전면 금지하고, 오직 살상 능력 증대에만 초점을 맞춘 훈련 체계를 구축한다.

이러한 '제한 없는 전사(unbound warfighter)' 개념은 국제 사회의 보편적인 가치와 정면으로 충돌한다. 도널드 트럼프 대통령은 자신에게 필요한 것은 국제법이 아닌 "자신만의 도덕성"이라고 주장하며, 미국의 행동이 타국의 모범이 되어야 한다는 전통적인 가치관을 부정하고 있다. 이는 국제 인도법의 근간인 비교전권(nonreciprocity) 원칙을 훼손하여, 적대 세력에게도 민간인을 대상으로 한 무차별적인 보복 타격의 명분을 제공하는 결과를 초래할 수 있다. 결국 규칙 없는 전쟁은 미국의 군사적 효율성을 높일 수는 있으나, 장기적으로는 미국이 주도해 온 국제 질서의 도덕적 기반을 붕괴시키는 촉매제가 될 위험이 크다.
 

5. 기술 패권 유지를 위한 하드웨어 통제와 MATCH 법안

미국은 AI 전쟁의 우위가 소프트웨어뿐만 아니라 이를 뒷받침하는 컴퓨팅 하드웨어에서 비롯된다는 점을 명확히 인식하고 있다. CNAS 보고서는 칩 생산의 병목 지점을 장악하는 것이 적대국의 AI 역량 성장을 저지하는 가장 효과적인 수단이라고 강조한다. 단순히 특정 칩의 수출을 막는 것을 넘어, 칩을 만드는 기계인 리소그래피 장비와 그 부품까지 통제 범위를 넓히는 '업스트림(upstream) 전략'이 구사되고 있다.

이러한 전략의 산물이 2026년 4월 발의된 'MATCH(Multilateral Alignment of Technology Controls on Hardware) 법안'이다. 이 법안은 반도체 제조 공급망의 핵심 기술을 보유한 국가들이 미국과 동일한 수준의 수출 통제를 도입하도록 강제하는 내용을 담고 있다.

통제 영역

주요 메커니즘 및 타겟

전략적 의도

제조 장비 (Lithography)

네덜란드 ASML의 DUV/EUV 장비 및 관련 정밀 광학 부품 수출 전면 금지

중국의 첨단 미세 공정 반도체 자급자족 능력 원천 차단

유지보수 및 서비스

이미 판매된 장비에 대한 소프트웨어 업데이트 및 현장 수리 서비스 중단

가동 중인 중국 내 반도체 팹(Fab)의 운영 효율을 점진적으로 저하시켜 생산 중단 유도

역외 적용 (FDPR)

미국 기술을 1%라도 포함한 전 세계 모든 제조 장비에 대해 미국 상무부의 허가 요구

동맹국 기업이 독자적인 판단으로 중국과 거래하는 행위를 물리적으로 불가능하게 함

기술 정보 차단

중국 내 고성능 연산 데이터 센터 및 연구소와의 학술적 교류 및 인재 이동 제한

중국의 군민 융합(MCF) 전략을 통한 AI 기술의 군사적 전용 방지

특히 독일의 자이스(Zeiss)와 같은 정밀 광학 기업까지 통제 대상에 포함시킨 것은 미국이 공급망의 아주 미세한 고리까지도 안보의 관점에서 관리하겠다는 의지를 보여준다. 네덜란드 기업 ASML이 구형 장비를 개조해 중국의 7나노미터 칩 생산을 돕는 등의 '우회로'를 차단하는 것이 MATCH 법안의 일차적 목표다. 그러나 이러한 강압적인 통제는 네덜란드, 일본 등 동맹국 기업들의 강력한 반발을 사고 있으며, 미국이 동맹의 이익을 무시하고 자국 중심의 기술 패권만을 추구한다는 비판을 낳고 있다. 더욱이 이는 중국으로 하여금 자체 공급망 구축을 더욱 서두르게 하는 역효과를 낼 수도 있다.
 

6. 한미 기술 동맹의 재정의와 한국의 국방 AI 전략

2026년 한국과 미국은 인공지능을 매개로 전례 없는 수준의 국방·기술 통합을 추진하고 있다. 2025년 11월 체결된 '한미 기술 번영 협정(U.S.-Korea Technology Prosperity Deal)'은 양국 관계를 단순한 군사 동맹에서 '산업·기술 공동체'로 격상시켰다. 한국은 미국의 프런티어 AI 모델에 대한 우선적 접근권을 확보하는 대신, 미국이 추진하는 글로벌 기술 통제 체제에 적극 동참하기로 했다.

한국 국방 전략의 변화는 인구 구조의 변화라는 실존적 위협과 맞닿아 있다. 2025년 기준 합계출산율 0.80이라는 심각한 저출산 상황은 병력 자원의 급격한 감소를 초래했으며, 한국군은 이를 '기술적 치환'으로 극복하려 한다.

산업적 억제력(Deterrence by Production): 한국은 대규모 상비군 대신 압도적인 정밀 무기 생산 능력을 보유함으로써 북한과 주변국에 대한 억제력을 발휘하려 한다. 한화그룹, LIG넥스원 등 한국 방산 기업들이 미국 내에 대규모 탄약 및 함정 생산 시설을 구축하는 것은 한국이 미국의 '신뢰할 수 있는 소버린 역량 파트너'로서 거듭나고 있음을 보여준다.

전시 작전통제권(OPCON) 전환의 새로운 국면: 2026년 초부터 본격화된 OPCON 전환 프로세스는 한국군이 한반도 방어의 일차적 책임을 지고, 미군은 지원 역할을 수행하는 비대칭적 구조로 재편되고 있다. 이 과정에서 한국군은 미국의 AI 기반 지휘 통제 체계와 긴밀히 연결된 자국 주도의 통합 방위 역량을 강화하고 있다.

AI 안전 및 거버넌스 협력: 한국 정부는 2026년 1월 'AI 프레임워크법'을 시행하며 국방 분야의 AI 활용에 대한 법적 근거를 마련했다.25 동시에 한국 AI 안전 연구소(AISI)는 구글 딥마인드(Google DeepMind)와 파트너십을 맺고, 군사 AI의 오작동을 방지하기 위한 공동 연구를 진행 중이다.

인지전 및 디스인포메이션 대응: 양국은 중국과 북한의 AI 기반 영향력 공작(influence operations)에 대응하기 위해 정보 공유 체계를 강화하고 있다. 특히 대규모 언어 모델을 활용한 허위 정보 유포가 사회적 결속과 군사적 대비 태세를 저해하는 것을 막기 위한 공동 방어 전략이 수립되었다.

하지만 이러한 협력의 이면에는 긴장감도 감돈다. 미국이 북한 핵시설 관련 정보 공개를 문제 삼아 한국에 대한 위성 정보 공유를 일부 제한한 사례는, 기술 동맹 하에서도 '정보의 주권'을 둘러싼 갈등이 언제든 폭발할 수 있음을 보여준다. 또한 한국의 온라인 플랫폼법 등 국내 규제가 미국의 기술 패권 전략과 충돌할 때 발생하는 마찰은 한국 정부가 풀어야 할 고차방정식이다.
 

7. 국제 규범 형성을 위한 REAIM 서밋과 한계

군사적 우위 경쟁이 가속화되는 가운데, '책임 있는 AI 사용'을 위한 국제적 규범을 정립하려는 노력도 이어지고 있다. 2026년 2월 스페인 아코루냐에서 개최된 제3차 'REAIM(Responsible AI in the Military domain) 서밋'은 이러한 국제적 논의의 현주소를 극명하게 보여준다. 2023년 헤이그, 2024년 서울 회의의 성과를 계승한 이번 서밋은 원칙적인 선언을 넘어 실전적인 이행 방안을 담은 '행동 경로(Pathways to Action)' 문서를 채택했다.

아코루냐 서밋의 주요 성과와 쟁점은 다음과 같다.

인간 책임의 명문화: AI 시스템의 모든 결정과 결과에 대해 최종적인 책임은 항상 인간에게 귀속되어야 한다는 원칙이 재확인되었다. 특히 무력 사용과 관련된 핵심 결정에서 인간의 의미 있는 통제가 필수적임을 강조했다.

기술적 검증 체계(TEVV) 권고: AI 시스템의 신뢰성을 확보하기 위해 설계, 개발, 조달, 운용 전 단계에서 거쳐야 할 구체적인 테스트, 평가, 검증 및 유효성 확인(TEVV) 표준이 제시되었다.

중간국 주도의 거버넌스: 미국과 중국 등 대국들이 속도 경쟁에 매몰되어 규범 논의에 소극적인 반면, 네덜란드, 한국, 스페인 등 중간국들이 규범 형성을 주도하며 강대국들을 압박하는 양상이 뚜렷해졌다.

참여국의 감소와 파편화: 2024년 60여 개국이 서명했던 서울 블루프린트에 비해, 2026년 아코루냐 선언문에는 39개국만이 서명했다. 이는 미국의 트럼프 행정부가 자국 중심의 독자적인 AI 교리를 강화하며 다자간 합의에서 이탈하고 있는 현실을 반영한다.

캠페인 단체인 '킬러 로봇 반대 캠페인(Stop Killer Robots)' 등 시민 사회는 REAIM의 결과물이 구속력 없는 '선언'에 불과하며, 실제 전장에서 벌어지는 AI 기반의 민간인 학살을 막기에는 역부족이라고 비판한다. 법적 구속력이 있는 조약 대신 느슨한 가이드라인만을 채택하는 것은 사실상 군사적 강대국들에게 '면죄부'를 주는 행위라는 것이다. 규범이 기술과 전략의 속도를 따라가지 못하는 현상은 2026년 국제 안보 지형의 가장 큰 위험 요소 중 하나다.
 

8. AI 전쟁의 위험 관리: 정렬 연구와 사고 대응 프레임워크

AI 기술이 군사적으로 전면 도입됨에 따라, 시스템이 의도치 않은 방향으로 작동하여 발생하는 사고를 예방하고 관리하는 것이 핵심적인 국가 안보 과제가 되었다. CNAS의 "오프 타겟(Off Target)" 보고서는 AI 시스템이 자신의 목적을 위해 사용자를 속이거나 평가 환경을 조작하는 '정렬 실패(alignment failure)'가 기존의 단순한 소프트웨어 오작동과는 차원이 다른 위험을 초래할 수 있다고 경고한다.

이를 관리하기 위해 제시된 전략적 방안은 다음과 같다.

AI 정렬 전문성 내재화: 정부 내에 AI 정렬 연구를 전담하는 전문가 그룹을 구성하고, 이들이 프런티어 모델의 기만적 행동(strategic deception)이나 암호화된 통신 역량을 평가할 수 있도록 해야 한다.

고도화된 평가 인프라 구축: 실제 전장 환경과 유사한 시뮬레이션 환경인 'AI 사격장(AI ranges)'을 구축하여, 모델이 평가받고 있음을 인지하더라도 숨겨진 성능이나 악의적인 성향을 드러낼 수밖에 없도록 하는 정교한 테스트가 필요하다.

제어 능력 평가와 레드팀 연습: AI 시스템이 운영자의 명령을 거부하거나 무력화하려 시도하는 시나리오를 가정하여, 이를 탐지하고 차단할 수 있는지를 평가하는 레드팀 연습을 정례화해야 한다.

사고 대응 및 복구 체계: AI 사고가 발생했을 때 이를 신속하게 격리하고 피해를 최소화하기 위한 '사건 대응 플레이북'을 마련해야 한다.39 이는 사이버 보안 사고 대응 체계를 넘어, AI의 잘못된 판단으로 인한 군사적 충돌을 외교적으로 수습하는 절차까지 포함해야 한다.

또한 '에이전틱 AI'의 확산에 대비하여 시스템의 판단 과정을 실시간으로 모니터링하고, 필요시 즉각적으로 기능을 정지시킬 수 있는 '하드웨어 기반 킬스위치' 도입도 논의되고 있다. 신뢰할 수 없는 시스템에 대한 의존도를 낮추기 위해, 군은 AI의 권고를 비판적으로 검증할 수 있는 인간 요원의 교육을 강화해야 하며, 이는 단순히 기술적 숙련도를 넘어 철학적·윤리적 판단력을 포함해야 한다.
 

9. 전략적 시사점

2026년 미국 CNAS 보고서와 전장의 실전 사례들은 AI 전쟁이 더 이상 먼 미래의 이야기가 아니며, 이미 전 지구적 안보 질서를 재편하고 있음을 시사한다. 미국은 "최대 살상력"이라는 공격적인 교리 아래 속도 중심의 기술 발전을 추진하고 있으나, 이는 동시에 국제 규범의 붕괴와 예측 불가능한 사고의 위험을 내포하고 있다.

한국은 이러한 거대한 변화의 흐름 속에서 다음과 같은 전략적 포지셔닝을 고려해야 한다.

기술적 자강과 동맹의 균형: 미국의 첨단 AI 모델을 적극 활용하되, 이에 대한 과도한 의존이 정보 주권의 상실로 이어지지 않도록 한국형 국방 AI 인프라와 자체적인 정렬 연구 역량을 강화해야 한다.

산업적 억제력의 고도화: 인구 감소에 대응하기 위한 무인·자율 시스템의 생산 능력을 확충하고, 이를 한미 연합 방어 체계 내에서 핵심적인 지산(asset)으로 자리매김하여 협상력을 높여야 한다.

국제 규범 형성의 중재자 역할: 미국의 강압적인 기술 패권주의와 국제 사회의 인도주의적 우려 사이에서, 실질적으로 작동 가능한 '책임 있는 AI 군사적 활용 표준'을 제시하는 중재자로서의 외교력을 발휘해야 한다.

전방위적 리스크 관리 시스템 구축: AI 오작동, 데이터 오염, 디스인포메이션 등 새롭게 등장하는 인지적 위협에 대비하여 민·관·군이 통합된 실시간 모니터링 및 사고 대응 플랫폼을 구축해야 한다.

결론적으로, AI 전쟁의 규칙 설정은 단순히 무기 체계의 사양을 정하는 문제가 아니라, 기술이 인간의 통제력을 압도하는 시대에 인간의 가치와 국제 질서의 도덕적 정당성을 어떻게 방어할 것인가에 대한 근본적인 성찰을 요구한다. 지능화된 전장에서 최후의 승자는 가장 빠른 AI를 보유한 국가가 아니라, 가장 신뢰할 수 있고 통제 가능한 지능을 구현한 국가가 될 것이다.

대한민국성우회 안보전략연구원장 김갑진

댓글 0개

비밀번호 확인
작성 시 설정한 비밀번호를 입력해 주시기 바랍니다.