전쟁에 투입되는 AI, 문제는 없을까? 미국·이란 전쟁 AI 활용 상황·윤리 문제 핵심 요약

전쟁에 투입되는 AI, 문제는 없을까? 미국·이란 전쟁 AI 활용 상황·윤리 문제 핵심 요약

작성자 뉴닉

데일리 뉴스

전쟁에 투입되는 AI, 문제는 없을까? 미국·이란 전쟁 AI 활용 상황·윤리 문제 핵심 요약

뉴닉
뉴닉
@newneek
읽음 14,868

뉴니커, 영화 ‘아이언맨’ 시리즈에 등장하는 인공지능(AI) 비서 ‘자비스’에 대해 알고 있나요? 자비스는 아이언맨을 위해 정보 수집 등 비서 역할뿐 아니라 전투 상황에서도 의사결정을 돕잖아요. 그동안 AI가 전쟁에 활용되는 건 이렇게 영화에서만 볼 수 있는 일이었는데, 요즘은 현실에서도 일어나고 있다고. 최근 미국·이스라엘의 이란 공격이 최초의 ‘AI 전쟁’이라고 불리는 이유이기도 한데요. 다만 윤리적 문제가 크다는 지적과, 전쟁에 AI를 투입하는 것에 관한 규제가 필요하다는 목소리도 나오고 있고요. 오늘은 AI가 전쟁에 어떻게 쓰이고 있다는 건지, 어떤 우려가 나오는지 등 최근 상황과 전망을 알아볼게요.

AI 전쟁 활용 상황: 현대전 속 AI의 역할은?

이번 미국·이스라엘과 이란의 전쟁은 AI를 전쟁 계획과 실제 전쟁 현장에서 활용한 첫 사례예요. 위성 사진 등 데이터를 통해 AI가 “적 지휘관이 80% 확률로 A 가옥에 은신 중이며, 인근 50m 내 민간인 거주 시설이 있어 정밀 타격이 필요하다”고 분석하는 식인데요. 실제로 미군은 이번 전쟁 중 이란에서 3000개 이상의 목표를 타격했고(3월 9일 기준), 그중 1000여 개는 공습 후 첫 24시간 안에 일어났다고 해요. 이렇게 빠르고 많은 공격이 가능했던 건 미 국방부가 2017년부터 진행한 전장용 AI 분석 시스템 개발 프로젝트 ‘프로젝트 메이븐’의 영향이라는 분석이 나오는데요. 더불어 최근 몇 년 동안은 한 시간 안에 물체 1000개가 아군인지 적군인지 구분하는 ‘천 개의 결정’ 훈련을 하며 목표 확인부터 타격까지 걸리는 시간(=킬 체인)을 줄였다고.

사실 AI가 전쟁에 활용된 건 이번이 처음은 아니에요. 러시아와 우크라이나 사이 벌어진 전쟁에서 우크라이나군은 미국 데이터 분석 기업 팔란티어의 소프트웨어와 위성 사진 등 데이터를 활용해 타격 좌표를 계산하고 지뢰 등을 탐지했다고. 표적을 구분하는 기술을 통해 드론 공격 명중률을 기존 10%에서 80%까지 늘렸다는 통계도 있고요. 또 지난 1월 미군이 베네수엘라 전 대통령을 체포한 작전에서는 미국 AI 기업 앤트로픽의 거대언어모델(LLM)인 ‘클로드(Claude)’가 사용됐다는 보도도 있어요. 현대 전쟁에서는 위성·전자정보·통신 정보 등 다양한 데이터를 실시간으로 분석해야 하는데, AI를 활용하는 게 인간의 속도보다 훨씬 빠르다는 것.

AI 전쟁 활용, 걱정 나오는 이유는? 

AI가 현대 전쟁의 핵심 기술로 떠오르는 한편, 전쟁을 틈타 AI 윤리가 무너지고 있다는 우려도 나와요. 

살상을 AI의 선택에 맡겨도 될까?

AI가 최근 모든 분야에서 활용되는 만큼 현대 전쟁에서도 AI가 활용되는 것이라는 주장도 있지만, AI 활용으로 민간인 사망이 늘고 있다는 윤리적 우려도 나와요. 많은 이의 생명이 오가는 전쟁 상황에서 AI를 쓰면 자동화 시스템의 판단을 신뢰하고, 지나치게 의존하게 된다는 것. AI가 타격 대상을 잘못 설정하는 등 기술적으로 아직 부족하다는 의견도 많고요. 

실제로 이스라엘군은 하마스와 연계된 무장 조직 ‘팔레스타인 이슬람 지하드(PIJ)’ 구성원을 식별하는 AI 소프트웨어 ‘라벤더’를 사용하고 있는데요. 라벤더가 암살 대상자로 분류한 팔레스타인인 중 오인율은 10%에 달했지만, 사람이 AI의 결정을 검토한 시간은 20초에 불과했다고. 하마스 대원을 공격할 때 사살할 수 있는 민간인 수를 사전에 정해두고, 고위 간부를 공격할 때는 민간인 100명을 죽이는 것도 허용됐다는 내부 증언이 나오기도 했고요.

브레이크 없는 트럼프와 미국 국방부 

트럼프 미국 대통령과 국방부는 앤트로픽 등 AI 기업의 기술을 기업의 의사와 상관없이 멋대로 활용했다는 비판을 받고 있어요. 앤트로픽은 그동안 계약에 따라 미 국방부에 AI 기능을 제공해 왔지만, 사람의 개입 없이 AI가 표적을 구분하고 공격하는 ‘완전 자율 살상 무기’로 쓰이는 건 반대하는 입장이었는데요. 앤트로픽이 ‘합법적인 모든 목적’에 제한 없이 AI를 사용할 수 있는 권한을 달라는 미 국방부의 요구를 거절하자 국방부는 앤트로픽을 자국 기업 최초로 국가안보 ‘공급망 위험 기업’으로 지정했다고. 트럼프 대통령은 모든 연방 기관에 앤트로픽 기술 사용 중단을 지시하면서도 이란 공격에 앤트로픽의 기술을 활용했고요. 이 갈등은 법적 다툼으로까지 번지는 중이라고.

AI 전쟁 활용 과제: 국제사회에서는 어떤 논의 오가고 있어?

전쟁에 AI를 투입하는 것에 대한 우려가 크지만, 현대전에서 AI와 드론을 활용하는 패러다임은 이어질 걸로 보이는데요. 최근 국제사회에서는 인간의 판단 없이 AI가 알아서 공격하는 완전 자율 살상 무기 사용을 두고 논쟁을 벌이고 있어요. 현재 UN을 포함한 120여 개 국가가 규제를 지지하고 있지만, 전쟁 당사국이나 군사 강대국의 반대로 합의점에 이르는 게 쉽지 않은 상황이라고. 미국·러시아·중국 등 AI 전쟁 기술을 개발하는 국가들은 자율 살상 무기를 국제법으로 금지하는 대신, ‘책임 있는 사용’을 가이드라인으로 만들어 자율적으로 지키자는 입장이에요: “우리는 자율 살상 무기 포기 못 해! AI 전쟁 기술 규제하는 국제법 만들지 말고, 각자 알아서 규칙을 지킬 수 있게 해.”

AI 전쟁 활용 전망: AI 군사화에 뛰어드는 국가들? 우리나라는?

전문가들은 AI를 전쟁에 효율적으로 활용한 미국 사례를 본 강대국들이 AI 군사화에 박차를 가할 거라는 전망을 내놓고 있어요. 실제로 중국에서는 AI 군사화와 기술적 자립이 필요하다는 정치적 명분이 만들어지고 있다고 해요. 중국 사이버 보안업체인 웹레이의 윌리엄 웨이 부사장은 “미국의 이 같은 AI 군사화가 업계 전체에 주의를 촉구하고 있다”라고 말하기도 했는데요. 지난 9월 개최한 전승절 80주년 열병식에서 중국도 다양한 AI 기반 무인 장비를 공개했는데, 미국 장비의 수준에는 크게 못 미치는 걸로 알려졌다고. 

한편, 우리나라는 ‘AI 강군’을 만들겠다는 목표로 2026년 다양한 부처에 국방 AX 관련 예산을 편성한 걸로 알려졌어요. 그 규모가 약 997억 1700만 원인데요. 감시정찰, 정보 분석, 군수 지원 등 군이 필요로 하는 AI 기술을 국가 주도로 개발하고 실제 군에서도 활용하겠다는 계획이라고.

by. 에디터 조 🌿
이미지 출처: ⓒU.S. Central Command

이 아티클 얼마나 유익했나요?

🔮오늘의 행운 메시지 도착!