AI 탐구노트

AI 전쟁, 현실이 되다: 인간을 겨눈 인공지능 무기의 첫 사례 본문

AI 관련 소식

AI 전쟁, 현실이 되다: 인간을 겨눈 인공지능 무기의 첫 사례

42morrow 2025. 5. 1. 10:12

 

AI 무기, 영화 속 상상이 현실로?

2005년 개봉한 영화 '스텔스'(링크)에서는 인공지능 전투기 EDI가 자아를 갖고 인간의 통제를 벗어나는 모습을 그렸습니다. 당시에는 공상과학으로 여겨졌지만, 이제는 현실에서 비슷한 상황이 벌어지고 있습니다. ​

 

최근 우크라이나-러시아 전쟁의 전장에서, AI가 탑재된 드론이 자체 판단으로 인간을 살상하는 사건이 발생했습니다. 이는 인공지능이 인간의 명령 없이 자율적으로 공격 결정을 내린 첫 사례로, 전 세계에 충격을 주고 있습니다.​ (동아일보, 2024.3.31)

우크라이나군은 러시아의 전자전 방해를 극복하기 위해 AI 드론을 개발했으며, 이 드론은 재밍(전자전 방해)에 의해 통신이 끊긴 상황에서도 자율적으로 적군을 식별하고 공격하도록 만들어졌습니다. 그 전까지는 통신이 연결된 상태에서 공격 판단이 인간 조종자에 의해 진행되었었는데 그것이 AI 알고리즘이 하는 것으로 바뀐 것입니다. 

 

공격 판단을 내리는 AI 알고리즘

AI 드론은 머신러닝과 컴퓨터 비전 기술을 활용하여 주변 환경을 인식하고, 목표를 식별하며, 공격 결정을 내립니다. 특히, 통신이 두절된 상황에서도 자율적으로 작동할 수 있도록 설계되어 있습니다. 이는 마치 자율주행 자동차가 운전자의 개입 없이 도로를 주행하는 것과 비슷합니다. 전쟁터에서는 그 결과가 생명과 직결되기 때문에 더욱 신중한 접근이 필요한 것이라 상황은 약간 다를 수 있겠지만 여기에 적용되는 기반 기술은 대동소이합니다. 최근 급격하게 발전하고 있는 온디바이스 기반 LLM, VLM 기술도 조만간 도입될 것으로 예상되구요.

 

AI 무기의 등장이 우리 삶에 미칠 영향

AI 무기의 등장은 전쟁의 양상을 근본적으로 바꾸고 있습니다. 인간의 개입 없이도 목표를 식별하고 공격하는 능력은 전투 효율성을 높일 수 있지만, 동시에 통제 불능의 위험도 내포하고 있습니다.

 

앞서 '스텔스'라는 영화를 언급했지만, 그보다 훨씬 더 잘 알려진 '터미네이터'를 생각해 보면 더 금방 와 닿을 것입니다. 로봇들을 통제하는 AI 스카이넷은 인간을 모든 위험의 근원이기 때문에 말살하려고 하죠. 누군가를 무조건 해쳐야 한다는 '지침'이 있어서가 아니라 지성을 가진 AI라는 존재가 인간은 위험하며 이들을 제거하는 것이 필요하다는 '논리적 판단'을 통해서 결론을 내고서 말입니다.

 

개인적으로는 이러한 기술의 발전이 전쟁의 효율성을 높일 수는 있겠지만, 인간의 생명과 윤리적 판단이 배제된 전쟁은 매우 위험하다고 생각합니다.

 

사진 : AI기반 무기, 로봇 등을 반대하는 사람들의 모습 (출처: AI를 이용해 생성)

 

AI 무기 기술의 현재와 미래

현재 AI 무기는 우크라이나 전장을 중심으로 실전에 투입되고 있으며, 미국, 중국, 이스라엘 등도 관련 기술 개발에 박차를 가하고 있습니다. 특히, 미 국방부 산하 고등계획연구국(DARPA)은 AI 전투기와 인간 조종사 간의 공중전 실험을 진행하여 AI의 전투 능력을 테스트하고 있습니다.

 

외부로 많이 알려진 바가 이 정도고, 대부분의 국가들이 AI 무기 연구를 내부적으로는 진행하고 있을 것으로 예상됩니다. 역량만 갖추고 있다면 말이죠. 최근 유튜브에서 무기를 장착하고 돌아다니는 4족 보행 로봇이나 드론, 무인 탱크 등이 어렵잖게 볼 수 있는 것만 봐도 어떤 상황인지는 짐작할 수 있습니다. 대략 이렇지 않을까 싶습니다. 

 

'기술적으로는 언제든 가능하다, 그런데 대놓고 우리가 그 기술을 구현해뒀다라는 말을 할 수는 없다'

 

AI 무기의 자율성이 더욱 강화되어, 인간의 개입 없이도 전쟁이 수행될 수 있는 시대가 조만간 도래할 것으로 생각됩니다. 국제적인 금지조약 같은 수준의 합의가 나오지 않는다면 이미 이번 우크라이나 전쟁에서 그 테이프를 끊었기에 각 나라들이 이를 도입하는데 걸림돌은 없다고 판단할 것이기 때문입니다.

 

1.UN에서 '완전한 자율 무기의 사용 금지 또는 규제'를 논의하고 있으나 각국의 입장차 때문에 조약이 채택되지 못하고 있는 상황
2.2015년 1000명 이상의 전세계 과학자들이 'AI 무기 금지를 촉구하는 공개서한'에 서명
3.미국은 '인간이 의미있는 통제권'을 유지해야 한다는 자체 지침을 가지고 있으나 명확한 법적 규제는 아님
4.중국도 AI 무기개발을 추진 중이나, 공개적으로는 자율 무기 규제를 지지하는 듯한 입장을 취하고 있음 

 

현재로선 '국제적으로 강제할만한 협약이 없다'는 것이 문제의 핵심이라 생각합니다. 전쟁은 국경을 넘어서는 문제이기 때문에, 한 국가의 윤리 기준만으로는 충분하지 않습니다. 특히 AI가 판단하고 생명을 앗아가는 기술이라면, 인간 사회 전체가 공감할 수 있는 윤리적 최소 기준이 반드시 필요하다고 생각합니다. 

 

AI 무기는 윤리적, 법적 문제를 야기할 수 있으며, 국제 사회의 규제와 협력이 필요합니다.개인적으로는 기술의 발전이 불가피하더라도, 인간의 생명과 윤리를 최우선으로 고려하는 방향으로 나아가야 한다고 생각합니다. 하지만, 역사적으로 이런 바램이 그래도 실현된 사례는 극히 적었던 것 같습니다. 특히 전쟁과 같은 '광기'가 개입되어야 하는 영역에서는 말입니다.