[시큐리티팩트=최석윤 기자] 인공지능(AI)이 더 이상 먼 미래의 기술이 아니다. AI는 이미 전쟁터의 현실이 되었다. 유엔(UN)은 AI가 자율 무기(Autonomous Weapons)로 발전하면서 세계 안보의 핵심 이슈가 되고 있다고 경고했다.
2일(현지 시각) 외신 보도에 따르면, 안토니우 구테흐스 유엔 사무총장은 AI의 군사적 사용을 규제하기 위한 긴급한 국제적 조치를 촉구했다. 그는 안보리 토론에서 "AI는 숨 막히는 속도로 일상생활과 세계 경제를 변화시키고 있다"고 말했다. 하지만 "가드레일이 없으면 무기화될 수도 있다"고 경고했다.
러시아-우크라이나 전쟁은 AI 기반 표적화와 자율성을 위한 시험장이 되었다. 인간 지휘관이 아닌 알고리즘이 생사를 건 결정을 내리는 데 점점 가까워지고 있다는 우려가 커지고 있다.
구테흐스 사무총장은 "인류의 운명은 알고리즘에 맡길 수 없다"고 강조했다. 그는 인간의 통제 없이 작동하는 치명적인 자율 무기 시스템을 금지할 것을 거듭 촉구했다. 2026년까지 법적 구속력이 있는 문서를 채택해야 한다고 목소리를 높였다.
AI는 이제 지정학적 경쟁과 군사 혁신의 중심축이다. 특히 미국과 중국이 이 분야의 군비 경쟁을 주도하고 있다. 러시아 역시 AI를 미래 전쟁의 전력 배율(Force Multiplier)로 활용하는 데 뒤처지지 않으려 한다.
미국은 'JADC2'와 '모자이크 전쟁(Mosaic Warfare)'과 같은 AI 기반 작전 교리를 발전시키고 있다. JADC2는 'Joint All-Domain Command and Control'의 약자로 '합동 전 영역 지휘통제'를 의미한다. 미래 전장에서 모든 군사 자산과 정보를 하나의 통합된 네트워크로 연결하여 지휘관의 의사결정 속도를 혁신적으로 높이는 개념이다. 모자이크 전쟁은 미 국방성 산하 다르파(DARPA)에서 제시한 미래 전쟁 수행 개념이다. 이름 그대로 '모자이크'처럼 작전을 수행한다는 의미인데, 이는 지정된 퍼즐 조각(특정 임무가 정해진 거대 무기) 대신 호환 가능한 타일(다양하고 저렴하며 분산된 센서와 타격 자산)을 사용해 전투를 수행하는 방식이다.
이들 작전 교리의 목표는 모든 작전 영역에 걸쳐 속도와 데이터 통합을 통한 의사 결정 우위 확보이다. 중국은 민간 AI 혁신을 군에 체계적으로 통합하는 군민융합 전략을 추구한다.
전문가들은 이 경쟁의 핵심이 AI 지원 의사 결정 지원 시스템(DSS, Decision Support Systems)의 등장이라고 말한다. 이 도구는 지휘관이 방대한 양의 데이터를 처리하고 분석하여 더 빠르고 정보에 입각한 전장 결정을 내릴 수 있도록 설계되었다. AI는 잠재적인 위협을 식별하고, 무기를 선택하며, '킬 체인(Kill Chain)' 프로세스를 지원한다. 킬 체인 프로세스는 군사 작전에서 표적을 탐지하고 최종적으로 파괴하기까지의 일련의 과정을 뜻한다. '적을 찾아내서 공격을 결정하고 실행하는 모든 단계'를 고리(Chain)처럼 연결한 개념이다. 이 과정은 현대전에서 속도가 가장 중요하다.
군대에서는 OODA 루프(Observe, Orient, Decide, and Act)라는 프레임워크를 통해 적의 의사 결정 프로세스를 앞지르는 전술적 도구로 AI를 보기 시작했다.
그러나 AI는 양날의 검이다. 지지자들은 AI가 전쟁 수행에 필수적이라고 주장한다. 반면 비평가들은 불투명한 알고리즘에 대한 과도한 의존이 인간의 판단력을 약화시킬 수 있다고 경고한다. 이는 책임 소재를 모호하게 만들고 전술적 실패 위험을 증가시킨다.
슬로베니아의 나타샤 피르크 무사르 대통령은 "세계는 전쟁의 디지털화가 진행되는 것을 목격했다"고 말했다. 그녀는 무장 드론과 로봇에는 양심이 없다는 점을 지적했다. 포르투갈 대통령은 "인간의 통제, 결정, 책임이 무력 사용의 핵심이 되어야 한다"고 역설했다. 이는 위임될 수 없는 도덕적, 윤리적, 법적 책임이다.
스위스 취리히 연방 공과대학 CSS 연구원들은 AI DSS 사용에 있어 다섯 가지 큰 도전을 지적한다.
1. 기술적 한계: 전장의 현실, 즉 불완전하거나 해상도가 낮은 데이터는 AI DSS 시스템의 성능을 떨어뜨린다. 고위험 환경에서 운영 신뢰를 구축하기 어렵다.
2. 조직적 위험: 상업용 제공업체에 대한 의존도가 높아지면서 데이터 제어 및 상호 운용성 위험이 발생한다. 클라우드 인프라의 취약성도 문제다.
3. 교리적 혼란: AI DSS의 통합은 전통적인 명령 구조와 충돌하며, 책임의 경계를 모호하게 만든다. 적절한 교육 없이는 과도한 의존을 초래할 수 있다.
4. 정치적·법적 질문: AI DSS는 국제 인도법에 따라 운영되어야 한다. 구별, 비례성, 군사적 필요성이라는 핵심 원칙을 준수해야 한다.
5. 전략적 종속성: 상업 시스템 의존도가 높아지면 국가 자율성이 훼손될 수 있다. 핵심 기능과 취약점에 대한 통제력이 저하될 위험이 있다.
몬트리올 대학교의 요슈아 벵지오 교수는 과학자들이 "사람들에게 해를 끼치지 않고 항상 우리의 지시에 따라 행동하는 AI를 설계하는 방법을 여전히 모른다"고 경고했다. 신뢰할 수 없는 AI는 악의적인 행위자에 의해 오용될 수 있다.
UN 토론은 이 기술의 가능성과 위험을 모두 강조했다. AI는 지뢰 제거, 분쟁 발생 식별 등 긍정적인 역할도 가능하다. 그러나 평화, 정의, 인류를 위한 AI를 형성할 수 있는 "창이 닫히고 있다"는 것이 구테흐스 총장의 최종 경고다.
AI DSS가 단순히 의사 결정을 가속화하는 것만으로는 충분하지 않다. 불확실성 속에서도 의사 결정이 정보에 입각하고 인간의 판단력을 유지하도록 하는 것이 진정한 과제다. 국제적 규제 합의가 시급히 필요하다. 우리는 지체 없이 행동해야 한다.