
인공지능(AI)의 군사적 활용을 규율하기 위한 법적 틀 마련이 국가적 과제로 부상하고 있습니다. 이러한 흐름 속에서 2026년 2월 발의된 「국방인공지능기본법」(안)은 국방 AI 도입의 체계화를 도모하는 것으로 보이나, 그 이면에는 자율살상무기체계(LAWS)의 개발 및 운용을 사실상 제도화하고 가속화할 수 있는 심각한 규범적 허점들을 내포하고 있어 매우 우려스럽습니다.
2026년, 국제사회는 특정재래식무기금지협약(CCW) 및 관련 정부전문가그룹(GGE) 논의를 통해 AI 무기체계에 대한 인간의 통제를 의무화하기 위한 결정적인 분기점에 서 있습니다. 대다수의 국가가 기술적 오작동 및 책임 귀속의 불분명함을 근거로 자율살상무기에 대한 법적 구속력이 있는 규범제정을 촉구하고 있는 상황입니다. 그러나 해당 법안은 이러한 국제적 흐름에 부응하기보다는, 오히려 규제 공백을 제도화하고 연구개발의 편의성을 우선시함으로써 국제 평화 규범으로부터 이탈하려 하고 있습니다.
인공지능 무기체계는 국제인도법의 핵심 원칙인 ‘구별의 원칙(Distinction)’과 ‘비례성의 원칙(Proportionality)’을 충족해야 합니다. 하지만 복잡한 전장 상황에서 기계적 알고리즘이 인도주의적 판단을 온전히 대체할 수 있는지에 대한 근본적인 의구심은 여전히 해소되지 않고 있습니다.
해당 법안이 명시하는 ‘인적 개입’이나 ‘안전성’ 등의 표현은 구체적인 이행 기제와 통제 방안이 결여된 추상적 수사에 머물러 있으며, 특히 ‘규제 특례’ 조항은 AI 무기 시스템에 반드시 적용되어야 할 엄격한 안전 및 인권 기준을 무력화할 수 있는 법적 근거로 남용될 소지가 큽니다.
피스모모는 본 보고서를 통해 「국방인공지능기본법」(안)이 초래할 수 있는 규범적 위기를 분석하고, 기술 만능주의에 매몰된 현재의 입법 방향에 대해 다음과 같은 전면적인 재검토를 제안합니다.
- 자율살상무기 금지 및 제한의 명문화: 인간의 통제를 벗어난 치명적 자동화 무기에 대한 명확한 한계를 법적으로 규정해야 합니다.
- IHL 적합성 평가의 의무화: 무기체계 개발 단계부터 국제인도법 준수 여부를 검증할 수 있는 엄밀한 심사 절차를 도입해야 합니다.
- 독립적·민주적 거버넌스 수립: 국방 및 산업 논리를 넘어, 인권과 윤리적 관점을 대변할 수 있는 시민사회와 학계의 실질적 참여를 보장하는 의사결정 체계를 구축해야 합니다.
피스모모는 본 보고서와 함께 제22대 국회의원 전원에게 해당 법안 관련 질의서를 발송합니다. 기술의 진보가 인류의 보편적 가치와 생명 존중의 원칙을 앞설 수는 없습니다. 본 보고서가 국방 AI의 법제화 과정에서 간과된 윤리적·인도주의적 책무를 환기하고, 인간으로서의 존엄에 대한 책임을 중심에 둔 제도가 만들어지기 위한 비판적 담론의 토대가 되기를 기대합니다.
2026년 4월 10일
피스모모 드림
구독자님의 시간을 소중히 여기는 마음으로,
모모레터를 받아보시며 느낀 의견을 여쭙니다.
짧은 설문이예요. 간단하게 응답 부탁드릴게요. 고맙습니다!
+그간 모모레터의 내용들은 아래 링크에서 보실 수 있어요!
이야기 형식으로 담아냈던 모모레터 아카이브 링크:
https://maily.so/peacemomo/c/momoletter
이슈를 알리며 공유했던 모모레터아카이브 링크:
https://maily.so/peacemomo/c/momoletter-2024
의견 남겨주신 분들 중 다섯 분을 추첨하여 피스모모의 선물을 보내드립니다!
평화도 기후도 걱정되는 모든 분들을 환영합니다:)
모모와 함께하고 싶은 분들을 회원으로 초대해요!
의견을 남겨주세요