끝나지 않는 전쟁 소식으로 인류애가 위험해질 때마다 일부러 기억해 내는 일화가 있다. 뤼드허르 브레흐만이 그의 책 '휴먼카인드'에서 소개한 미국 남북전쟁 이야기다. 게티즈버그 전장에서 회수된 2만 7000여 정의 머스킷 총을 조사한 결과 90퍼센트가 여전히 장전되어 있었다. 약 1만 2000여 정의 소총이 이중 장전되어 있었고, 그중 절반은 삼중 장전되어 있었다. 머스킷 총은 한 번만 장전할 수 있도록 설계되었다. 군사들은 모두 충분한 군사훈련을 받은 상태였다. 왜 이런 일이 벌어졌을까.
오랜 연구를 통해 역사학자들은 병사들이 총을 쏘지 않기 위해 총을 장전했음을 알게 되었다. 병사들은 적군에게 방아쇠를 당기지 않을 변명거리가 필요했다. 머스킷 총은 장전하는 데 복잡한 절차가 필요했으므로, 장전에 시간을 허비해도 그리 이상하지 않았다. 그렇게 머스킷 총은 이중, 삼중, 심지어는 23발의 총알이 장전되었다. 병사들은 장전한 총을 재차 장전했다.
그러나 브레흐만은 남북전쟁의 일면만을 소개했다. 남북전쟁이 시작되자 리처드 개틀링은 현대 기관총의 전신인 개틀링 기관총을 발명했다. 장전 과정이 자동화되었다. 개틀링 기관총은 분당 300발 이상을 발사했다. 머스킷 총은 잘 훈련된 병사도 분당 세 발을 쏠 수 있을 뿐이었다. 리처드 개틀링은 의사였고, 그는 전장의 청년들을 구할 수 있기를 바라는 마음으로 개틀링 기관총을 발명했다. 개틀링 기관총은 무기 자동화 역사의 시작점이 되었다.
오늘날 전쟁은 기술 실험실이 되었다. 이스라엘은 팔레스타인 폭격에 인공지능을 쓴다. 라벤더라는 이름을 가진 이 인공지능은 3만 7천여 명의 ‘타깃’을 학습했고, 10% 정도의 오류율을 보이는 것으로 알려져 있다. 인공지능은 타깃을 인간 병사에게 ‘추천’하고, 병사가 이를 승인하면 폭격이 이루어진다. 병사가 타깃 확인에 쓰는 시간은 20초.
인간의 최종 의사결정 없이 인공지능이 자체 ‘판단’으로 ‘적’을 공격한 사례도 발생했다. 올해 3월, 우크라이나 제60기계화여단의 인공지능 드론은 자체 ‘판단’으로 적을 공격했다. 교전 중 드론과의 교신이 끊겼을 때 드론이 독자적으로 살상하도록 프로그래밍 되어 있었기 때문이다.
우리는 기술이 살상을 효율화한다는 설명을 듣는다. 기술 덕분에 아군의 피해를 줄이고, 적을 정확히 지정, 정밀타격할 수 있다는 것이다. 두 명보다는 한 명이 죽는 게 낫고, 아군보다는 적군이 죽는 게 낫다는 논리는 인간을 잘 죽일 수 있는 기술을 개발하는 모든 행위를 정당화하려 시도한다. 그러나 어떤 미사여구도 전쟁을 정당화하지 않는다.
9월 10일과 11일, 한국 정부는 인공지능의 책임 있는 군사적 이용에 대한 고위급 회의를 서울에서 개최한다. 각국 정부와 국제기구, 싱크탱크가 모여 ‘인공지능의 군사적 사용’에 대해 논의하는 최초의 국제회의다. 이 자리에서 한국 정부가 군사 분야 기술의 책임 있는 개발과 이용을 위한 비전과 노력을 보여주길 바란다.