이 기사를 공유합니다

인공지능 로봇 무기화 감시하는 상설 조직 만든 UN

 유엔지역간범죄처벌조사기관(UNICRI)은 10월3일 새로운 하부조직의 출범을 알렸다. 정식 명칭은 ‘Centre for Artificial Intelligence and Robotics’, 우리말로 풀면 ‘인공지능 로봇 센터’ 정도로 해석할 수 있다.  이 센터는 의미가 있는데 인공지능과 로봇이 확대될 것을 대비하는 초(超)국가적 단체가 처음 등장했기 때문이다. 센터는 네덜란드의 헤이그에 자리 잡는다. 유엔은 네덜란드 정부와 센터 개설을 위한 협정문 체결을 마쳤다. 가디언은 “유엔이 인공지능과 로봇의 도입에 따른 대량 실업과 전쟁 발발의 위협을 감시하는 상설조직을 설치해 운영하기로 했다”고 보도했다.  인공지능의 대중화로 생길 수 있는 대량실업은 정치적 개입이나 판단이 필요한 지점이다. 인공지능은 세계 경제의 중요한 자원이 될 수도 있지만 영화 ‘터미네이터’가 그리는 디스토피아처럼 인간을 탄압하는 적이 될 수도 있다. 정부보다 빠르게 인공지능을 적용하고 있는 민간에서는, 개발 속도에 점점 가속도가 붙을 경우 ‘분배’가 화두가 될 수 있는데 이것 역시 정치의 문제가 될 수 있다. 특히 인공지능을 탑재한 로봇이 무기로 사용된다면 윤리적 측면에 관한 논의가 필수적이지만 세계적으로 이런 과정은 절대적으로 부족하다.  
UN이 발족한 '인공지능 로봇 센터'는 인공지능과 로봇이 확대될 것을 대비해 등장한 최초의 초(超)국가적 단체다. © 사진=Pixabay

 

‘유엔지역간범죄처벌조사기관’ 아래 둔 ‘인공지능 로봇 센터’

 AI가 불러올 지도 모를 재앙은 현실이 될 수도, 아닐 수도 있다. 일론 머스크 테슬라 CEO는 재앙을 우려하는 대표적인 인물로 지금부터라도 AI 개발의 일정 부분을 통제하자고 주장하는 인물이다. 인공지능 개발을 민간에만 맡겨두지 말고 “정부가 개입해야 된다”는 게 그의 지론이다. 규제론을 싫어하는 실리콘밸리 출신이지만 AI는 오히려 정부의 규제가 필요하다고 여러 차례 공식적인 자리에서 발언했다. 인공지능 개발이 방치되는 것 자체가 인류에 대한 위협이라고 판단해서다. 그가 생각하는 최악의 결과는 아마도 기계가 인간의 주적이 되는 세상일 터다. 올해 8월, 유엔이 센터를 만들기 전부터 머스크와 생각을 함께하는 사람들은 이에 대한 대책을 유엔에 요구했다. 8월21일 116명의 로봇과 인공지능 전문가들은 유엔에 공개서한을 보냈다. 머스크를 포함해 서한에 이름을 올린 이들은 모두 세계적으로 저명한 학자나 전문가들이었다.  이들은 서한에서 ‘살인 로봇’의 개발을 방지할 수 있는 대책을 유엔에 요구하며 ‘부정적인 혁신’을 막아야 한다는 신념을 표현했다. 전문가들은 “전쟁에서 싸우는 방법에 ‘제3의 물결’이 일어날 수 있다. 무기를 위한 AI 사용을 금지해야 한다”고 유엔에 호소했다. 이들이 가장 우려하는 상황은 AI가 자율적으로 무기 사용을 판단하는 때다. “만약 한 번 개발돼 버리면, 전례를 찾아보기 힘들 정도의 무력 충돌을 이해할 수 없을 정도의 속도로 실행해 버리게 된다”는 게 이들의 의견이다. 이들은 “행동까지 남은 시간이 별로 없다”고 강조했다. 만약 판도라의 상자를 열게 되면 닫아버리는 것은 더 어려워지기 때문이다.  인공지능에 긍정적 혁신과 부정적 혁신이 있다면 이번에 유엔이 설립한 센터는 부정적 혁신에 초점을 맞췄다. 일단 센터의 상급 조직은 ‘유엔지역간범죄처벌조사기관’(UNICRI)이다. 인공지능 로봇의 무기화와 그에 따른 분쟁 가능성에 방점을 찍었다는 해석이 나온다. UNICRI의 이라클리 베리제(Irakli Beridze) 전략 자문관은 “여러 유엔 조직이 로봇과 인공지능에 관한 프로젝트를 추진하고 있고 자율로봇 무기에 관한 전문가 그룹도 활동하고 있다. 그러나 이런 모든 노력은 일시적인 것에 불과했다”고 말했다. 이번에 만들어진 센터는 과거와 달리 일시적이지 않고 상설 조직이라는 점을 강조한 발언이었다. 
미 해군이 개발한 X-47B 같은 드론은 인공지능이 조종사 역할을 대신해 첩보 활동이나 폭격 임무를 수행한다. © 사진=UPI 연합

 

인간의 결정 대신 알고리즘이 선택하는 살상

 유엔은 AI 로봇의 무기화 문제에 대한 대처법을 이전부터 검토해 왔다. 2015년 스티븐 호킹과 애플의 공동창업자인 스티브 워즈니악 등이 포함된 1000여명의 과학자와 엔지니어들이 인공지능 로봇의 무기화를 경고하는 공개서한을 보냈다. 다음 해인 2016년 유엔은 탱크와 드론, 자동기관총을 포함해 로봇과 AI를 이용한 무기를 어떻게 처리할 것인지 투표에 부쳤다. 당시 123개 회원국 중 ‘완전 금지’에 찬성한 곳은 겨우 19개국에 불과했다. 인공지능 로봇의 무기화는 미국과 영국, 중국, 러시아 등 강대국들이 중심이 돼 이루어지고 있는데 이들은 모두 완전 금지에 손을 들지 않았다. 인공지능 로봇의 위험은 현실화된 살상으로 고조되고 있다. 대표적인 게 공격형 드론이다.  미 해군이 개발한 X-47B 같은 드론은 인공지능이 조종사 역할을 대신해 첩보 활동이나 폭격 임무를 수행한다. 드론의 공격을 받는 대상은 인간의 결정이 아니라 알고리즘이 선택했다. 전쟁에서 사람을 죽이는 행위는 인류가 해결해야 할 영원한 과제다. 이것조차 아직 풀지 못한 상황에서 인공지능이 사람을 죽이는 문제는 윤리적으로 더 큰 무게를 느끼게 한다. 상설화된 ‘인공지능 로봇 센터’가 다뤄야 할 주제는 이처럼 크고 무겁다. “유엔이 추구하는 지속 가능한 개발 목표에 새로운 기술이 기여할 수 있는 방안을 탐구해 갈 것이다. 구체적인 프로젝트를 시작할 예정이며 결코 구상만으로 끝나지 않는다”는 게 센터 측의 각오다.  
저작권자 © 시사저널 무단전재 및 재배포 금지