이 기사를 공유합니다

사고 친 인공지능 로봇은 벌을 받을 수 있을까

인공지능을 가진 의자가 햇볕을 잘 받는 곳으로 스스로 움직였다. 그러나 그 의자에 앉은 사람은 의자가 옮긴 자리가 밝아 싫어할 수도 있다. 냉장고를 열고 무언가를 찾아 먹는 사람에게 냉장고의 인공지능이 “그만 먹으라”는 잔소리를 늘어놓거나, 혹은 문을 열어주지 않을 수도 있다. 의사 자신의 진단과 처방이 인공지능의 그것과 달라 어떤 것을 적용할지 고민이 될 수도 있고, 자율주행자동차의 운행 패턴이 사용자의 취향과 맞지 않아 짜증이 날 수도 있다. 

인공지능의 자율성이 높아지면서 인간과 인공지능 간 경쟁에서 발생할 수 있는 갖가지 우려들이 제기되고 있다. 마이크로소프트(MS) 창업자인 빌 게이츠 역시 향후 수 십 년 이내에 인공지능(AI)의 시대가 올 것이라 전망하며 그 위험성에 대해 경고했다. 많은 전문가들은 자율적인 인간지능의 활동이 인간과 갈등을 빚는 공간이나 영역이 다양할 거라고 본다. 사소한 불만족에서부터 재산 손실과 인명 피해 같은 심각한 경우까지 나타날 수도 있을 것이라고 진단하고 있다. 

LG경제연구원 진석용 책임연구원은 《인공지능의 자율성 SF의 주제가 현실의 문제로 다가오고 있다》라는 보고서를 통해 인공지능의 자율성과 그로 인해 발생할 사고들, 이에 대응하기 위한 방안 등에 대해 분석했다.

인공지능이 통제를 벗어난 사례는 속속 등장했다. 2007년에는 남아프리카공화국의 로봇 방공포가 갑자기 작동해 수 십 여명의 사상자를 냈다. 올해 상반기에는 자율주행 기능을 갖춘 자동차들이 여러 건의 교통사고를 냈고, 운전자가 사망에 이르는 사고도 있었다. 미국의 한 쇼핑센터에서는 서비스 로봇이 유아를 공격해 다치게 하는 사고도 발생했다. 

진 연구원은 이런 사고가 생기게 된 단초가 인공지능이나 로봇의 ‘충실한 역할 수행’에서 비롯된 것일 수도 있다는 것을 심각한 문제로 지적했다. 소프트웨어 오류 등 비정상적 원인으로 사고가 일어난 것이 아니라, 제대로 만들어진 인공지능들에 의해서도 사고가 발생할 수 있다는 것이다. 이는 인공지능들이 ‘자율성’을 갖게 되기 때문이다. 그리고 자율성이 높아질수록 인간의 기대와 통제를 벗어나게 할 확률이 높아지고, 사고로 연결될 가능성도 높아진다고 분석했다. 

인공지능의 자율성에 대해서는 논란이 많다. 과거에는 인공지능이 전문적인 영역에서만 사용됐지만 이제는 일상 영역으로 확대되면서 인공지능들도 진화했다. 인간의 개입 없이 스스로 판단하고 행동할 수 있다고 여겨질 만큼 발전한 것이다. 장병탁 서울대 컴퓨터공학과 교수는 인공지능이 인간을 지배할 수 있는 것이 논리적으로 가능하다고 봤다. 인공지능은 스스로 데이터를 찾아 배울 수 있으며, 인공지능이 더 뛰어난 인공지능을 만드는 ‘지능폭발’(Intelligence Explosion)도 가능하다는 게 장 교수의 지적이다.

장기적으로 인공지능에 대한 인간의 불안과 고민은 더 커질 것으로 예측된다. 이 때문에 최근 들어 인공지능과 로봇이 도입될 것을 대비해 관련 법규와 제도를 정비하려는 움직임이 늘고 있다. 보고서에 따르면 가장 신속하게 정비되고 있는 영역은 항공분야다. 민간용 드론의 증가 등으로 비행기 충돌을 비롯한 안전사고 우려가 커지면서 현실적인 대응책을 마련하는 게 절실해졌다. 그래서 미국 연방항공청(FAA)은 2016년 6월 말 민간용 UAV(무인 비행체)의 운항 규정을 확정해 발표했다. 

사고가 연달아 일어났던 자동차 분야도 마찬가지다. 미국이나 유럽 등 선진국들은 인공지능 자율주행자동차에 대한 정책적 가이드라인을 앞 다퉈 마련하고 있다. 아직까지는 각국에서 자동차의 인공지능 자율성을 크게 인정하지는 않고 있는 편이다. 자율주행 기능이 불완전한 데도 불구하고 사용자가 지나치게 과신한 결과라고 보는 것이다. 그러나 자율주행자동차와 관련한 정책의 방향은 국가별로 달라질 가능성이 있다. 한국과 일본 등은 자동운전 기능을 가진 자동차의 추월을 고속도로에서만 허용하고 자율주행기능도 단계적으로 도입할 방침인 것으로 알려졌다. 반면 미국은 2020년경까지 자율주행기능의 도입을 단번에 허용할 계획이라고 밝혔다.

인공지능이나 로봇 자체에 ‘법인격’을 부여하자는 논의도 확산되고 있다. EU의회가 펴낸 로봇 관련 보고서는 로봇에게 ‘전자인간’이라는 자격을 부여해 권리와 의무를 부과하자는 내용을 담고 있다. 형사정책연구원도 《법과학을 적용한 형사사법의 선진화 방안》 보고서를 통해 세계 각국의 ‘로봇 형법 도입 논쟁’에 대해 다뤘다. 만약 인공지능에 법인격을 부여하게 되면 사고가 일어났을 때 인공지능 로봇이 리셋(reset)되는 등의 처벌을 받는 일이 일어날 수 있다. 

그러나 인공지능에 인격을 부여하는 것은 아직 시기상조이고 다루기 복잡한 문제라는 주장도 있어서 논쟁은 계속될 것으로 보인다. 감정이 없는 인공지능의 특성상 처벌 가치가 없고, 형법이 정한 형벌의 종류를 인공지능에 적용시키기 어렵다는 게 이유다. 


저작권자 © 시사저널 무단전재 및 재배포 금지