이 기사를 공유합니다

“인간이 이해 못 할 금융상품 만들어낼 가능성 있어”
“AI에 의한 위험은 예측 불가능…규제기관 설립해야”

ⓒ연합뉴스
유발 하라리 이스라엘 히브리대 교수 ⓒ연합뉴스
유발 하라리 이스라엘 히브리대 교수가 인공지능(AI) 기술이 재앙과 같은 금융위기를 일으킬 가능성이 있다고 전망했다. 하라리 교수는 9일(현지 시각) 영국 일간 가디언과 인터뷰에서 지난 2008년 세계 금융위기가 부채담보증권(CDO)처럼 극소수만 이해할 수 있고 그에 따라 적절하게 규제되지 않은 금융상품에 의해 초래됐다고 언급했다. 그러면서 "AI가 그것만이 이해할 수 있고 사람은 아무도 이해할 수 없는 새로운 금융 도구를 창조하기 시작하면 어떤 일이 벌어지겠느냐"고 우려했다. 하라리 교수는 "AI가 스스로 결정을 내릴 수 있고 스스로 새로운 아이디어를 만들어내며 스스로 학습하고 개발할 수 있는 최초의 기술이기 때문에 인류 역사상 기존의 모든 기술과 다르다"고 평가했다. 따라서 일반인은 물론 심지어 그 기술을 창조한 인간조차 AI의 모든 잠재적 위험성과 문제점을 예상하기 극히 어렵다고 지적했다. 그는 AI와 관련해 핵무기처럼 모두가 이해할 수 있는 크고 위험한 단일 시나리오는 없으며 "매우 많은 수의 위험한 시나리오가 있다"고 설명했다. 이어 "개별 시나리오 각각의 가능성은 상대적으로 작지만, 합하면 인류 문명의 생존을 해칠 수 있는 위협이 된다"고 경고했다. 따라서 하라리 교수는 AI 안전과 관련한 특정한 법·규제 조항을 만드는 것이 아닌 AI 발전에 따른 새로운 기술혁신에 신속하게 대응할 수 있는 규제기관 설립에 초점을 맞춰야 한다고 강조했다. 그는 "(AI의) 모든 위험성과 문제점을 사전에 예측할 수 없고 이에 대응하는 법을 사전에 만들 수 없다"며 "(AI의) 위험이 생기면 이를 식별하고 대응할 수 있는 강력한 규제기관이 필요하다"고 말했다. 이어 "의회를 통과할 때가 되면 시대에 뒤떨어지게 되는 매우 길고 복잡한 규제 조항을 만드는 것이 아니라 이런 규제기관 설립에 주력해야 한다"고 촉구했다. 지난주 미국·영국 등 주요 국가들은 AI 안전과 관련해 정상회의를 갖고 '블레츨리 선언'을 발표했다. 이는 고도의 기반 모델인 프런티어 AI가 잠재적으로 재앙적 위험을 초래할 수 있다는 데 동의하고 이에 대한 대응책과 정책을 세워 협력해야 한다는 내용을 담고 있다. AI 안전 정상회의에는 미국·영국 등 10개국 정부와 EU, 오픈AI·구글 등 AI 기업들이 참가, 첨단 AI 모델의 출시 이전과 이후 안전성을 시험하기 위해 협력하기로 합의했다. 또 영국은 지난 달 AI 안전 연구소 설치를 발표했으며, 미국도 비슷한 기관을 운영하겠다고 밝혔다. AI 기술을 이끄는 국가들이 우려를 나타내고 이와 관련해 뭔가 하기 위해 모였다는 점에서 하라리 교수는 "매우 중요한 한 걸음 전진"이라고 평가했다. 또 "가장 기대되는 점은 유럽연합(EU)·영국·미국뿐만 아니라 중국 정부도 선언에 서명했다는 점"이라며 "AI의 가장 위험한 잠재력을 억제하는 것은 세계적 협력 없이는 극히 어려울 것"이라고 덧붙였다.
저작권자 © 시사저널 무단전재 및 재배포 금지
관련기사