이 기사를 공유합니다

챗GPT에게 묻기 전에 우리 스스로에게 먼저 질문 던져야 
“이미 활용되고 있는 문명이 진정 우리를 더 행복하게 했는가?”

최근 인터넷에서 많은 사람의 관심을 모은 사진이 있다. 미국의 도널드 트럼프 전 대통령이 경찰에 잡혀가는 모습과 함께 여러 버전의 사진 중에서 트럼프를 연행해 가는 경찰 중 한 사람이 현 미국 대통령인 조 바이든이었기 때문이다. 이 사진은 바로 비현실 상황을 실사처럼 그린 AI(Artificial Intelligence·인공지능)의 그림으로 밝혀져 우리를 놀라게 했다. 자신의 딥페이크 사진을 본 바이든 대통령은 깊은 우려를 표시하며 ‘AI에 대한 강력한 규제 필요성과 각 국가 간 공조’를 촉구하기도 했다. 11월1일(현지시간) 영국 블레츨리 파크에 미국·중국 등 28개국 대표들이 모인 ‘AI 안전 정상회의’는 전 세계가 AI의 위험성을 얼마나 심각하게 공유하고 있는지를 잘 보여준다. 이 자리에서 세계 각국은 “점점 고도의 능력을 갖춰가는 AI가 잠재적으로 파국적 피해를 초래할 수 있다”는 데 동의하고 이런 위험과 필요한 대응 조처에 서로 협력할 것을 다짐하는 ‘블레츨리 선언’을 발표했다. 말하는 인공지능 로봇, 식당에서 서빙하고 배달하는 로봇, 폭탄을 배달하는 드론, 운전자가 없는 자율주행차 등 그야말로 과거 SF영화에서나 보고, 상상했던 그 이상의 기술들이 이제 더는 놀랍지 않다. 그중에서도 앞으로 모든 영역에서 핵심적인 역할을 하는 것을 넘어, 세상을 재편하게 될 것이라는 예측을 가능하게 하는 것이 바로 생성형 AI ‘챗GPT’다.
ⓒEPA 연합
11월1일 영국 블레츨리에서 ‘AI 안전 정상회의’가 처음으로 열렸다. 이틀간의 정상회의는 내년에 출시될 것으로 예상되는 강력한 인공지능 모델에 대한 세계 각국의 우려를 표출했다. ⓒEPA 연합

“20년 안에 사람을 능가하는 똑똑한 AI 출현”

챗GPT는 마치 사람처럼 웹에서 가져온 대규모 그림·음악·사진·글의 다양한 데이터를 기반으로 텍스트를 인지하고 생성하도록 훈련되고 있어 더욱 주목받고 있다. 또 앞으로는 우리의 컴퓨터 작업이 컴퓨터 언어가 아닌 인간의 언어로 직접 대화하고 지시하게 된다니 그 높아진 편리성으로 인해 많은 사람이 흥분하고 있다. 벌써부터 이 챗GPT를 이용한 작업들이 우리 사회에서 화제를 모으는 동시에 우려 또한 자아내고 있다. 특히 인간의 고유 영역이라고 생각했던 창의성과 관련된 저작권을 더 이상 보호받기 어렵게 된다. 챗GPT의 능력은 정말 다양하고 놀라워서 멋진 그림을 그리기도 하고, 사진을 똑같이 모사하기도 하며, 사람 없이 AI 혼자 방송을 진행할 수도 있다. 문자 설명 없이 사진만 보여주고 요리법을 배울 수도 있으며, 신세대들의 유행어인 ‘존맛탱’(정말 맛있다는 뜻)의 답을 정확하게 유추, 해석하기도 한다. 특정 인물의 외모와 목소리를 입혀 다양한 언어로 이야기하도록 할 수도 있는데, 심지어 말하는 입 모양까지 흡사하게 만들어 거의 그 사람이 여러 언어로 이야기하는 것 같다. 그러나 한편 이렇게 목소리를 도용해 AI에게 학습시키면 그 가족에게 사기를 칠 수도 있을 것이다. 또 챗GPT를 이용해 ‘저자가 한 줄도 쓰지 않은 책’을 출판할 수도 있다. 저자가 내용을 모르는 책이라니! 벌써 인터넷에서는 자기가 좋아하는 가수의 목소리를 입혀 다른 가수들의 노래를 부르게 한 영상을 찾을 수 있다. 김덕진 IT커뮤니케이션 소장은 챗GPT는 역할극에 특히 능해 “‘누구처럼 생각하고…’란 질문을 던지면 좋은 결과물을 얻을 수 있다”면서 “사물을 ‘의인화’하기 좋아하는 사람의 특성 때문에 챗GPT는 우리 곁에 더 빨리, 그리고 가까이 올 수 있을 것”이라고 예측했다. 그러나 정작 챗GPT를 태어나게 해준 AI 대부인 제프리 힌튼 박사는 이번에 구글에서 사임하면서 AI 발전에 대한 위험성에 강력한 우려를 표명하고 있다. 힌튼 박사는 최근 국내 일간지와의 인터뷰에서도 “초지능(Super Intelligence)이 된 AI가 작정하고 우리를 속인다면 인류는 알아차릴 수도, 막을 방법도 없다”며 “그런 상황이 되기 전에 전 세계가 AI 기술을 통제해야 한다”고 위험을 경고했다. 게다가 그는 “늦어도 20년 안에 사람을 능가하는 똑똑한 AI가 출현할 것”이라고 예측한다. 그는 “AI는 분명히 다양한 산업 분야에 혁신적인 변화를 가져올 것이지만 아직 확인되지 않은 위험이나 의도하지 않은 결과에 초점을 맞춰 혁신과 안전, 윤리적인 고려 사항의 균형을 잡아야 한다”고 강조한다. AI의 진화가 다양한 사회적 위험을 불러올 수 있으며, 일자리가 사라져 대량 실업을 초래할 수 있고, 무책임한 가짜뉴스와 오픈 소스 AI 사기나 사이버 공격을 더 쉽게 해서 테러집단이나 독재정권에 악용될 수 있다는 것도 사실이다.  

챗GPT 연구 앞서 강력한 기준·규제부터

챗GPT는 어떤 질문을 하느냐에 따라 대답의 질이 달라진다고 한다. 그래서 질문을 잘 던질수록, 역할을 잘 줄수록 챗GPT는 인간을 더욱 잘 이해할 것이고 우리가 원하는 대답을 줄 것이라고 연구자들은 말한다. 그러나 질문을 하면 할수록 정작 우리가 AI에게 ‘우리 인간에 대한 정보를 주는 것’이란 생각이 드는 건 필자만의 걱정일까. 인간들이 던지는 다양한 질문이 쌓이면 결국 학습하는 인공지능인 챗GPT는 인간이라는 존재를 더 완벽하게 파악하게 되지 않을까. 챗GPT에게 묻기 전에 우리는 우리 스스로에게 먼저 질문을 던져야 한다. 세계 문화가 점점 하향 평준화되고 있는 마당에 챗GPT를 악용해 사적 욕심을 채우려는 어리석고 악한 무리를 막을 수 있을까? 혹자는 챗GPT 사용법을 잘 익힘으로써 더욱 생활이 편리해진다고 하지만, 실제 이미 활용되고 있는 내비게이션이나 키오스크 같은 문명이 진정 우리를 더 행복하게 했는가? 오히려 편리성으로 얻은 시간은 우리에게서 인간과의 소통을 빼앗아 가고 더 분주하게 하지는 않았는가? 그렇다면 챗GPT 역시 우리에게 ‘편리성’을 제공한다면서 오히려 ‘인간성’을 빼앗아 가지는 않을까? 우리가 챗GPT 앞에서 ‘편리함’을 목적으로 모든 약점을 스스로 노출한 후엔 결국 그들의 지배하에 놓이게 되는 것은 아닐까? 아마도 AI에게 우리의 치명적인 약점은 바로 우리가 가진 ‘인간성’일 것이다. 분명 챗GPT는 또 한 번 세상을 바꿀 것이다. 그리고 그것은 ‘변화’가 아니라 ‘전환’이겠지만, 그 전에 정말 많은, 진지한 고려가 있어야 한다고 생각한다. 지금이라도 챗GPT의 연구를 잠시라도 멈추고, 안전성과 윤리성에 집중하고 강력한 기준과 규제를 만들어야 한다. 그래서 기술기업은 AI 개발 과정을 투명하게 해서 사전 예방적인 규제와 잠재된 오용, 의도하지 않은 결과에 대한 안전장치를 만들어야 할 것이다. 대중 역시 AI 리터러시 교육을 통해 AI 발전의 혜택과 위험을 잘 알고 있어야 한다. 사실 그러고도 안전하지 않으며, 앞으로 무슨 놀라운 일을 보게 될지 모르겠다. 챗GPT가 인간을 도울 것인지, 아니면 인간을 도구로 삼아 지배하게 될 것인지는 지금부터 우리의 태도와 준비에 달렸다.
배정원 세종대 겸임교수 (보건학 박사)
배정원 세종대 겸임교수 (보건학 박사)
 
저작권자 © 시사저널 무단전재 및 재배포 금지
관련기사