4차 산업혁명 향한 인공지능의 큰 발걸음
시사저널·시사저널e 공동주최 ‘제2회 인공지능 컨퍼런스’로봇 친구들이 다가온다
2016-10-04 노경은 시사저널e. 기자
9월28일 서울 용산구 그랜드하얏트호텔에서 시사저널·시사저널e(이코노미) 공동주최로 열린 ‘제2회 인공지능 컨퍼런스 - 인공지능, 로봇을 깨우다’에서는 최근 이슈로 떠오른 인공지능과 관련해 인류의 미래에 대한 고찰이 이뤄졌다. 이 분야의 국내외 석학 및 전문가들은 인공지능이 영화에서처럼 가까운 미래에 인간을 위협하는 정도는 아니라고 진단하면서도, 4차 산업시대의 핵심기술인 인공지능으로 유토피아를 만들기 위해선 미래 변화에 대한 연구와 논의가 시급하다고 입을 모았다.“인간의 인지기술은 정확하지 않다. 뇌는 일부 정보를 취합해 주관적으로 판단할 뿐이다. 반면 인공지능은 다양한 특징을 데이터화해 학습하는 만큼, 인간의 인지적 한계를 뛰어넘을 수 있다. 인공지능은 인간의 한계를 메울 것이다.”
인간 지능의 한계, 인공지능과 로봇이 메워
이날 포럼은 오전 9시부터 시작해 오후 5시 넘어서까지 계속됐다. 장시간에 걸친 강연 도중에는 작은 아이디어로 큰 비즈니스를 만드는 예시를 비롯해 질의응답이 끊이지 않았다. 이날 기조연설자로 나선 막스프랑크연구소의 하인리히 불토프 소장은 인공지능 ‘알파고’와 이세돌 9단의 세기의 대국을 예시로 이야기를 풀어나가며 인간과 인공지능의 인지기술 차이점에 주목했다. 그는 “인간은 알파고가 못하는 바둑알 모양의 인지나, 농담을 이해하는 것 등이 가능하다”고 인간의 일부 능력을 높게 평가하면서도, 인지기능에 있어서만큼은 알파고의 수준을 극찬했다. 그는 “알파고는 대국에서 사람이 할 수 없는 움직임으로 인공지능의 완벽함을 보였다”고 설명했다. 불토프 소장은 “사실 인간의 뇌는 정확하게 작동하지 않는다. 뇌는 몇 개의 정보만 가지고 추론을 하고 주관적인 인식을 하는 방식”이라고 말했다. 인간의 뇌는 복잡한 모양이나 형태를 연산할 능력이 없다는 게 그의 주장이다. 때문에 사람의 얼굴 가운데 특색을 나타내는 눈썹·눈 등 일부 모습을 가려만 놔도 인간은 인지하지 못하는 경우가 다반사다. 반면 인공지능은 수백만 가지 예시를 로봇에 입력해 훈련시키며 지능을 개발하기 때문에 정확한 파악이 가능하다고 그는 덧붙였다. 불토프 소장은 인간 지능이 가진 한계를 전하면서 이를 인공지능과 로봇이 메워줄 가능성을 내비쳤다. 그는 “인공지능은 인간의 주관적인 인식능력을 개발, 학습할 수 있다. 또 인간 시야는 2도 정도에 불과하지만, 로봇은 어떤 물체를 인식하고 기억할 때 다양한 각도에서 보고 모양을 인식하는 게 단시간에 가능하기 때문에 각각의 다른 사물을 바로 구별할 수 있다”고 말했다. 인공지능이 인간의 인식과 행동시스템적 한계를 해결할 수 있다는 것이다. 뒤이어 두 번째 기조연설자로 나선 인공지능 분야의 세계적 석학 다케오 가나데 카네기멜론대 교수는 도입을 앞두고 있는 일상 속 인공지능의 구체적 기술 소개로 강연을 이끌어 나갔다. 그의 연구소에서 개발한 기술은 자동차 헤드라이트(전조등)를 켜고도 눈부심을 방지할 수 있는 기능이다. 가나데 교수는 “다수의 자동차 드라이버는 눈이나 비가 올 때 전조등 때문에 눈부심 현상을 경험했을 것이다. 눈부심이 심한 이유는 물방울이 빛을 반사하기 때문이다. 다시 말해 전조등 빛이 물방울을 치면 다시 반사돼 빗방울이 나에겐 불빛처럼 보이게 된다. 다행히 물방울에 따른 눈부심은 인공지능 기술 도입으로 현재 70~80% 예방 가능한 단계”라고 말했다. 가나데 교수는 눈부심을 방지하기 위해 개별 빛줄기를 조절하는 방법을 고민했다. 먼저 카메라로 비의 사진을 정밀하게 찍어서 물방울이 떨어지는 위치와 속도를 인공지능을 활용해 분석했다. 그리고는 여러 개로 쪼갠 빛을 비나 눈이 떨어진 바로 직후, 물방울이 없는 공간에만 쏘는 방식을 취했다. 이처럼 물방울이 없는 곳에 쏘는 빛의 조각들이 전체 전조등 빛을 구성하면 눈부심을 방지하게 되는 원리다. 그는 “초기 모델을 만들었다”며 “곧 도입을 앞두고 있는 상태”라고 밝혔다.“인공지능도 시각정보 해석 중요”
기조연설에 이은 본격적인 세션이 이어졌다. 앞서 언급한 두 연설자가 인공지능의 구체적 사례에 주목했다면, 세션1의 발표에 나선 김진형 지능정보기술연구원장은 인공지능에 관한 총론에 초점을 맞췄다. 그는 인공지능이란 개념은 70년 전부터 거론되던 것으로 새로운 것이 아니지만, 최근 들어 그 발전 속도가 예측보다 훨씬 빨라지고 있다고 판단했다. 김 원장은 “3~5년 이상 걸릴 것으로 예상됐던 기술이 1년 만에 등장할 정도로 시장이 지난 1년 사이 빠르게 성장했다”고 진단했다. 이어 김 원장은 향후 인공지능을 바탕으로 한 4차 산업혁명이 인간의 삶을 크게 바꿔놓을 것이라고 강조했다. 그는 “지금까지의 산업혁명은 단순히 육체노동을 자동화한 것이었던 반면, 4차 산업혁명은 정신노동을 자동화한다는 점에서 더욱 큰 의미가 있다. 예를 들어 아기 기저귀에 인공지능기술을 접목해 습도의 기능을 체크하고, 일정 습도 이상이 되면 교체 시기가 됐다며 스마트폰으로 알림을 해 주는 기저귀도 머지않아 도입될 것”이라고 밝혔다. 그는 “인공지능의 산업화를 위해선 소프트웨어 경쟁력 확보가 필수다. 패러다임 변화에 선제적으로 대응해야 한다”고 조언했다. 세션2에서는 이성환 고려대 뇌공학과 교수가 ‘인공지능 속 시각정보 해석의 중요성’에 대한 강연을 이어갔다. 이 교수에 따르면, 최근 인공지능 분야에서는 딥러닝을 통한 영상질의 응답 연구가 화두로 떠올랐다. 인공지능 시스템이 응답하기 위해서는 질문 이해가 필수적이다. 그리고 이 과정에서 영상인식이 필수적이다. 이 교수는 “인간이 태어나서부터 외부에서 받아들이는 지식의 80%는 시각정보”라며 “시각정보가 있기 때문에 인간이 지식을 쌓을 수 있듯이 인공지능에서도 시각정보 해석이 중요하다”고 지적했다. 학계에서는 오래전부터 기계의 영상인식을 공격적으로 연구하고 있다. 데이터망을 통해 이미지 자료를 모아두고 인공지능이 올바르게 분류하는지 테스트하는 식이다. 이미지 인식 기계학습 기술을 겨루는 경연대회인 ILSVRC에는 1000개의 서로 다른 카테고리의 샘플이 있다. 이 교수는 “다양한 사진을 두고 이것은 의자라고 분류한다고 치면 사람이 수작업으로 분류해도 100개 중 3개 정도는 틀린다”며 “현재 기술은 인공지능이 97.1%까지 맞히는 수준까지 성장했다”고 말했다. 다만 질의응답 분야가 인간 수준의 해석을 가능하게 하기 위해서는 아직도 갈 길이 멀다는 게 그의 설명이다. 이 교수는 “지금 수준은 단순 딥러닝을 바탕으로 영상을 보고 대답하는 정도”라고 밝혔다.“인간의 고독 해결해 주는 로봇 만들 계획”
최승진 포스텍 컴퓨터공학과 교수는 ‘창조하는 인공지능, 딥 제네러티브 모델의 가능성’을 소개했다. 최 교수는 “딥 제네러티브 모델은 한 개의 데이터를 기반으로 새로운 것을 만들어내는 것”이라며 “구두 한 켤레 데이터를 가지고 여러 디자인의 구두를 만들어낼 수 있고, 인공지능이 데이터를 이용해 작곡·글쓰기·디자인도 할 수 있다”고 덧붙였다. 세션3에서는 감정이 있는 소셜로봇을 주제로 논의가 계속됐다. 먼저 세계 최초로 상용화에 성공한 소셜로봇 ‘페퍼’의 아버지이자, 소셜로봇 개발업체 그루브X의 창업자인 하야시 가나메 박사는 최근 페이스북·라인·카카오톡과 같은 SNS가 남녀노소 불문하고 유행하게 된 사회현상의 원인을 ‘고독’으로 진단했다. 인류가 원시시대처럼 위협을 받는 상황에서 벗어나면서 현재는 고독만 남게 되고, 그 고독감을 해소하고 인정받고자 하는 모습에서 SNS 돌풍이 불었다는 것이다. 하야시 박사는 이러한 이유로 인해, 기술적으로 사람의 질병을 치유하는 것을 넘어 건강한 사람에게도 힐링을 제공할 수 있는 존재감을 갖춘 로봇을 현재 구상 중이다. 그는 “2019년께 사람 곁에 있으면 좋은 로봇을 내놓을 것”이라며 “고독을 해결해 주는 로봇을 만들 계획”이라고 밝혔다. 인간다운 로봇 구현을 위해서는 우선 인간을 이해하는 게 선행돼야 한다는 주장도 나왔다. 송세경 퓨쳐로봇 대표는 “4차 산업혁명시대에 소셜로봇이 각광받을 것”이라며 “사람들은 외로워서 이성이 아닌 감성을 가진 존재를 찾고 있다. 4차 산업혁명시대에 로봇 분야 발전의 관건은 인간을 얼마나 잘 이해하는지가 될 것”이라고 밝혔다. 이경일 솔트룩스(Saltlux) 대표는 기계가 학습한 것을 표현하는 단계로 기술이 진화하고 있다고 소개했다. 기존 기계학습은 미리 컴퓨터에 특징을 입력하고 데이터를 입력하는 것이었다. 그러나 최근에는 데이터를 학습하는 컴퓨터가 자율적으로 특징을 찾아내도록 하는 방법이 개발되고 있다는 설명이다. 이 대표는 “예를 들어 구글은 딥러닝 과정을 거쳐 사진 속 피사체의 특징을 파악한 인공지능이 피사체를 그리게 만들고 있다. 이 인공지능 시스템에 새나 특정 인물을 입력하면 지금까지 학습한 데이터를 통해 해당 대상을 그려낸다”고 말했다. 원래 창조는 인간의 영역이었지만, 인공지능은 이제 인간과 비슷한 방식으로 인간의 영역에 도전하고 있다는 설명이다.