[커버스토리=한국의 AI 프런티어들에게 듣는다] - 조성배 연세대 컴퓨터과학과 교수 인터뷰
“‘포스트 딥러닝’으로  미래 인공지능 시대 대비해야”
[한경비즈니스=이현주 기자] “인공지능(AI)의 방법적 측면에서는 ‘딥러닝’ 이후 천하 통일을 이루는 분위기입니다. 기계 학습, 지각 인식, 논리 추론 등 다양한 접근을 통해 AI를 구현해 보려는 시도가 있었다면 인간의 두뇌 구조를 본뜬 신경망의 딥러닝으로 더 좋은 결과가 나오면서 각광 받고 있어요. 하지만 어느 한 가지 방법으로는 지능을 온전히 모방할 수 없다는 게 AI 연구의 어려운 점입니다.”

30년 넘게 AI를 탐구해 온 조성배 연세대 컴퓨터과학과 교수는 “AI 연구는 끊임없이 제약을 극복하는 과정이었다”고 설명했다. 그는 “영화 속 AI는 인류의 벗으로 경외감을 주거나 혹은 적으로 등장해 공포감을 안겨 줬지만 의식하지 못할 뿐 이미 우리 일상에서 AI는 흔히 사용되고 있다”고 말했다.

기술 진보했지만 ‘빙산의 일각’에 불과해
조 교수는 학계에서 AI 관련 논문을 가장 많이 쓰는 연구자로 이름나 있다. 30년간 써온 논문 수만 1000편 이상이다. 그의 연구 궤적을 요약하면 ‘하이브리드 AI’라는 방향성을 갖는다. 하이브리드 AI는 다양한 방법론을 통합해 인간의 지능을 컴퓨터에 심는 방식이다.

AI 기술은 기본적으로 ‘인간지능의 본질을 규명하고 이를 인공적으로 재현하려는 기술’이다. 대담하게 해석하면 ‘인간처럼 생각하고 감정을 가지며 창의성을 발휘하는 기계를 만드는 기술’이라고 할 수 있다.

인간의 지능을 닮는 게 목표라면 지능의 정의와 접근법은 시대에 따라 달라졌다. 컴퓨터가 발명된 이후 60여 년간 지능을 인공적으로 재현해 보기 위해 누군가는 논리학, 또 누군가는 확률을 대입했다. 한편에선 규칙 기반 시스템이나 전문가 시스템으로 구현하려고도 했다. 한때는 퍼지 논리나 카오스, 유전자 알고리즘이 대안으로 떠올랐다.

조 교수는 “어느 것도 지능을 완벽하게 구현하는 데 성공하지 못했지만 각 방법이 나름대로 지능의 특성을 설명하는 데는 유용한 결과를 남겨 왔다”며 “궁극의 AI에 대해 아무도 정답을 모르기 때문에 기존 방법의 장단점을 활용해 현재의 한계점을 극복해 보려는 시도를 하고 있다”고 말했다.

2020년 AI 열풍은 전 사회적으로 확산되고 있다. 조 교수는 AI의 현재의 기술 수준에 대해 ‘빙산의 일각’이라고 표현했다. AI는 크게 인간처럼 자의식이 있는 ‘강한 인공지능’과 특정 문제를 인간처럼 해결하는 ‘약한 인공지능’으로 구분해 볼 수 있다. 조 교수는 “현재 거론되는 AI는 대부분 약한 인공지능을 의미한다”며 “사람과 똑같은 자아를 갖는다거나 의식을 갖는 존재는 아직까지 실마리를 얻은 바 없다”고 말했다.

“단지 착각을 불러일으키는 겁니다. 알파고가 세상을 놀라게 했지만 결과만 보면 알파고가 내부적으로 어떻게 작동하는지는 알 수 없어요. 인간 최고수보다 더 잘 두는 프로그램이니 제삼자가 봤을 때 고도의 전략과 지능을 가진 것처럼 보입니다. 하지만 기존 바둑 프로그램에 ‘정책망’과 ‘가치망’이란 이름의 신경망을 설계하고 딥러닝을 통해 최적 값을 구하는 방법 등을 사용해 ‘고도의 의사결정을 하는 것처럼 보이는 시스템’을 만든 것일 뿐 실제 지능의 메커니즘을 실현한 것은 아닙니다.”

여기에 딥러닝의 한계도 존재한다. 먼저 의사결정의 근거를 설명할 수 없는 문제다. 물론 딥러닝을 통한 AI가 특정 분야에서 사람보다 더 뛰어난 결과를 낸다는 것은 여러 차례 입증되고 있다. 일례로 AI 의사 ‘왓슨’의 진단 기술은 전문의 수준과 비슷하거나 뛰어넘는다는 평가를 얻는다. 문제는 AI가 왜 그러한 결정을 내린 것인지에 대해 이유를 설명하지 못한다는 것이다. 방대한 데이터에서 암시적 지식을 추출해 판단하는 AI는 결과만 알려줄 뿐이다. 이러한 점을 극복하는 ‘설명 가능한 인공지능(Explainable AI)’이 최근 부상하고 있다.

공정성에 대한 문제도 제기된다. 딥러닝 방식으로 만든 얼굴 인식 시스템에서 발견된 오류다. 미국 뉴욕의 한 흑인 프로그래머는 자신의 여자 친구를 AI가 고릴라로 자동 분류한 사진을 트위터에 올려 공개 비판을 받은 적이 있다. 데이터 기반의 연봉 예측 AI는 남성보다 여성의 연봉을 더 낮게 예측하기도 했다. 이와 같은 기계의 ‘편향’에 대해 책임론이 불거진다. 조 교수는 “사람이라면 책임자가 있지만 자동화된 프로그램으로 만들어진 AI는 컨트롤하는 게 어려워진다”며 “어느 정도 성능이 진보하고 난 뒤 윤리와 투명성과 같은 다양한 이슈들을 생각하는 단계가 됐다”고 말했다.

다른 분야와 만나 고부가 가치 형성
조 교수는 “앞으론 ‘포스트 딥러닝’에 대비해야 한다”고 강조했다. 조 교수가 하이브리드 AI 연구에 초점을 맞추는 것도 같은 맥락이다. 방대한 데이터가 없더라도 잘 작동할 수 있도록 논리적 추론을 적용하고 설명 가능한 AI를 통해 ‘왜’에 대한 대답을 낼 수 있어야 한다. AI를 잘 만들기 위해서는 인간의 지능을 아는 것도 중요하다. 인지과학·뇌과학 등 인간 지능의 근원을 탐구하는 노력도 함께하고 있다.

AI에는 상반된 두 시각이 공존한다. 세상을 바꾸는 핵심 기술로 꼽히면서 동시에 기계에 지배당할지도 모른다는 공포를 자아낸다. ‘명과 암’이 동전의 양면처럼 존재하는 가운데 AI와의 ‘공존’에 대해 논의를 확대할 필요성이 제기된다.

조 교수는 무엇보다 ‘의존성’을 경계했다. 그는 “특정 분야에서 AI가 사람보다 더 낫다고 할 때 자동화된 방법으로 오용과 남용을 할 수 있다”며 “의존이 심해졌을 때 오작동을 일으킨다거나 제삼자가 악의를 가지고 개입했을 때 그만큼 부작용이 심해질 것”이라고 말했다. 그는 “적절한 도구로 활용할 필요가 있다”고 강조했다.

“저는 AI를 도구라고 생각합니다. 본질만 놓고 보면 수준의 차이만 있을 뿐 인류가 만들어 온 자동화된 도구와 다르지 않습니다. 그래서 어떻게 사용하느냐에 따라 도움이 될 수도 있고 해로울 수도 있습니다.”

이는 일자리 문제와도 연결된다. 조 교수는 “사람의 일자리를 뺏을 수 있는 기술이기도 하지만 영리하게 활용하면 사회 문제를 해결하는 데 유용하게 쓰일 수 있다”며 “‘AI 가전’이 대표적이고 어떤 식으로든 인간의 동반자로서 정서적 고립감과 외로움을 해결한다든지 우리 사회를 좀 더 건전하게 만드는 제3의 존재가 될 수 있다”고 말했다. 그는 “그렇게 된다면 인류에게 도움이 되고 없어서는 안 될 존재가 될 것”이라고 덧붙였다.

알파고나 왓슨 이후 현재까지 ‘킬러 애플리케이션’이 나오지 않고 있는 점도 주목할 부분이다. AI의 딜레마다. 조 교수는 “AI 기술은 플랫폼이나 백본(근간)에 가깝다”고 설명했다. 그는 “AI 자체로 존재하기보다 다른 분야와 만나 더 큰 파급력을 가질 수 있어 다양한 전공과 직업에서 AI를 어떻게 활용하느냐가 관건이 될 것”이라는 얘기다.

“미래 기술로 AI가 압도적인 인기를 누리고 있는 것은 사실입니다. 하지만 사물인터넷(IoT)이나 블록체인 등 다른 기술과 어우러졌을 때 고부가 가치를 갖게 될 겁니다. 쏟아지는 데이터를 고효율로 정확하게 분석하거나 처리할 수 있는 방법론으로 AI를 활용하면 도움을 받을 수 있습니다. 경제·사회·문화·정치 등 다양한 분야에서 기존의 주먹구구식 직관보다 더 효율적인 객관적 의사결정의 도구로 AI를 활용한다면 경쟁자보다 앞서 나갈 가능성이 높다고 봅니다.”
charis@hankyung.com

[한국의 AI 프런티어들에게 듣는다 커버스토리 기사 인덱스]
-서정연 서강대 교수, AI의 힘은 ‘의사결정 능력’…‘자연어 처리’ 기술 키울 때
-박상규 ETRI 부원장 “AI는 ‘플랫폼 경쟁’…승자 독식 시장에서 이겨야 한다”
-조성배 연세대 교수 “‘포스트 딥러닝’으로 미래 인공지능 시대 대비해야”
-이성환 고려대 교수 “AI 시대에 한발 늦은 한국…제조업 기술에 특화한 ‘선택과 집중’ 필요”
-인공지능 전쟁은 곧 인재 전쟁…모자란 AI 인력에 해외로 눈 돌리는 삼성·LG



[본 기사는 한경비즈니스 제 1268호(2020.03.16 ~ 2020.03.22) 기사입니다.]