실시간 대화에 작곡까지… 서울대, ‘2020년도 가을 AI 콜로퀴움’ 12월까지 온라인 개최

[한경잡앤조이=이도희 기자/이소현 대학생 기자] 여론조사기관 한국IDC가 발간한 ‘국내 인공지능 2019~2023 시장 전망’ 연구 보고서에 따르면 국내 인공지능 시장은 향후 5년간 연평균 17.8% 성장해 2023년에는 6400억원 이상의 매출 규모를 형성할 것으로 보인다.
학계 역시 인공지능의 폭넓은 응용 가능성에 대해 주목하고 있다. 서울대 AI연구원은 9월 17일부터 ‘2020년도 가을 AI 콜로퀴움’을 개최해, 다양한 인공지능 서비스를 개발 중인 AI 전문가들의 강연을 바탕으로 학계 내 인공지능 연구의 새로운 방향성과 발전 가능성을 모색하고 있다.
실시간 대화가 가능한 인공지능강연의 선두주자는 김건희 서울대 컴퓨터공학부 교수가 맡았다. 김 교수는 지난달 17일 처음으로 열린 콜로퀴움에서 ‘동영상을 이해하면서 참여자와 실시간으로 대화를 지속할 수 있는 AI 시스템 연구’라는 주제로 강연을 진행했다.
강연에서 김 교수는 갤럭시 시리즈의 ‘빅스비’ 등 스마트폰 내 인공지능처럼, 사용자와 인공지능의 대화를 기반으로 서비스가 제공되는 대화 시스템의 문제점을 지적했다. 김 교수는 “현재 대화형 인공지능은 대화의 일관성을 유지하는 게 여전히 어렵고, 사용자와 인공지능 간 이뤄지는 대다수 발화가 구체성이 없거나 아주 일반적인 내용인 경우가 많다”라고 짚었다.
문제점을 해결하기 위해 김 교수와 연구팀은 ‘자의식이 있는’(Self-Conscious) 인공지능의 모델을 소개했다. 김 교수는 “해당 모델의 핵심은 인공지능이 대학에 다닌다거나, 디즈니 영화와 애니메이션 시청을 즐기는 등 진짜 사람처럼 자의식을 가진다는 것”이라며 “인공지능은 이처럼 자신에게 부여된 인간적인 특징들을 조합해서 답변을 위한 문장을 만든다”며 “서비스를 이용하면서, 사용자가 눈앞의 사람과 대화를 하는 것 같은 느낌을 받을 수 있도록 하는 것이 특징”이라고 말했다. 김 교수는 해당 모델이 기존에 이미 제공되고 있던 인공지능 서비스들에도 사용 가능하다며 연구의 실용 가능성을 긍정적으로 검토했다.
인공지능, 음악 작곡가가 되다작곡을 할 수 있는 인공지능도 개발되고 있다. 8일에 열린 강연에서 이교구 서울대 융합과학기술대학원 교수는 ‘인공지능의 음악적 소양’이라는 주제로 인공지능이 음악과 인간의 감성을 이해하고 음악을 변형 및 창작하는 과정을 소개했다. 강연의 핵심은 인공지능이 어떻게 음악의 변형과 창작의 영역과 연결 가능한지에 있었다.
이 교수는 “최근 학계는 음악 인식이나 추천 서비스를 정교화하기 위한 연구뿐 아니라, 음악을 작곡하거나 기존에 창작된 음악을 변형할 수 있는 인공지능 서비스까지도 고안하기 위해 연구를 활발히 진행하고 있다”며 “소니(SONY)라는 회사에서 만든 디지털 음악을 통해 쇼팽의 곡을 바흐의 스타일로 재해석하는 인공지능이나, 구글(Google) 연구팀이 만든 음악 및 소리 합성이 가능한 인공지능 서비스가 그 사례”라고 설명했다.
이어 이 교구 교수는 자신이 운영하는 융합과학기술대학원 내 음악오디오 연구실에서 개발 중인 ‘인공지능 가수’(AI Singer) 프로그램을 소개했다. 이 교수는 “주어진 악보나 가사의 정보를 이용해 음정과 박자를 제어할 수 있는 가창 음성을 인공지능의 목소리 형태로 자연스럽게 구현하는 것이 연구의 핵심”이라고 밝혔다. 이 교수에 따르면 해당 인공지능 음성은 여러 가수의 목소리와 여러 가지 언어를 구사할 수 있기에, 외국어 노래를 한 번도 부르지 않았던 기존 가수들의 노래도 다양한 외국어 버전으로 변형 가능하다.
인공지능을 향한 관심이 날이 갈수록 높아지는 요즘, AI 콜로퀴움은 이처럼 인공지능을 바라보는 다양한 관점과 연구를 접할 기회를 제공하고 있다. 콜로퀴움은 격주 목요일 오후 5시마다 유튜브 플랫폼을 통해 12월 10일까지 진행될 예정이다.
tuxi0123@hankyung.com
상단 바로가기