[테크놀로지]-AI를 작게 만드는 기술이 부상…AI 전용 반도체로 구현 가능성 높여

[유성민 IT 칼럼니스트]삼성전자는 지난 1월 ‘그랑데 AI’를 선보였다. 그랑데 AI는 세탁기와 건조기를 위한 인공지능(AI) 기술이다. 사용 습관을 학습해 맞춤형 서비스를 제공하는 것이 특징이다. AI 습관 기억, AI 맞춤 세탁, AI 코스 연동 등의 서비스를 제공한다.
온디바이스 혁명…스마트 기기와 인공지능의 만남
그랑데 AI 출시는 AI 적용 범위가 일반 가전 기기로까지 확대되고 있다는 것을 알 수 있게 한다. 그리고 AI가 일반 기기에 담길 정도로 작아지고 있다는 것을 알 수 있게 한다. 삼성전자가 ‘온디바이스 AI(On-device AI)’를 언급했기 때문이다. 그랑데 AI를 클라우드 AI와 함께 온디바이스 AI를 결합해 구현했다고 밝혔다. 참고로 온디바이스 AI는 기기 자체 내에 AI를 구동하는 기술을 뜻하고 클라우드 AI는 클라우드를 통해 AI를 구현한다는 뜻이다.


온디바이스 AI로 이끄는 두 가지 추세
온디바이스 AI는 이미 몇 년부터 새로운 추세로 등장하기 시작했다. 시장 조사 전문 기관 가트너가 매년 발표하는 10대 유망 기술에서 이를 확인할 수 있다. 가트너는 몇 년 전부터 에지 컴퓨팅과 지능형 기기(intelligent things)를 소개해 왔다.


에지 컴퓨팅은 정보통신기술(ICT) 서비스 제공을 중앙에 있는 클라우드가 아닌 외곽에 있는 단말 기기에서 제공하는 개념적 기술이다. 혹은 클라우드와 대조를 이룬다는 점을 강조하기 위해 포그 컴퓨팅(fog computing)이라고 부르기도 한다. 클라우드는 한국어로 구름이고 포그는 안개를 뜻한다. 수증기가 위에 있으면 구름이 되고 아래에 있으면 안개가 된다. 수증기 위치에 따라 변하듯이 서비스를 제공하기 위한 컴퓨팅 활용 위치에 따라 클라우드와 포그로 나눈다. 참고로 네트워크 구조도를 그릴 때 거의 대부분은 중앙 부분을 위쪽으로 그리고 단말 부분을 아래쪽으로 그린다.


지능형 기기는 AI 지능이 결합한 기기다. 이를 동작하는 방법은 두 가지다. 클라우드 AI 혹은 온디바이스 AI로 구현할 수 있다. 혹은 그랑데 AI처럼 두 가지를 혼합한 형태로 제공할 수 있다.


가트너는 2018년 10대 유망 기술로 ‘클라우드에서 에지로(cloud to the edge)’를 뽑았고 2019년과 2020년에는 ‘강화된 에지(empowered edge)’를 10대 유망 기술이라고 전망했다. 이는 에지 컴퓨팅 비중이 커지고 있다는 것을 알 수 있게 할 뿐만 아니라 AI 구현 또한 이러한 추세에 맞춰 단말 기기에 구현된다는 것을 알 수 있게 한다. 가트너가 또 다른 추세로 주목하는 지능형 기기에서도 말이다. 정리하면 온디바이스 AI는 가트너가 소개한 두 가지 유망 기술이 결합돼 새로 주목받기 시작한 추세로 볼 수 있다.


그러면 클라우드 AI가 아닌 온디바이스 AI로 굳이 구현해야 하는 이유는 무엇일까. 세 가지 이유가 있다.


첫째, ‘개인 정보 보호’다. 클라우드 방식은 데이터를 수집해 중앙 서버에서 AI를 구동해 서비스를 제공한다. 이는 사생활 침해 위험이 있다. 데이터를 중앙에서 수집하기 때문이다.


대표적인 예로 ‘AI 스피커의 사생활 침해’를 들 수 있다. 작년에 AI 스피커 관련 사생활 침해로 세계적으로 논란이 됐었다. 기업은 AI 스피커를 통해 수집한 개인 음성 데이터를 음성 인식 향상 목적으로 직원을 채용해 AI 스피커의 음성 정확도를 판별하게 했다. AI 스피커가 인식한 것과 실제 음성 명령어를 대조하는 방식이었다. 물론 음성 인식의 정확도 향상 목적이기 때문에 개인 정보 침해 소지는 적다. 하지만 대부분 사람이 이에 관해 찝찝함을 느꼈다.


온디바이스 AI는 이러한 찝찝함을 없애준다. 사생활 논란이 있었던 AI 스피커를 다시 한 번 더 예로 들어보자. AI 스피커에는 화자 인식과 음성 명령어에 반응해 동작하는 기술이 적용돼 있다. 특정 목소리와 특정 명령어에 동작하도록 돼 있다. 그런데 해당 기술은 이러한 해당 기능은 고도의 정확도를 요구하지 않는다. 일치 여부만 판별하면 되기 때문이다. 참고로 이를 검증(verification)이라고 부르는데 특정 명령어를 이해하는 식별(identification)보다 구현 난이도가 낮다.


따라서 검증 기술은 온디바이스 AI로 구현된 것이 많은데 이는 사생활을 보호하게 한다. AI 스피커 앞에서 말하는 내용이 클라우드로 전송되는 것이 아니라 특정 명령어와 화자가 인식됐을 때 전송되기 때문이다.


솔직히 말해 모든 음성 데이터를 클라우드의 AI로 처리할 수 있는 수용 용량도 부족하다. 일상에서 모든 음성 데이터가 클라우드에서 처리해야 한다고 생각해 보자. 기업은 이를 위한 수용 용량을 확보하기 위해 스트레스를 받을 것이다.


이는 온디바이스 AI의 둘째 주목 이유에 해당한다. 온디바이스 AI는 클라우드 사용 부하를 줄여준다. 인터내셔널 데이터 코퍼레이션(IDC)에 따르면 2020년에는 44조 기가바이트의 데이터가 중앙 서버에서 처리될 것으로 전망된다. 고화질 영화 11조 개의 분량을 다운로드받을 수 있는 규모다. 온디바이스 AI가 이를 줄여준다면 중앙 서버에는 어느 정도 여유가 생길 것이다.


마지막 이유는 ‘실시간성’ 때문이다. 실시간성은 서비스 제공의 반응 속도를 뜻한다. 멀리 떨어져 있는 클라우드 서버보다 가까운 곳에 있는 기기에서 제공하는 서비스 속도가 더 빠를 수밖에 없다.


윌리엄메리대는 에지 컴퓨팅 방식과 중앙 서버 방식의 속도 차이를 확인하기 위해 인증 서비스를 가지고 반응 속도를 비교한 적이 있다. 시험 결과 에지 컴퓨팅 방식이 10배 정도 더 빠른 것으로 나타났다. 참고로 서버와 통신은 4세대 무선통신(4G)에 기반해 이뤄졌다. 이러한 연구 결과는 온디바이스 AI에서도 클라우드 AI보다 더 높은 실시간성을 제공해 줄 수 있다는 것을 알 수 있게 한다.


AI를 가볍게 하는 ‘딥러닝 알고리즘 경량화’
온디바이스 AI가 부상하게 된 배경을 살펴봤다. 그러면 온디바이스 AI를 뒷받침하는 기술은 무엇이 있을까. 크게 두 기술로 구분할 수 있다. ‘AI 알고리즘 경량화’와 ‘AI 전용 반도체’다.


AI 알고리즘 경량화 기술부터 살펴보자. 해당 기술은 말 그대로 AI 알고리즘을 경량화하는 기술이다. 그런데 이를 좀 더 엄밀히 말하면 딥러닝 알고리즘 경량화 기술이라고 말할 수 있다. 딥러닝은 사람의 기계 학습 일종으로 사람의 신경망에 기초해 만들어진 알고리즘이다. AI에 가장 많이 활용되는 알고리즘인데 AI 경량화라고 하면 딥러닝 경량화를 거의 지칭하는 경우가 많다. 딥러닝 알고리즘은 투입 값과 결과 값을 가지고 학습하는데 투입 값의 요인을 세분화하고 우선순위를 둬 여러 계층을 거쳐 어떻게 결과 값이 나오는지 분석한다.


따라서 딥러닝 알고리즘의 핵심은 요인과 계층을 줄이는 것에 있다. 투입 값 요인은 고려해야 할 것들이기 때문에 고려 요인 증가는 컴퓨팅 파워를 높인다. 계층 또한 마찬가지다. 특히 처리 시간과 연관이 있다. 계층의 크기는 거쳐야 하는 단계를 뜻하기 때문이다. 적은 계층은 더 적은 컴퓨팅 파워를 가지고 같은 반응 시간의 속도를 보이게 한다.


현재 많은 기업들이 딥러닝 경량화를 위한 연구를 진행하고 있다. 애플은 이미지 인식 분야에 딥러닝 경량화 연구를 추진하고 있다. 2018년 11월 AI 스타트업 퍼셉티오를 인수했는데 퍼셉티오는 온디바이스 AI 방식으로 이미지 인식 효율성이 높은 기술을 보유하고 있었다.


구글은 서비스 제공자가 딥러닝 경량화 알고리즘을 가지고 온디바이스 AI를 구현할 수 있도록 도와주는 개발 툴을 제공하고 있다. 2017년 11월 구글은 텐서플로 라이트를 선보였다. 텐서플로 라이트는 기존 개발 툴인 텐서플로와 다르게 소형 기기에도 구현할 수 있는 딥러닝 경량화 알고리즘을 제공하고 있다.


중국 알리바바도 딥러닝 경량화를 연구하고 있다. 작년 9월 모바일 뉴럴 네트워크(MNN)라는 딥러닝 경량화 알고리즘을 선보였다.


AI 전용 반도체도 온디바이스 AI 구현을 돕고 있다. 엄밀히 말하면 AI 전용 반도체도 딥러닝 전용 반도체라고 할 수 있다. 하지만 AI로 사용하는 이유는 딥러닝이 AI 분야에 거의 대부분 활용되는 추세이기 때문이다.


앞서 말했듯이 딥러닝은 여러 요인을 여러 계층으로 분석하는 알고리즘이다. 그러므로 여러 요인을 병렬적으로 한꺼번에 연산할 수 있는 구조의 반도체가 효과적이다. 그런데 기존 중앙처리장치(CPU)는 연산을 한 곳에 집중해 하나씩 직렬로 처리하는 방식이다. 이는 작은 요인에 많은 컴퓨팅 파워를 소모하게 해 비효율적이다. 그뿐만 아니라 직렬 방식은 처리 속도 또한 길게 한다.


이에 따라 그래픽처리장치(GPU)가 주목받게 됐다. 기존에는 게임 그래픽 처리를 위해 많이 활용됐다. 그래픽의 수많은 픽셀을 처리하기 위해 병렬적으로 처리하는 반도체인데 직렬 처리인 CPU보다 병렬 처리인 GPU가 더 효과적이었기 때문이었다.


따라서 GPU 선두 기업인 엔비디아는 GPU에 기반한 AI 전용 반도체를 출시했다. 현재 자율주행차 부분을 비롯한 영상 처리 분야에서 두각을 보이고 있다. 하지만 이러한 GPU만으로는 소형 기기에 AI를 구현하기에 불충분하다.


그래서 차세대 AI 전용 반도체인 뉴로모픽프로세서유닛(NPU)이 등장했다. NPU는 딥러닝만을 위해 고안된 반도체다. 딥러닝처럼 신경망 구조를 본떠 만들어진 반도체이기 때문이다. 딥러닝 구동에만 효율적으로 고안됐기 때문에 ‘AI 가속기’라고 부르기도 한다.


스마트폰은 GPU와 함께 NPU까지 함께 탑재되는 추세다. 퀄컴·삼성전자·화웨이·애플 등이 NPU를 탑재하는 추세다. 작년 12월 퀄컴은 다섯째로 NPU를 탑재한 스냅드래곤865를 선보였다. 삼성전자 또한 NPU가 탑재된 엑시노스990을 선보였다. 화웨이는 작년 9월 키린990을 선보였다.


AI를 소형 기기에 구동하려는 ‘온디바이스 AI’가 주목받고 있다. 그리고 이를 구현하려는 연구도 실제로 움직이고 있다. 이에 따라 온디바이스 AI는 클라우드 AI와 함께 새로운 추세로 부상할 것으로 전망된다.
온디바이스 혁명…스마트 기기와 인공지능의 만남
[본 기사는 한경비즈니스 제 1264호(2020.02.17 ~ 2020.02.23) 기사입니다.]