- AI 시대 여는 AI 전용 반도체…양자 컴퓨터가 AI 성능을 1억 배 증가시킬 전망
[유성민 동국대 국제정보호대학원 외래교수] 지금까지 양자 컴퓨터는 꿈의 컴퓨터에 가까웠다. 하지만 양자 컴퓨터는 올 들어 상용화가 가능한 것으로 인식되고 있다 시장 조사 전문 기관인 가트너(Gartner)는 매년 8월 주요 기술의 생명 주기를 표현하는 ‘하이프 사이클(Hype Cycle)’을 발표한다. 유망 기술·인공지능(AI)·클라우드·사물인터넷(IoT) 등 주제별로 나눠 주요 기술의 생명 주기 상태를 보여준다.
가트너는 지난 8월에도 하이프 사이클을 공개했다. 현재 AI가 큰 주목을 받고 있기 때문에 AI에 관한 하이프 사이클이 인기를 끌었다. 그런데 하이프 사이클에서 눈길을 끄는 기술이 있었다. 바로 양자 컴퓨터였다.
가트너는 양자 컴퓨터가 ‘과장된 기술의 정점(peak of inflated expectations)’에 있다고 분석했는데 이는 양자 컴퓨터가 크게 주목받고 있다는 것을 뜻한다. 상용화까지 걸리는 시간이 10년 이상으로 전망했지만 말이다. 하지만 꿈의 컴퓨터로 불린 양자 컴퓨터가 상용화된다고 하니 업계에서는 주목할 수밖에 없다.
양자 컴퓨터가 하이프 사이클에 소개된 것은 의미가 크다. 그것도 AI 분야에서 말이다. 이는 두 가지를 의미한다. 첫째, 양자 컴퓨터 시대가 현실로 다가오고 있다는 것을 의미한다. 둘째, 양자 컴퓨터가 AI에 활용될 가능성이 높다는 것을 의미한다.
현실로 다가오는 양자 컴퓨터
지금까지 양자 컴퓨터는 꿈의 컴퓨터에 가까웠다. 하지만 양자 컴퓨터는 올 들어 상용화가 가능한 것으로 인식되고 있다.
이는 양자 컴퓨터 관련 두 가지 화두가 있었기 때문이다. 첫째 화두는 IBM이 발표한 양자 컴퓨터다. IBM은 지난 1월 국제전자박람회(CES)에서 양자 컴퓨터 ‘IBM 큐 시스템 원(IBM Q System One)’을 출시했다. 그리고 언론에 주목을 받았다.
큐 시스템 원의 성능은 주목할 만하지 않다. 성능은 20큐비트(Qubit)로 높지 않다. 구글·IBM·인텔 등이 이보다 더 훨씬 우수한 성능을 가진 양자 컴퓨터를 선보였기 때문이다. 구글은 72큐비트, IBM은 53큐비트, 인텔은 49큐비트의 성능을 가진 양자 컴퓨터를 선보였다.
그런데도 주목받은 이유는 큐 시스템 원이 상용화 목적으로 출시됐기 때문이다. 현재 IBM은 해당 양자 컴퓨터를 가지고 상용화 프로젝트를 추진할 예정이다. 여러 기업과 함께 공동으로 진행할 예정인데 한국에서는 삼성전자가 해당 프로젝트에 참여한 것으로 알려졌다.
둘째 화두는 지난 10월 구글이 유명 과학 논문지인 ‘네이처’에 발표한 논문이다. 구글은 ‘프로그래밍 가능한 초전도 회로 활용의 양자 우위(Quantum supremacy using a programmable superconducting processor)’라는 제목의 논문을 발표했다. 핵심은 구글이 양자 우위를 증명할 수 있는 응용 사례를 논문으로 소개한 것이다. 참고로 양자 우위는 기존의 최고 성능을 가진 슈퍼컴퓨터의 성능을 뛰어넘었을 때의 상황을 의미한다.
논문에 따르면 구글의 양자 컴퓨터는 IBM 최고 슈퍼컴퓨터가 1만 년에 할 수 있는 연산을 200초 만에 끝냈다. 내용을 보면 주목할 수밖에 없다. 물론 해당 양자 컴퓨터가 특정 연산에만 특화된 점과 연산 난이도의 신뢰성에 문제가 있다. 하지만 양자 우위를 실제 사례를 통해 보여줌으로써 양자 컴퓨터의 도래가 가까워졌다는 것을 보여준다.
양자 컴퓨터가 실현 가능해짐을 살펴봤다. 그러면 양자 컴퓨터는 AI에 어떤 활용성이 있을까. 이를 이해하기 위해서는 AI 전용 반도체를 살펴볼 필요가 있다.
AI 전용 반도체는 AI 구동을 위한 연산에 최적화된 반도체다. 굳이 AI 전용 반도체가 필요할까. 물론 그렇다. 지금의 시스템 반도체는 AI 구현에 최적화돼 있지 않기 때문이다.
중앙처리장치(CPU)는 직렬 방식으로 연산 작업을 수행한다. 컴퓨팅 파워를 집중해 연산을 처리하는 것으로 이해할 수 있다. 이는 많은 연산량을 요구하면서 작업 개수가 적은 곳에 최적화돼 있다. 하지만 이러한 방식은 적은 연산량을 요구하면서 작업 개수가 많은 곳에서는 불리하다.
현재의 AI가 이러한 연산을 요구한다. AI에서 주목받는 알고리즘은 단연 신경망 알고리즘이다. 신경망 알고리즘은 사람의 신경망을 모방한 기계 학습 알고리즘으로, 여러 요인의 가중치를 학습해 AI를 구현한다. 사물 식별을 예로 들어보자. 신경망 알고리즘 기반의 AI는 사물에서 나온 판별 요인의 가중치를 합산해 사물을 식별한다. 이에 따라 AI는 수많은 요인을 고려하기 때문에 작업 개수는 많다. 하지만 이러한 요인은 적은 연산량을 요구한다. 가중치 값만 들어 있기 때문이다. 그러므로 여기에 기반을 둔 AI에서는 직렬보다 병렬로 처리할 수 있는 반도체가 요구된다.
쉬운 연산인데 컴퓨팅 파워를 굳이 많이 소모할 필요가 없다. 그런데 안타깝게도 CPU에서는 그렇게 연산할 수밖에 없다. 빈대 잡는 데 초가집을 태우는 꼴이다. 그뿐만 아니라 수많은 요인을 직렬로 처리해야 한다. 비효율성이 클 수밖에 없다.
이에 따라 AI 전용 반도체가 주목받고 있다. 그중 그래픽처리장치(GPU)가 주목 받고 있다. GPU는 그래픽의 여러 요인을 처리해야 하므로 적은 연산량으로 작업 개수가 많은 곳에서 연산을 수행하기 적합하다. 이에 따라 GPU 전문 기업인 엔비디아가 AI 기업으로 주목받고 있다.
신경망 알고리즘처럼 연산 처리를 신경망을 본뜬 AI 전용 반도체도 있다. 뉴로모픽반도체가 이에 해당한다. 뉴로모픽반도체 또한 신경망 구조를 본떴기 때문에 AI 구현에 매우 최적화돼 있다. 이 밖에 ‘프로그래밍 설계 가능 반도체(FPGA)’와 ‘주문형 반도체(ASIC)’가 있다.
결국 AI 전용 반도체는 AI 구현 효율성을 높이고 AI를 확산하는 역할을 한다. 스마트폰을 예로 들어보자. 일부 스마트폰은 뉴로모픽반도체를 탑재해 자체적으로 AI 서비스를 구현할 수 있게 했다. LG G5 모델 이상, 갤럭시 S7 이상 등의 스마트폰에 탑재돼 있다. 자율주행차 또한 자체적으로 자율주행이 가능하다. 엔비디아의 GPU를 활용하고 있기 때문이다. 이처럼 AI가 기기 자체에도 구현할 수 있게 됨에 따라 AI 활용이 보편화되고 있다.
양자 컴퓨터, 슈퍼 AI를 만들어 낼 전망
양자 컴퓨터 또한 AI 전용 반도체처럼 AI에 있다. 그뿐만 아니라 AI 성능을 폭발적으로 증가시킨다.
양자 컴퓨터는 양자의 특성을 활용해 구현한 컴퓨터다. 참고로 양자는 1900년 막스 플랑크에 의해 처음 발견됐다. 양자 이론은 이후 앨버트 아인슈타인의 광양자 이론, 닐스 보어를 거쳐 1913년 완성됐다.
1959년 리처드 페인만은 이러한 양자를 활용한 컴퓨터 개념을 최초로 설명했다. 하지만 구현에까지는 이어지지 못했다. 그 당시 컴퓨터 개발 수준이 높지 않았기 때문이다. 1980년에 이르러서야 양자 컴퓨터 개발이 이뤄질 수 있었다.
페인만이 양자 컴퓨터에 주목한 이유는 양자의 중첩성(superposition) 특성 때문이다. 양자 컴퓨터는 기존 컴퓨터와 달리 정보 단위인 비트(bit)를 중첩해 계산할 수 있기 때문이다. 비트는 이진수의 단위 정보를 뜻하는데 2의 제곱만큼 정보를 가진다. 예를 들어 2비트는 2의 2제곱(00. 01, 10, 11)만큼의 정보를 가진다.
기존 컴퓨터는 이러한 이유로 2비트 정보를 각각 계산해야 했다 2의 2제곱만큼 정보를 따로 처리해야 한다. 4회 연산을 해야 한다. 하지만 양자 컴퓨터는 동시에 여러 특성을 가질 수 있는 특성을 이용해 이를 한 번에 처리할 수 있다.
큐비트는 양자 컴퓨터의 중첩성 정도를 나타내는데 양자 컴퓨터의 성능을 나타내는 지표이기도 하다. 2큐비트는 2비트의 정보량을 중첩으로 처리할 수 있다는 것을 의미한다. 따라서 2큐비트의 양자 컴퓨터는 기존 컴퓨터와 달리 2비트의 정보를 4회가 아닌 1회에 병렬 처리해 연산할 수 있다.
참고로 50큐비트의 성능 이상부터 현재 최고 슈퍼컴퓨터의 성능보다 우수한 것으로 보고 있는데 50큐비트가 양자 우위 기준이 되고 있다. 50큐비트는 2의 50제곱이 되는 정보량을 동시에 처리할 수 있다는 것을 의미한다.
결국 양자 컴퓨터는 기존보다 월등히 우수한 병렬 처리 능력으로 기존 AI 성능을 폭발적으로 증가시킨다. 정보 저장과 처리 자체가 병렬적으로 이뤄지기 때문이다. 이는 현재 직면한 무어의 법칙에서 벗어나 컴퓨터 연산 능력을 극대화한다. 현재 컴퓨터 성능은 트랜지스터 수에 따른다. 트랜지스터 크기를 작게 해 컴퓨터 성능을 향상해 왔는데 이러한 기술이 한계에 다다르고 있다.
그러면 성능은 어느 정도로 향상될까. 구글은 양자 컴퓨터에 따라 인공지능(AI) 성능이 기존보다 1억 배 더 좋아질 것이라고 보고 있다. 기존과 차원이 다른 AI가 등장하는 셈이다. 알파고를 예로 들어보자. 바둑의 경우의 수는 250의 150제곱이다. 2의 1200제곱인 셈이다. 알파고는 정교한 알고리즘으로 경우의 수를 모두 계산하지 않고 바둑을 둔다. 하지만 50큐비트의 양자 컴퓨터로 바둑을 둔다면 알파고의 정교한 계산식 없이 그대로 경우의 수를 모두 계산해 바둑을 둘 수 있다. 우주 원자보다 많은 무한한 횟수를 24번의 연산으로 계산할 수 있기 때문이다.
이에 따라 필자는 이러한 시대를 제3의 AI 시대라고 정의한다. 슈퍼 AI가 등장하는 시대이기 때문이다. 참고로 현재를 제2의 AI 시대로 보고 있다. 기계 학습의 등장으로 기존보다 AI 활용 범위가 넓혀진 시대이기 때문이다.
제3의 AI 시대에는 AI가 어떤 모습일지 상상할 수 없다. AI 처리 성능이 상상을 초월할 정도이기 때문이다. 제2의 AI 시대는 기계학 습 알고리즘이 이끌었다면 제3의 AI 시대는 양자 컴퓨터가 이끌 것으로 전망된다.
[본 기사는 한경비즈니스 제 1253호(2019.12.02 ~ 2019.12.08) 기사입니다.]
© 매거진한경, 무단전재 및 재배포 금지