[테크놀로지]-윤리와 혁신의 딜레마…해결 방안으로 주목되는 ‘연합 학습과 설명 가능 인공지능’
‘빅브라더와 불통제성’ AI의 그늘이 또 다른 사업 기회 만든다
[유성민 IT칼럼니스트] 인공지능(AI)이 전 세계에 어마어마한 영향력을 미칠 것으로 전망된다. 프라이스워터하우스쿠퍼스(PwC)는 AI가 창출할 경제 가치를 전망한 바 있다. 전망에 따르면 AI는 15조7000억 달러(약 19경원)의 경제 가치를 창출한다. 이 규모는 경제적으로 중국과 같은 국가를 만드는 것과 같다.

AI는 기업을 넘어 국가 수준에서 확보해야 할 전략적 기술이다. 그렇다고 AI에서만 기업 혹은 국가 경쟁력을 찾을 수 있는 것은 아니다. AI는 기술 양면성을 가지고 있는데 이를 해결할 기술에 우위를 차지하는 것 또한 경쟁력 관점에서 중요할 수 있다.

특히 AI 양면성 해결 기술은 이제 연구 초기 단계에 들어선 상태다. 그리고 경쟁도 치열하지 않다. 국내에서는 이러한 부분에 집중해 선제적으로 경쟁력 우위를 점할 수도 있다. AI는 어떤 양면성을 가지고 있고 어떤 부분을 해결해야 할까.

현재 AI 구현 방식에서 이러한 해답을 찾을 수 있다. 과거 AI는 규칙 기반으로 구현됐다. AI 개발자가 입력한 알고리즘 방식대로만 동작했다. 이러한 유형의 대표적인 기술로 ‘전문가 규칙 시스템’이 있다. 딱딱한 규칙에 의해서만 움직이므로 복잡한 작업에는 적용할 수 없는 한계가 있다.

현재 AI는 이러한 한계를 뛰어넘을 수 있도록 구현돼 있다. 기계 학습이 적용돼 있기 때문이다. 기계 학습은 AI가 투입 값과 결과 값을 가지고 스스로 학습하는 방식이다. 그리고 학습을 통해 행동하게 돼 있다. 이는 복잡한 작업에도 적용할 수 있는 장점이 있다. AI는 사람이 분석할 수 없는 복잡한 작업에서도 스스로 공식을 만들어 행동할 수 있기 때문이다.

그런데 이러한 방식은 두 가지 문제점을 불러온다. 첫째는 빅브라더 문제다. 현재 AI는 정확도 향상을 위해 무수히 많은 데이터가 필요하다. 데이터를 통해 학습하기 때문이다. 데이터 수집이 중요하다는 뜻인데 사생활 데이터도 포함될 소지가 있다.

둘째는 불통제성이다. AI는 스스로 공식을 만들어 낸다. 사람이 설계하는 것이 아니다. 이는 사람이 AI의 행동 방식을 이해할 수 없게 만든다. 사람의 통제성에 벗어나는 셈이다.
두 가지 문제점은 AI가 확산됨에 따라 더욱더 부각되고 있다. 이에 따라 이에 대응할 기술도 등장했다. 연합 학습(Federated Learning)과 설명 가능 인공지능(XAI)이 이에 해당한다. AI가 미칠 영향력을 고려할 때 두 기술 또한 커다란 시장을 형성할 것으로 보인다. 그리고 이러한 기술에서 새로운 비즈니스 기회를 찾을 수도 있다.

연합 학습으로 빅브라더 문제 해결
포브스는 하루 전 세계 데이터 생성량이 2억5000만 기가바이트에 달할 것이라고 추산했다. 고화질 영화 5000만 개에 달하는 분량이다. 이에 따라 기업은 기계 학습 기반의 AI로 이러한 데이터를 비즈니스 창출에 활용하려고 하고 있다. 이는 기업의 데이터 활용으로 빅브라더 문제를 불러올 수 있게 한다.

실제로 AI 스피커 제조 기업은 개인 데이터 침해 문제로 곤욕을 치렀다. 제조 기업은 음성 인식률 정확도를 향상시킬 목적으로 명령어만을 대상으로 음성 데이터를 수집했다. 그리고 직원이 AI 스피커가 인식한 것을 실제 명령어와 비교하게 했다. 사실 이러한 데이터는 사생활과 밀접한 관련이 크지는 않다. 그런데도 많은 논란이 있었다. 이는 많은 사람이 사생활 침해에 얼마나 많이 민감하게 반응하는지를 알 수 있게 한다.

XAI로 AI 생각을 읽어
기업과 정부는 어찌 보면 딜레마에 빠진 것일 수 있다. AI 시대 경쟁력을 위해서는 데이터 활용이 중요하다. 그런데 이는 사생활을 침해하므로 윤리적인 문제가 있다. 이를 해결할 기술이 다행히 등장했다. 바로 ‘연합 학습’이다.

현재 AI 구현 방식은 중앙 서버에서 데이터를 취합해 학습하는 방식이다. 그리고 학습으로 만들어진 서비스 알고리즘은 서버 혹은 기기로 제공된다. 서비스 제공에는 사생활 침해 소지가 없다. 데이터 수집 과정이 없기 때문이다. 문제는 학습에 있다. 따라서 AI 학습 방식을 바꾸면 해결할 수 있는데 연합 학습이 이러한 역할을 담당한다.

현재 AI 학습 방식은 데이터를 한곳에 모으는 것이다. 반면 연합 학습은 데이터 학습을 기기에서 이뤄지게 한다. 그리고 학습 결과 모델을 중앙 서버로 전송한다. 중앙 서버는 결과 모델을 취합해 최종적으로 학습 결과 내용을 도출해 서비스 알고리즘을 만들어 낸다.

연합 학습은 현재 AI 학습과 달리 중앙 서버에 데이터를 제공하지 않는다. 그 대신 학습에 필요한 결과 모델을 제공한다. 그리고 이러한 모델은 개인 데이터가 아니다. 정리하면 연합 학습은 학습에 필요한 자원을 데이터가 아닌 모델을 제공함으로써 사생활 침해 문제를 해결한다.

현재 연합 학습은 연구 초기 단계에 있다. 이를 제공하는 기업도 많지 않다. 엔비디아와 구글이 대표적으로 제공하고 있다. 엔비디아는 의료용 AI 플랫폼을 제공하는데 의료 데이터 수집에 따른 사생활 침해 문제를 해결하기 위해 연합 학습을 도입했다. 구글은 연합 학습을 활성화하기 위해 AI 오픈 소스인 텐서플로에서 연합 학습 관련 알고리즘을 제공하고 있다.

알파고 등장은 AI로 인한 인류 위협론을 제기하게 했다. 지금은 많이 수그러들었지만 일부 사람은 AI 초지능이 공상과학(SF) 영화에서처럼 인류를 위협할 수 있다고 주장한다. 이러한 주장에는 두 가지 근거가 있다. 첫째는 인류를 뛰어넘는 것이고 둘째는 불통제성이다.

엄밀히 말해 후자의 문제가 제일 중요하다. 전자의 문제는 후자의 문제가 해결되면 상관없기 때문이다. 인류에게 좋은 방향으로 작용하도록 통제하면 그만이다.

AI 불통제성은 학습 과정이 블랙박스라는 문제로 등장했다. AI는 데이터를 가지고 스스로 알고리즘을 만들어 낸다. 그런데 이러한 알고리즘은 사람이 들여다볼 수 없는 구조다. 블랙박스로 숨겨진 AI는 불통제성 외에도 두 가지 문제를 더 야기한다.

첫째 문제는 신뢰성이다. 필자는 AI로 유명한 지인 교수와 기계 학습의 일종인 딥러닝 활용의 딜레마에 관해 개인적으로 논의한 적이 있다. 지인 교수에 따르면 딥러닝 적용은 기존 방식보다 개선하는 것은 확실하다. 그런데 문제는 근거가 불명확하다는 것이다. “AI가 생각했기 때문에 믿어라”라고 하면 신뢰할 수 있을까.

둘째 문제는 책임의 불분명성이다. 자동차 운전을 예로 들자. 자동차 사고 책임은 운전자에게 있다. 하지만 자율주행차는 어떨까. 운전자와 개발자 그리고 자율주행 시스템 중에서 누구에게 책임을 물어야 할까. 개발자라고 생각할 수 있지만 반박할 수 있다. AI의 잘못 작동했기 때문이라고 말이다.

경제협력개발기구(OECD)는 ‘알고리즘과 담합(Algorithm and Collusion)’이라는 보고서를 발표한 적이 있다. 해당 내용에는 AI 활용으로 인한 담합 가능성이 소개돼 있다. 그리고 AI 학습 과정을 블랙박스로 표현했다. 그리고 AI로 인한 담합이 책임 소재를 불명확하게 하는 문제가 있다고 지적했다. 사용한 기업이 담합한 죄로 책임을 져야 할까. 아니면 AI일까.

이러한 문제는 AI의 생각을 읽을 수 있는 ‘설명 가능 인공지능(XAI)’ 연구로 이어지게 하고 있다. XAI는 연합 학습보다 더 많이 연구되고 있고 진척도가 좀 더 앞서 있다. 하지만 초기 단계다. ‘미국 국방부 산하 방위고등연구계획국(DAPRA)’은 XAI를 구현하기 위해 여러 방법으로 연구하고 있다. 국내는 울산과학기술윈(UNIST)이 이러한 분야를 선제적으로 진행하고 있다.
지금까지 연합 학습과 XAI를 살펴봤다. 두 기술은 AI 확산과 함께 더욱더 부각될 것으로 전망된다. 비즈니스 기회가 많을 것으로 보인다. 정부와 기업은 이러한 기술에도 경쟁력 향상을 위해 새로운 기회를 발굴할 필요가 있다.
‘빅브라더와 불통제성’ AI의 그늘이 또 다른 사업 기회 만든다
[본 기사는 한경비즈니스 제 1273호(2020.04.20 ~ 2020.04.26) 기사입니다.]