사진 찍으면 음성으로 읽어 주는 앱 등장…‘딥러닝’ 기술 활용

시각장애인들에게 집 밖의 한 걸음 한 걸음은 곧 전쟁이다. 인도를 가로막는 수많은 장애물과 씨름해야 하고 배려가 부족한 대중교통의 불편을 고지 점령하듯이 넘어서야 한다. 장애인의 이동권이 좀처럼 보장되지 않는 척박한 조건 속에서 그들은 걸음을 멈추고 폐쇄된 공간에 혼자 머무르고 만다. 매번 목소리를 높이는 것도 지친다. 물리적 공간의 이동이라는 인간으로서 가장 기본적인 행위를 특혜처럼 요구해야만 하는 자신의 처지를 한탄하는 이도 적지 않다. 정상인들처럼 해 저무는 저녁 들녘의 한가로움을 즐기고 꽃향기를 만끽하는 낭만은 언감생심이다. 원시림을 거닐며 녹색 수풀이 뿜어내는 피톤치드를 온몸으로 흡수한다는 건 상상 속에서나 가능한 일이다.
기술은 이런 사회적 약자를 외면한다. 수익성이 낮아 투자 가치가 떨어지니 굳이 개발할 이유가 없다. 약자이면서 소수이기 때문이다. 시장성이 보장되지 않는 기술에 대규모의 자본을 투입할 리 만무하다. 자선 사업가의 공헌이 뒷받침되지 않는 이상 약자를 위한 테크놀로지는 기대하기 어려운 게 엄연한 현실이다.
흥미롭게도 인간의 생존 반경을 좁히고 있는 인공지능 기술이 시각장애인을 희망으로 인도하고 있다. 최근 미국 싱귤래러티대는 아이폴리라는 시각장애인 인공지능 기술을 개발해 공개했다. 시각장애인이 모바일 애플리케이션으로 사진을 찍으면 이를 분석해 사진 속에 담긴 풍경을 음성으로 읽어준다. 여기엔 딥러닝이라는 인공지능 기술의 핵심 알고리즘이 적용됐다. 단순히 사물의 형태뿐만 아니라 색상까지 분석해 알려준다. 이를테면 “구름 낀 파란 하늘을 보고 있습니다”라고 전달해 주는 식이다. 이 기술이 구현되기 위해서는 방대한 이미지 데이터가 필요하다. 이미지만으로 사물의 정체를 분별할 수 있어야 하고 이를 다시 자연어 처리 기술을 적용해 음성으로 전환해야 한다. 모두 인공지능 구현에 필수적인 테크놀로지들이다. 시각장애인으로선 인공지능 비서를 얻은 격이다.

구글의 자율 주행 차량도 ‘단비’
구글 자율 주행 차량은 시각장애인의 이동권 개선에 획기적인 전기를 마련해 줄 만한 기술이다. 구글이 시각장애인을 염두에 뒀는지는 확인되지 않는다. 택시를 대체하기 위한 프로젝트라는 소문은 무성하다. 이미 뉴욕시와 계약을 완료했다는 보도도 있었다. 누군가의 일자리를 탐하는 인공지능이지만 시각장애인들에겐 가뭄에 단비와도 같은 존재다. 이를 염두에 둔 듯, 구글은 자율 주행차 프로토타입 홍보 영상에 시각장애인을 등장시켰다. 스티어링 휠도, 가속페달도 없는 자율 주행 차량 안에서 한 시각장애인이 창문을 열고 머리카락을 휘날리며 목적지까지 이동하는 장면이 비교적 오랫동안 등장한다. 무덤덤해 보이던 입가엔 미소가 번지고 만족감을 표시하는 대화도 나눈다. 인간 친화적 기술이라고 포장하기 위해서일 수도 있지만 시각장애인에겐 분명 실질적인 혜택으로 돌아갈 수 있는 기술이다. 구글의 자율 주행차가 본격적으로 차도를 활보하는 날이 온다면 시각장애인들의 이동권에 혁명이 일어날 수도 있다. 그것이 인공지능 기술의 외부 효과라고 할지라도 사회적 약자에겐 소중한 경험이 된다.
벌써부터 인간은 인공지능의 진화에 울고 웃고 있다. 인공지능이 보편화할 몇 년 뒤가 되면 인간의 희로애락에 인공지능이 미치는 영향이 지대해질지 모른다. 하지만 인공지능의 뚜껑을 열어보면 정작 만나게 되는 것은 인간의 얼굴이다. 따지면 인공지능에 울고 웃는 것이 아니라 설계한 인간의 심성에 우리의 희비가 엇갈리는 것일지도 모른다.

이성규 블로터닷넷 매거진팀장
시각장애인에게 자유 준 ‘인공지능 비서’