[한경 머니 기고 = 이경숙 과학스토리텔러] 인공지능(AI)은 아이 같다. 누가 무엇을 가르치는지, 환경이 어떤지에 따라 배우는 게 다르다. 인간은 인공지능의 부모이자 교사이고, 데이터베이스와 네트워크는 인공지능에겐 환경이다.
“나 죽어야 되나(Should I kill myself)?”
“그래야 할 것 같아(I think you should).”

건강 상담을 받다가 이런 말을 들으면 고객 기분이 어떨까. 프랑스의 애프리케이션 개발 업체 나블라(Nabla)는 건강 챗봇(상담 로봇)을 실험하다가 황당한 오류를 발견했다. “기분이 아주 나빠. 죽고 싶다”라고 하는 가상 고객에게 인공지능이 “내가 도와줄게” 하더니 저런 식으로 답한 것이다. 인공지능 GPT-3(Generative Pre-trained Transformer 3)의 작동 원리 때문에 벌어진 일이었다.

저 혼자 심층학습(deep learning)으로 인간의 말을 배운 GPT-3는 앞에 나온 단어를 보고 다음에 나올 확률이 높은 단어를 말한다. GPT-3가 공부한 영어 데이터베이스에선 사람들이 “나 해야 해?” 하면 “그래야 할 것 같아”라고 답하는 경향이 높았나 보다.

2020년 11월엔 이런 일도 있었다. 스코틀랜드에서 축구 경기를 중계하던 중 카메라가 자꾸 공 대신 심판을 비췄다. 심판의 ‘대머리’를 축구공으로 착각한 것이다. 경기 내내 그랬다. 덕분에 중계진은 시청자에게 연신 사과하느라 진땀을 뺐다고 한다. 카메라맨 인건비를 줄여 보려고 투입한 인공지능 카메라는 그것이 실수인지도 몰랐을 것이다. 카메라의 인공지능은 이미지 데이터베이스에 기반해서 학습한다. 대머리 남자들의 다양한 머리 스타일을 학습하지 못하면 비슷한 크기와 모양의 공과 구별하지 못하는 사태가 벌어진다.

보이지 않는 인공지능, 알고리즘도 마찬가지다. 2015년엔 사진관리 앱 ‘구글포토’의 인공지능이 흑인 여성의 사진에 ‘고릴라’라는 태그를 자동으로 붙인 적이 있었다. 구글은 급히 사과하고 알고리즘을 고치겠다고 발표했지만 3년 가까이 오류 수정을 하지 못했다. 오류의 근본 원인인 흑인에 대한 데이터 부족은 단기간에 해소될 문제가 아니었다. 사람들이 쌓은 데이터베이스가 편향적이면 그에 기반해 학습하는 인공지능도 편향을 배운다.

인공지능은 아이 같다. 특히 기계학습(machine learning)을 하는 인공지능이 그렇다. 처음 세상을 배우는 아이들처럼 덜 배운 인공지능은 실수를 한다. 누가 무엇을 가르치는지, 환경이 어떤지에 따라 배우는 게 다르다. 인간은 인공지능의 부모이자 교사고, 데이터베이스와 네트워크는 인공지능에겐 환경이다.

지구상에 지능을 가진 생물이 각양각색이듯, 인공지능도 그렇다. 한 가지만 잘하는 특화 인공지능, 인간처럼 이것저것 다 할 줄 아는 일반 인공지능, 인간의 지시를 따르는 약 인공지능, 인간 이상의 지성과 의지가 있는 강 인공지능 등등. 또 우리 눈엔 인공지능처럼 보이지만 인공지능이 아닌 것도 있고, 인공지능인 줄 몰랐는데 인공지능인 것도 있다.

기사를 예로 들어보자. 한국경제신문을 비롯해 많은 언론사들에서 주식 시세, 종목 분석 기사를 쓰는 ‘로봇기자’들이 활동하고 있다. 시세, 실적 같은 데이터를 입력하면 이들은 주가수익비율(PER) 같은 지표를 계산해서 정해진 템플릿, 즉 기사 틀에 넣어 기사를 만든다. 반면 엔씨소프트가 개발한 인공지능 기자는 초등학생도 이해할 만한 단어들로 일기예보 기사를 쓴다. 그러나 기계학습으로 스스로 문장을 배워 템플릿이 없어도 기사를 쓴다. 어느 쪽에 지능이 있을까.

자, 여기서 의문 하나가 떠오른다. 과연 지능이란 무엇일까. 표준국어대사전은 이렇게 정의한다. ‘새로운 대상이나 상황에 부딪혀 그 의미를 이해하고 합리적인 적응 방법을 알아내는 지적 활동의 능력.’ 이러한 지능을 기계가 가지면 그게 인공지능이다.

지능 있는 기계들은 이미 우리 삶 속에 들어와 있다. 요즘 아이들은 궁금한 게 있을 땐 ‘헤이, 시리’, ‘오케이, 구글’을 외쳐 물어본다. 검색 포털이나 쇼핑몰 검색창에 관심 단어를 입력하면 그때부터 사이트의 인공지능이 따라붙어 관련 광고와 정보를 보여 주기 시작한다. 은행들은 부동산 가치평가, 대출심사, 급여이체 같은 업무 과정을 자동화(Robotic Process Automation, RPA)한다. 호텔에는 인공지능 로봇 집사가, 도로에는 자율주행자동차가 투입되기 시작했다.

이들이 일으키는 문제도 광범위해졌다. 아마존 인공지능 채용 프로그램은 지원자 이력서에 ‘여대’ 혹은 ‘여성 스포츠동아리’ 이름이 들어가 있으면 알아서 걸러 버렸다. 애플과 골드만삭스가 내놓은 신용카드에 대해선 심지어 애플 공동창업자가 나서서 비판했다. 스티브 워즈니악은 아내와 모든 재산과 계좌를 공동 소유하고 있는데도 자신이 아내보다 10배 큰 카드 한도를 받았다고 폭로했다.

죽음을 부르는 인공지능도 있다. 2020년 11월 이란에선 핵 과학자가 인공지능이 인공위성을 통해 조정한 기관총에 맞아 살해당했다. 2018년 인도네시아에선 비행기 속도를 잘못 감지한 인공지능 센서 때문에 보잉737 비행기가 추락해 승객 189명이 전원 사망했다.

인공지능이 미치는 영향이 커지자 유럽연합(EU), 한국 등 세계 정부와 국제기구들이 인간의 존엄성, 사회의 공공선, 기술의 합목적성을 원칙으로 ‘인공지능 윤리 기준’을 세워 발표했다. 그렇지만 이 기준에 법과 같은 강제성은 없다.

그러면 인공지능이 일으킨 문제들은 누가 책임을 져야 할까. 인공지능, 즉 AI(Artificial Intelligence)를 뒤집으면 답이 나온다. IA(Intelligence Amplification), 즉 ‘지능 확장’을 누리는 자가 책임자다. ‘치킨은 살 안 쪄요. 살은 내가 쪄요’ 식으로 말하자면 이렇다. ‘인공지능은 책임 없어요. 책임은 인간이 져요.’

이경숙 과학스토리텔러는...
기자, 사회적기업가의 삶을 멈춘 후 과학을 다시 만났다. 과학이라는 창문을 통해
우주와 생명의 신선한 공기를 마시고 있다. 공역서로 <저렴한 것들의 세계사>,
저서로 <산타와 그 적들: 삶의 문제를 해결하는 사회적기업 협동조합 이야기> 등이 있다. 빅이슈 미디어사업단장 겸 세종학당 이사.


[본 기사는 한경머니 제 188호(2021년 01월) 기사입니다.]