테크놀로지 제 1310호 (2021년 01월 06일)

‘편견’에 취약한 AI… 인종과 성차별 망언 쏟아내기도

기사입력 2021.01.04 오전 10:15


[인공지능 따라잡기]


딥 러닝 기반인 ‘가치 중립적’ 데이터 확보 어려워…사회·윤리적 연구 필요한 시점


‘편견’에 취약한 AI… 인종과 성차별 망언 쏟아내기도
[한경비즈니스 칼럼=전승우 IT 칼럼니스트] 우리의 일상생활은 판단의 연속이라고 해도 과언이 아니다. 식당의 메뉴를 고르거나 생필품 구입 등 아주 사소한 것에서부터 직업과 거주 등 인생에 큰 영향을 미칠 수 있는 중요한 부분에 이르기까지 수많은 판단을 내려야 한다.


대부분의 사람들은 객관적 관점에서 신중하게 판단하기 위해 노력하지만 판단이 잘못된 것으로 드러나는 것도 적지 않다. 판단이 틀리게 된 원인은 다양하지만 가장 큰 요인은 바로 편견(bias)이다. 동일한 데이터나 사실도 이를 바라보고 해석하는 관점이 사람마다 다르기 때문에 아무리 심사숙고했다고 하더라도 완전한 객관성을 보장하기는 어렵다.


인간의 편견에서 비롯되는 부정확한 판단의 문제를 해결하기 위해 인공지능(AI)이 새로운 대안으로 부상하고 있다. AI가 많은 사람들이 오랜 시간이 걸려도 읽지 못할 정보를 빠르게 해석하고 이를 근거로 공정한 판단을 내릴 수 있을 것이라는 기대가 커지고 있다. 이런 기대를 반영하듯 단순 분류나 해석 업무에 주로 적용됐던 AI가 점차적으로 고도의 정보 처리와 해석이 필요한 의학·법률·기사 작성 등 전문 영역에서도 활발히 도입되고 있다.


특히 딥 러닝은 AI 발전의 일등 공신이다. 딥 러닝은 인간의 능력만으로 처리하기 힘든 막대한 양의 데이터를 공급받고 이를 통해 각 정보 간 특징을 파악해 낸다. 데이터를 통해 판단 능력을 학습한 딥 러닝 알고리즘은 이를 기반으로 다양한 조건에서 정확한 판단을 내릴 수 있게 된다. 


이미 페이스북·구글·마이크로소프트·아마존 등 정보기술(IT) 대기업을 중심으로 AI 전문 업무에 적용하려는 움직임이 활발한 가운데 스타트업과 비IT 기업 등 다양한 기업에서도 AI를 활용하는 곳이 꾸준히 늘고 있다. 예컨대 방사선 이미지 수천 장에서 의사가 찾기 어려운 질병을 찾아 주거나 산더미 같은 이력서를 분석해 적합한 채용자를 선별하는 등의 사례가 등장하고 있다. 수년간의 데이터를 기반으로 미래 트렌드를 예측하거나 매우 오랜 임상 실험 기간이 소요됐던 신약 개발 사이클을 획기적으로 단축하는 등 AI의 판단 능력은 글로벌 산업 발전의 원동력이 될 것이라는 기대감이 커지고 있다.


AI 편견이 새로운 과제로 부상


하지만 AI 역시 편견의 문제에서 자유로울 수 없다는 주장이 제기되고 있다. 인간이 가진 편견과 유사하거나 혹은 상식과 어긋나는 결정을 내리는 경우가 발생하고 있다. 2016년 미국 언론사 ‘프로퍼블리카’는 미국 내 여러 주 법원에서 사용하는 AI 시스템 콤파스(COMPAS)가 흑인에 대해 불리한 판단을 내린다는 사실을 보도했다. 콤파스는 피고인의 범죄 가담 여부, 일상생활의 특징·성격·가족 관계 등의 정보를 종합해 피고인의 재범 가능성을 판단해 구속 여부를 제안하는 알고리즘이다. 콤파스는 명시적으로 인종을 판단 기준으로 삼지는 않는다. 하지만 프로퍼블리카는 콤파스가 플로리다에서 체포된 범죄자 1만 명을 대상으로 재범 가능성을 판단한 결과 흑인의 재범 가능성이 백인보다 2배 이상 높게 예측했다고 주장했다.


첨단 AI 기술력을 가진 기업들조차 이러한 AI 편견 문제에서 자유롭지 않다. 음성 인식 비서 알렉사(Alexa) 등 AI 트렌드를 이끌고 있는 아마존은 자사 채용 시스템에 AI 알고리즘을 사용했다. 하지만 아마존의 채용 시스템은 10년간 아마존에 제출된 이력서를 학습한 결과 여성은 아마존에 적합하지 않다는 편견을 가지게 돼 여성 지원자에게 불리한 판단을 내린다는 사실이 밝혀졌다. 이런 문제를 인지한 아마존은 결국 채용 시스템을 폐기했다.


AI 적용 범위가 확대될수록 AI 편견이 심각한 문제를 만들 수 있다는 우려의 목소리가 높다. 단순 정보 탐색과 분류를 넘어 의학·법률 등 고도의 사고력을 요구하는 업무도 AI를 탑재한 컴퓨터 시스템으로 담당하려는 움직임이 늘면서 AI 편견 문제는 오늘날 학계와 산업계의 핵심 이유로 부상하고 있다. 


AI가 편견을 가지게 된 가장 큰 이유는 바로 잘못된 정보를 학습하는 것이다. AI의 판단 품질은 바로 인간이 제공하는 데이터의 질에 달려 있다. 하지만 AI 훈련에 사용되는 데이터는 중립적이지 않고 AI를 만드는 사람들이 가지고 있는 고정관념이나 편견이 반영됐을 가능성이 높다. 이런 데이터를 집중 학습한다면 AI도 인간과 유사한 편견을 가질 수 있다는 것이다.


현실적으로 가치 중립적 데이터를 얻는 것은 매우 어렵다. AI의 성능 향상을 위해 사용되는 데이터의 상당수가 글로벌 사회에 뿌리 깊게 자리 잡은 차별적 관성과 사고를 내포하고 있을 가능성이 높다. 게다가 이런 특징은 명시적으로 드러나지 않는 것도 많기 때문에 사전에 적절히 걸러 내기도 어렵다. 아무리 우수한 정보 판별 능력을 가진 AI라고 하더라도 현재의 달라진 인식을 반영하지 않는 과거 데이터만 학습한다면 오늘날의 달라진 시대 흐름에 맞는 판단을 내리기 어렵다.


마이크로소프트는 2016년 AI 챗봇 ‘테이’를 공개했다. 테이 자체는 특정 관점을 포함하고 있지 않았지만 테이를 사용하는 사람들은 테이에 인종과 성차별 인식이 담긴 명령어를 집중 주입했다. 이를 학습한 테이는 망언과 욕설을 쏟아냈고 결국 마이크로소프트는 출시 16시간 만에 테이의 운영을 중단했다.


한편 딥 러닝 알고리즘 자제의 한계 역시 Al 편견 문제를 심화시킨다는 지적도 있다. 딥 러닝의 원리는 입력 데이터를 통해 스스로 알고리즘의 매개 변수를 조정하는 학습 과정을 통해 성능을 지속적으로 강화하는 것이다. 하지만 딥 러닝의 근본적 학습 메커니즘 자체는 명확하게 밝혀진 것이 없다. 이에 따라 오늘날 딥 러닝 적용은 데이터를 통해 성능이 지속적으로 좋아질 것이라는 명제에서 이뤄진다. 딥 러닝을 만들고 제품에 탑재하는 연구원조자 알고리즘의 작동 원리를 정확히 이해하지 못하기 때문에 딥 러닝이 가지는 편견 문제를 정확히 해결하기 어려운 것이다.


이런 문제를 해결하기 위한 기업들의 노력도 이어지고 있다. 테이 이슈로 곤욕을 치른 마이크로소프트는 AI 편견 문제에 대한 연구를 강화하고 있다. 사티아 나텔라 최고경영자(CEO)는 AI가 인간을 돕는 목적으로 설계돼야 하므로 IT 기업들이 AI 윤리에 대해 강한 책임감을 가져야 한다고 주장한다. 마이크로소프트는 AI 편견 문제를 해결하기 위해 윤리위원회를 구성하고 AI 윤리 지침을 만들어 개발자와 디자이너 등 AI 관련 직원들에 대한 교육을 강화하고 있다. 순다 피차이 구글 CEO 역시 AI 편견 문제가 AI 활용의 걸림돌이 될 수 있다고 주장하며 이를 해결하기 위해 다양한 대응책을 연구하고 있다고 밝혔다.


다방면에 걸쳐 AI 편견 문제 해결 노력 필요


AI의 정치·사회·경제적 영향력이 커질수록 AI 편견 문제는 미래에 중요한 이슈로 부상할 수 가능성이 높다. AI를 둘러싼 논란이 커질수록 AI의 긍정적 장점보다 부정적 측면에 대한 비판이 더욱 커질 가능성이 높다. 따라서 인간의 편견을 답습하지 않을 수 있는 AI 개발이 미래 IT업계의 큰 화두로 부상할 수 있다.


AI 편견을 해결하기 위해서는 기술의 역할이 중요하지만 기술 자체만으로 문제를 극복하기는 어렵다. 편견을 해결하기 위한 획일적인 기준이 없고 다양한 상황과 의도에 따라 편견을 바라보는 시각도 다르기 때문이다. 따라서 기술 발전 못지않게 AI의 적용 범위와 불완전성에 대한 보완 방법 등 사회·윤리적 연구도 더욱 활발히 이뤄져야 한다. 여러 관점에서 AI의 파급 효과를 분석하고 보안·편견 등 AI가 야기할 수 있는 심각한 문제를 해결하려는 노력이 AI의 긍정적 효과를 확산할 수 있는 중요한 원동력이 될 것이다.

[본 기사는 한경비즈니스 제 1310호(2021.01.04 ~ 2021.01.10) 기사입니다.]


당사의 허락 없이 본 글과 사진의 무단 전재 및 재배포를 금합니다.

입력일시 : 2021-01-06 09:27