젠더혁신센터, AI와 함께하는 포용적 혁신 포럼 개최

"AI 규제, AI 기술 발전 모니터링하며 적응적으로 이뤄져야"
한국과학기술젠더혁신센터(이하 젠더혁신센터)는 지난 28일 온라인으로 “AI(인공지능)와 함께하는 포용적 혁신 포럼”을 개최했다. 이번 포럼은 빠르게 진화하면서 혁신을 주도하고 있는 인공지능이 과연 사람들에게 공평하게 적용될 수 있는가, 젠더중립적, 인종중립적, 계층중립적일 수 있는가라는 근본적인 질문을 던지고 새로운 과학적-사회적 밑그림을 그리기 위한 시도다. 이날 포럼은 UNIST 김효민 교수가 사회를 맡고 네 분의 연사가 차례차례 발제하는 방식으로 개최되었다.

첫 번째 연사는 한양대학교 철학과, 인공지능학과 교수, HY 과학기술 윤리법정책센터장과 World Commission on the Ethics of Scientific Knowledge and Technology (COMEST), 부의장을 맡고 있는 이상욱 교수가 “원칙에서 행동으로: AI 윤리의 전주기적 구현”이라는 제목으로 발제하였다.

이 교수는 AI의 등장은 우주에서의 인간의 지위, 휴머니즘적 가치, 관계적 정체성, 창의성의 근원 등에 대한 재검토의 기회를 제공하고 있다는 큰 화두를 던지면서 발제를 시작했다. 다양한 AI의 편견사례로 인해 AI 윤리에 대한 논의가 유네스코, OECD, EU, IEEE 등에서 크게 대두되고 있으며 유네스코의 AI 윤리 권고는 타 기관에 비해 포괄적이며 권고를 통해 회원국 사이의 협력과 구체적인 정책 행동을 강조했다고 보았다. 특히 유네스코 AI 윤리 권고의 정책 행동에서 ‘윤리 영향평가’ 제도 시행이 가장 핵심적이라고 설명했다.

이 교수는 "AI의 편견을 줄이기 위해서는 투명성, 설명 가능성, 책무성을 높이는 것이 중요하나 막대한 비용을 필요로 한다"며 "그러나 적어도 ‘고위험‘ AI에게 높은 수준의 책무성을 요구하는 것이 필요하다고 판단하는 데에 공감대가 형성되어 있다. 중요한 점은 규제 거버넌스는 AI 기술의 발전 상황과 사회적 활용 과정에 대한 면밀한 모니터링과 맞물려서 ‘적응적’으로 이루어져야 한다는 것"이라고 강조했다.

이 교수는 특히 3가지 쟁점을 지적했다. 쟁점1은 ‘위해 금지 원칙(No Harm Principle)’을 데이터 거버넌스 상황에서 어떻게 해석해야 할지에 대한 의문, 쟁점2는 특히 개인의 자유로운 선택·행위를 규제하는 것이 정당한 데이터 위해는 어떤 것인가라는 의문, 쟁점3은 서로 관련된 데이터 네트워크를 통해 익명화된 개인을 특정할 수 있는 데이터 분석 기술이 보다 정교해지는 상황에서 전통적인 인지동의를 유지하는 것이 가능한지에 대한 의문이다. 데이터 윤리와 거버넌스의 핵심 가치가 개인정보 혹은 프라이버시 보호인가 아니면 빅데이터의 공익적 사용일까?을 제기하면서 지속적인 논의의 장이 필요함을 시사했다.

KAIST의 이상윤 교수는 ‘데이터와 알고리즘의 편견(Bias in Data and Algorithm)’를 제목으로 신기술과 개발과 함께 기술 활용의 중요성을 강조하면서 발제를 시작했다. 이 교수는 인공지능에서 편향과 신뢰성이라는 어려운 문제를 해결하기 위해 해법보다는 우선 문제에 집중할 것을 제안하면서 데이터의 바이어스를 3가지로 즉 선택의 편향, 수집에서의 편향, 단순화 과정에서의 편향으로 나누어 사례를 들어가며 문제점을 설명했다.

알고리즘 과정에서의 바이어스도 개발자의 특정한 관점과 사회범주 등을 반영하는 ‘모델 바이어스’, 개인과 그룹의 특성을 일반화하는 과정에서 생기는 ‘그룹 바이어스’, 마지막으로 이미 보상을 받은 '오래된 확실성'의 활용에 대한 편향 또는 '새로운 가능성'의 탐색에 대항하는 편향성으로 분류해서 문제를 제기함으로서 해답을 위한 연구방향을 보다 명확하게 했다. 마지막 생각할 거리로 AI 편향의 입체적 원인으로 데이터와 알고리즘 이면에 있는 거대한 역사적·사회적 맥락을 지적하고 AI 활용을 위한 신뢰성에 대해서 기술적 해결과 조직적 해결 사이 인간-AI 협력(human in the loop)을 제시하였다.

UNIST의 이정혜 교수는 ‘인공지능의 편향 가능성과 공정성을 위한 노력’을 발제 제목으로 다양한 인공지능의 편향 사례를 제시하고 인공지능의 편향 가능성을 이해하기 위하여 사회적 공정성(분배적 공정성, 절차적 공정성, 상호작용 공정성)과 개인과 집단의 공정성을 구분하고 AI의 편향성의 원인을 고찰했다. 먼저 데이터로부터 ①지나친 표본, ②오염된 사례, ③제한된 속성, ④표본 크기의 불일치, ➄대리변수의 존재, ➅결과 대리 편향, ➆데이터 수집 과정에서 인간의 주관성 개입 등을 원인으로 제시했다.

이 교수는 공정한 기계를 만들기 위해서는 ‘공정’을 수학적으로 정의할 수 없음에 한계가 있음을 논하고 공정과 정확 사이에 균형을 잡는 문제를 논했으며 특히 그룹 공정성을 25% 높일 때 정확도가 5% 떨어졌으며, 그룹 공정성을 28% 높일 때에 정확도가 8% 떨어진 사례를 소개하였다. 마지막으로 현재까지 개발된 솔루션은 인공지능의 편향 문제의 극히 일부만을 다루고 있으므로 더욱 논의를 진전해야 하고 공정한 인공지능을 개발해야만 인공지능을 활용, 나아가 인간과 양립하는 과정에서 우리사회에 발생 가능한 문제를 미리 대비하기 위해 피할 수 없는 과제임을 피력했다.

마지막 발제자인 SPRI 책임연구원인 조원영 박사는 ‘AI 신뢰 제고를 위한 연구동향’에서 인공지능의 신뢰성 문제를 다양한 사례를 통해 제시하였고 특히 원래 인간 판사의 편견을 막기 위해 고안된 알고리즘 COMPAS가 오히려 가석방에서 흑인을 차별하여 AI의 대표적 편향사례로 대두된 것은 역설적임을 지적했다. 인공지능의 신뢰를 제고하는 것이 중요한 이유는 기술혁신의 속도가 빠르나 내재된 역기능도 신속하고 광범위하게 전파되고, 현재는 ‘블랙박스 모델’로서 문제의 원인 파악과 해결이 어렵다는 것이다.

인공지능의 경제적 가치를 고려할 때, 역기능에 의한 수용도 저하는 큰 기회비용을 발생시키는 문제도 함께 논의되어야 할 것임을 지적했다. 조 박사는 EU와 미국 등 주용국의 인공지능 법제화 동향에 대해 소개하고, 특히 EU의 인공지능법안은 유럽의 가치와 기준에 부합하는 인공지능 구현이란 대전제 하에 인공지능을 위험도에 따라 분류하고 차등적 의무를 부과하는 법안을 제안한 것이라고 설명했다.또 이 법안은 고위험 인공지능엔 안전, 기본권 등에 악영향을 미칠 수 있는 △생체인식, △주요인프라 관리, △교육훈련, △고용·HR, △필수 서비스, △법 집행 등이 포함되고 고위험 인공지능에 대한 별도의 요구 준수사항을 마련하였다.

이어 조 박사는 문헌조사 연구를 통해 AI의 신뢰성 연구개발 수준을 발표하며 “AI의 신뢰성 기술 연구는 2017년 이후 급증했으나 주로 견고성과 설명가능성이 대부분을 차지하고 공정성과 편향제게 기술에 대한 연구는 비중이 상대적으로 낮았다”며 “인공지능 신뢰성 문제는 인공지능의 구조적 특성에서 비롯되기 때문에 기술적 난제이며, 집단 차원의 공정성과 개인 차원의 공정성 간의 상호충돌 및 다양한 공정성 개념 간의 상호충돌도 심층적으로 논의되어야 할 과제다”라고 제시하였다.

과학기술젠더혁신센터는 2021년 2월에 설립됐으며, 남녀 모두를 위한 과학기술 젠더혁신을 위해 정책개발과 교육, 연구문화 조성, 인식개선 및 글로벌 네트워크 사업 등을 추진하고 있다.

구현화 기자 kuh@hankyung.com