논란 계기로 ‘인공지능 자율 점검표’ 마련…AI 시대 대비한 개인 정보 보호 강화 기대

[지식재산권 산책]
인공지능 내 친구 ‘이루다’가 남긴 것 [김윤희의 지식재산권 산책]


올해 초는 ‘이루다’ 사태로 떠들썩했다. ‘이루다’는 한 스타트업 회사가 개발한 대화형 인공지능(AI) 챗봇이다. 챗봇은 이제 우리 주변에서 어렵지 않게 찾아볼 수 있다. 애플의 ‘시리’, 삼성의 ‘빅스비’, 네이버의 ‘클로바’는 물론 최근에는 많은 기업들이 상담원을 대신해 챗봇을 도입하고 있다.

‘이루다’는 ‘AI 친구’라는 콘셉트를 기반으로 여러 가지 신상 정보를 부가했는데 친근감을 주기 위해 20대 여대생으로 설정됐다.
AI 활용 과정에서의 윤리 문제 불거져
문제가 된 것은 일부 이용자들이 ‘이루다’와 선정적인 대화를 나눴고 이를 학습한 ‘이루다’가 이용자를 성적으로 희롱하는 일까지 발생한 것이다.

또 대화를 통해 학습하는 ‘이루다’가 동성애 혐오나 성차별 발언을 해 AI의 윤리 문제로 번졌다. 이는 2016년 마이크로소프트의 AI 채팅봇 ‘테이’가 극우 사용자들로부터 잘못된 학습을 받고 욕설이나 인종·성차별적 발언을 한 결과 16시간 만에 운영이 중단된 사건을 연상케 한다.

무엇보다 ‘이루다’ 사태는 개인 정보 침해 문제를 야기했다. ‘이루다’ 개발에 사용된 개인 정보는 개발사의 다른 애플리케이션(앱)인 ‘연애의 과학’ 등에서 수집된 것인데, 당초 고지 목적과 다르게 ‘이루다’의 개발에 사용된 것이다.

또한 ‘이루다’ 개발에 사용된 개인 정보가 적절하게 가명 처리되지 않은 문제도 있었다. 이에 4월 28일 개인정보보호위원회는 총 8가지 개인정보보호법 위반 행위를 이유로 개발사에 과징금 5500만원과 과태료 4780만원을 부과하고 시정 조치를 명했다.

그리고 ‘이루다’ 사태를 계기로 개인정보보호위원회는 5월 31일 ‘AI 자율 점검표’를 공개했다. 이는 AI 설계 및 개발·운영 과정에서 개인 정보를 안전하게 처리하기 위해 지켜야 할 개인정보보호법상의 주요 의무·권장 사항을 단계별로 자율 점검할 수 있도록 담아낸 안내서다.

업무 처리 전 과정에서 지켜야 할 6가지 원칙과 이에 기반해 단계별로 점검해야 할 16개 항목, 54개 확인 사항을 제시하고 있다.

자율 점검표가 제시하는 6대 원칙은 ‘적법성’, ‘안전성’, ‘투명성’, ‘참여성’, ‘책임성’, ‘공정성’이다. 그리고 업무 처리 단계를 8단계, 즉 ‘기획·설계’, ‘개인 정보 수집’, ‘이용·제공’, ‘보관·파기’, ‘AI 서비스 관리·감독’, ‘이용자 보호’, ‘자율 보호 활동’, ‘AI 윤리 점검’으로 나누고 각 단계에서 점검할 주요 항목(총계 16개 항목)을 제시하고 있다.

예를 들어 ‘개인 정보 수집’ 단계에서의 주요 점검 항목으로 ‘적법한 동의 방법’, ‘동의 이외의 수집 근거 확인’, ‘공개된 정보 등 정보 주체 이외로부터 수집 시 유의 사항’을 들고 있고 ‘신규 서비스 개발’을 위한 개인 정보 수집 동의 시 ‘○○ 서비스의 챗봇 알고리즘 개발’과 같이 목적을 구체적으로 작성하고 이용자가 충분히 이해·예측할 수 있도록 ‘신규 서비스’의 의미 등을 구체적으로 알려야 함’을 안내하고 있다.

또한 ‘AI 윤리 점검’ 단계에서는 개인 정보 처리 시 사회적 차별과 편향 등이 최소화되도록 점검·개선할 것을 권하고 있다.

인공지능 내 친구 ‘이루다’는 우리 사회가 점점 다가오는 AI 시대를 맞이해 여러 가지 준비가 필요하다는 것을 알려줬다.

이번에 발표된 ‘AI 자율 점검표’는 2020년 12월 과학기술정보통신부가 발표한 ‘AI 윤리 기준’과 함께 AI 시대에 대비한 준비의 일환이다. 아직 다소 추상적인 내용을 담고 있기는 하지만 향후 ‘AI 자율 점검표’가 AI 시대의 개인 정보 보호의 수호자로 발전하기를 기대해 본다.

김윤희 법무법인(유) 세종 변호사