본문 바로가기
  • 차세대 AI 핵심 경쟁력으로 부상한 ‘설명 가능한 AI’

    [HELLO AI] 인공지능 따라잡기인공지능(AI)이 빠르게 대중화되면서 벌써부터 정보기술(IT)업계는 차세대 AI 트렌드에 주목하고 있다. 딥 러닝 등 AI 기술이 발전했음에도 불구하고 여전히 사람과 동등한 지적 능력을 가지기에는 갈 길이 멀다. 게다가 지금보다 더욱 다양한 분야에 AI를 적용하기 위해서는 해결해야 할 과제도 적지 않다. 따라서 현재의 한계와 이슈를 해결하고 보다 고차원의 능력을 갖춘 AI 시스템을 만들기 위한 연구·개발(R&D)도 활발히 이뤄지고 있다.AI를 둘러싼 주요 이슈 중 하나는 바로 설명 가능성 문제다. 오늘날의 AI는 풍부한 데이터를 기반으로 알고리즘을 강화하고 이를 기반으로 특정 데이터가 주어졌을 때 알고리즘이 적절하게 판단할 수 있도록 설계됐다. 하지만 AI 알고리즘이 학습과 판단 과정에서 데이터를 받아들이고 처리하는 과정은 미스터리 영역으로 남아 있다. 이는 AI를 사용하는 사람들은 물론 전문 연구원들조차 쉽게 설명하기 어렵다. 이 때문에 AI 메커니즘은 그 내막을 정확히 알 수 없는 블랙박스(blackbox) 문제라고 부른다.정답 내놓지만 처리 과정은 미스터리설명 가능성 문제는 AI가 글로벌 경제의 화두로 부상한 최근까지도 큰 주목을 받지 않았다. 인간의 판단을 대신해 바람직한 답을 알려줄 수 있다는 AI의 편리성이 크게 부각된 반면 답을 찾는 일련의 과정 자체에는 관심이 크지 않았기 때문이다. 딥 러닝 등 학계와 산업계에서 수행하는 AI 연구의 대부분은 판단의 결과, 즉 정답에 가까운 답을 도출할 수 있도록 AI의 성능을 개선하는 데 초점을 맞췄다.하지만 AI의 활용 범위가 확대되면서 설명 가능성 문제가 중요한 화두로 부상했다. 특히 AI가 담당하

    2021.03.19 07:33:02

    차세대 AI 핵심 경쟁력으로 부상한 ‘설명 가능한 AI’