사진=연합뉴스
사진=연합뉴스
구글이 지난 5월10일 연례개발자회의(I/O)를 통해 전면 오픈한 바드에 대한 관심이 이어지고 있다. 하지만 AI 챗봇의 고질적 문제인 ‘환각(할루시네이션)’ 현상이 여전히 걸림돌이 되고 있다.

“세종대왕이 맥북을 던졌다는 말은 사실이 아닙니다. 세종대왕이 맥북을 던졌다는 이야기는 챗봇인 챗GPT가 만든 가상의 이야기입니다.”

구글이 챗GPT 대항마로 선보인 바드에게 ‘세종대왕 맥북 던짐 사건’에 대해 질문하자 바드가 건넨 대답이다. ‘세종대왕 맥북 던짐 사건’은 챗GPT와 같은 AI(인공지능) 챗봇의 고질적인 문제인 ‘환각(할루시네이션)’ 현상의 대표적인 사례다.

같은 질문에 챗GPT는 “세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다”고 답한 바 있다. 이와 같은 챗GPT의 ‘유려한 거짓말’은 한 동안 ‘밈’으로 유행하기도 했었다.

하지만 ‘세종대왕 맥북프로 던짐 사건’이 챗GPT가 만들어 낸 거짓말이라는 것을 정확하게 알고 있는 바드 또한 챗GPT와 같은 ‘거짓말 논란’은 피하지 못하고 있다. 예를 들어, 바드에게 “OOO라는 사람에 대해 알려줘”라고 질문을 하면 바드는 꽤 길고 그럴듯한 경력과 업계 내 평판을 들려준다. 하지만 바드가 건네는 정보의 대부분이 ‘틀린 정보’다. 성별이 남자인 교수를 ‘여성’이라고 우기거나 입사 혹은 창업 년도에 대한 정보를 잘못 제공하는 경우가 허다하다.

“OOO 기업에 대해서 알려줘”라고 질문을 하면 첫번째 대답에서는 “공동창업자인 A와 B, C가 2015년에 설립했다”고 대답한다. 하지만 두번째에는 같은 질문에도 “A가 2017년 설립했다”고 알려주고, 세번째에는 “A와 D가 2020년 설립했다”는 식으로 매번 답변이 달라지는 경우도 상당수다. 이와 같은 바드의 환각 현상을 두고 “바드가 멀티버스의 무한대 평행세계를 찾아주는 범 우주적 검색엔진으로 봐야 한다는 게 업계의 정설”이라는 우스갯소리도 나오고 있다.

구글이 ‘챗GPT의 대항마’로 선보인 바드는 어색함 없이 한국어를 구사하는 언어능력과 최신 정보를 검색해서 답변에 포함하는 검색 능력으로 차별화에 성공했다는 반응이 지배적이다. 하지만 AI 언어 모델의 가장 큰 단점으로 지적되는 ‘환각(hallucination)’ 현상은 바드 또한 쉽게 해결하지 못했다.

AI의 환각 현상은 그럴듯하게 들리지만 사실과 다르거나 주어진 맥락과 무관한 결과물을 생성하는 것을 일컫는다. AI가 사실과 허구의 정보가 모두 포함돼 있는 방대한 덱스트 데이터 세트를 학습하는 과정에서 어떤 정보가 사실이고 허구인지를 구별하는 방법을 배우지 못한 것이다. 다시 말해, AI 모델의 내재된 편견이나, 학습 데이터의 한계 혹은 실제 세계에 대한 이해가 부족이 ‘환각’ 현상을 일으키는 주된 원인이다. 그 결과, AI는 학습하지 않았거나 사실이라는 확인이 없는 상태에서 거짓 정보를 ‘자신 있게’ 전달하며 오해의 소지가 있는 답변을 제공할 여지가 매우 높다.

하지만 ‘방대한 데이터 학습’에 기반한 대규모 언어 모델(LLM)의 경우 이 ‘환각’ 문제를 해결하면 AI의 성능이 떨어질 수 있다는 점에서 쉬운 문제가 아니다. 때문에 순다르 피차이 구글 최고경영자(CEO) 또한 “현재 사용하는 대규모 언어 모델들은 아직 한계가 있는 초기 기술”이라는 점을 명확히 했다.

피차이 CEO는 지난 4월 한 인터뷰에서도 “AI가 사회에 안전하게 뿌리내리기 위해서는 ‘환각’ 현상을 어떻게든 해결하는 것이 가장 중요하다”고 거듭 강조한 바 있다. 그는 “바드 등 AI 챗봇에서 발생하는 할루시네이션 원인과 해결책을 그 누구도 제시하지 못하고 있다”며 “AI의 환각 현상을 해결하는 것이 향후 AI 개발자들의 최우선 임무가 될 것이다”고 말했다.

이정흔 기자 vivajh@hankyung.com