“사실은 이과가 더 걱정”…인공지능 챗GPT 기술의 진실과 한계

[스페셜 리포트 : 챗GPT 쇼크]
“챗GPT 때문에 문과 망하는 거 아닌가요?”…'AI 대부' 의견은?[챗GPT의 모든 것]
“챗GPT 때문에 문과는 완전히 망하는 거 아닌가요.”

알파고와 아마존고에 이어 이번엔 ‘챗GPT’다. 인공지능(AI) 기술이 고도화되고 다양한 산업에 접목하며 상용화될 때마다 인간의 능력과 역할에 대한 두려움이 함께 고개를 든다. 알파고는 바둑으로 사람을 이기면서 AI의 존재감을 보여줬고 아마존고는 기계가 인간의 단순 노동을 대체한다는 인식을 심어 줬다면 챗GPT에 대한 공포감은 더 짙다.

미국 대학 로스쿨 입학 시험, MBA 기말 시험, 의사 면허 시험까지 합격했다. 개발자처럼 컴퓨터 코드를 짜고 시·논문·기사까지 척척 써낸다. 그리고 이 같은 기술이 검색 서비스로 나와 이미 1억 명 넘게 경험하면서 일상 깊이 스며들었다.

한계를 지적하는 전문가들도 많다. 언어 데이터를 기반으로 하기 때문에 물리학적 직관이나 학습하지 않은 데이터에 대한 정보는 틀릴 가능성이 높다. 표절로 인한 저작권 문제나 도덕적 윤리에 대한 비판도 여전하다.

챗GPT가 전 세계에 신드롬 수준의 파장을 불러일으키면서, 다른 빅테크 기업들도 발빠르게 생성AI(데이터를 학습해 새 콘텐츠를 만드는 AI) 챗봇을 내놨다. 하지만 기존에 존재하던 콘텐츠와 데이터를 가져다 학습한 AI가 내놓은 결과물을 저작물로 인정할 것이냐를 두고서도 논란이 빚어지고 있다.

세계 교육계에도 비상이 걸렸다. 챗GPT의 글쓰기 능력이 사람과 구분하기 어려울 정도여서 부정 행위에 악용될 우려가 컸기 때문이다. 짧은 시간에 기존의 자료를 조합해 긴 글을 작성하거나 문제풀이를 하는 챗GPT의 등장에 따라 학생이 스스로 과제를 해결하지 않고 챗GPT에 맡겨 결과물을 그대로 복제할 수 있다는 우려도 나온다.

세계적 언어학자인 노엄 촘스키 매사추세츠공과대(MIT) 명예교수도 이를 지적했다. 그는 최근 교육 관련 내용을 다루는 유튜브 ‘에듀키친(Edukitchen)’에 출연해 챗GPT에 대해 “인문학과 사회과학 등 글쓰기에 기반한 학문에서 ‘표절’은 매우 오랫동안 중요한 이슈였다”면서 “AI로 인해 표절하기가 더 쉬워졌다”고 우려를 표했다. 그는 궁극적으로 챗GPT가 “언어·인지·인간의 이해와 관련해서는 가치가 없다”는 생각이다.

미국·프랑스·호주의 일부 학교에서는 챗GPT 활용을 제한하기 시작했다. 챗GPT는 인간의 영역인 창의성과 통찰력마저 넘볼 수 있을까. 구글이 챗GPT에 대한 위기감으로 ‘코드 레드’를 선언한 것처럼 인간 역시 본연의 영역에 경고음을 울려야 할까. 유치원생도 답할 수 있는 질문에는 엉뚱한 소리했다
얀 르쿤 뉴욕대 교수는 챗GPT같은 대형언어모델이 '인간의 지능 수준으로 가는 고속도로에서 갓길로 빠져나간 것과 같다'고 비판했다./얀 르쿤 교수 페이스북
얀 르쿤 뉴욕대 교수는 챗GPT같은 대형언어모델이 '인간의 지능 수준으로 가는 고속도로에서 갓길로 빠져나간 것과 같다'고 비판했다./얀 르쿤 교수 페이스북
“챗GPT? 그다지 똑똑하지 않아”
챗GPT 광풍이 분 이후 한 과학자가 이를 공개 저격했다. ‘AI 대부’, ‘AI 4대 천왕’으로 불리는 얀 르쿤 뉴욕대 교수다. 르쿤 교수는 “챗GPT 같은 대규모 언어 모델(LLM)은 언어를 피상적으로 학습해 질문에 그럴싸한 답변을 도출할 수는 있지만 답변의 진위 여부를 판독할 수 없고 물리적 직관이 없다”고 주장했다.

컴퓨팅계의 최고 권위자에게 주는 ‘튜링상’ 수상자인 르쿤 교수가 예로 든 문장을 보자.
“두 손을 이용해 종이를 수평으로 잡고 있다가 한쪽 손을 놓으면 무슨 일이 벌어질까.”

로스쿨까지 합격한 챗GPT가 답했다.
“손을 놓은 방향으로 종이가 기울거나 회전할 수 있습니다. 종이가 더 이상 양쪽으로 균등하게 고정되지 않고 무게 분포가 불균일하기 때문입니다.”

언뜻 보면 훌륭한 답변이다. 하지만 자세히 들여다보면 물리학적으로 정반대의 답을 내놓았다. 종이를 두 손으로 잡고 있다가 한쪽 손을 놓으면 손을 놓은 방향이 아니라 잡고 있던 방향으로 종이가 기운다.

챗GPT가 이처럼 간단한 질문에 답하지 못하는 이유는 작동 원리가 문자 데이터에 기반한 대규모 언어 모델이기 때문이다. 챗GPT가 기반하고 있는 언어 모델은 ‘GPT-3.5’다. GPT-3는 명령어, 즉 프롬프트(prompt)에 기초해 사람과 유사한 응답을 생성하는 자동 회귀 언어 모델이다. 쉽게 말하면 다양한 단어가 주어지면 이를 연결해 어떤 문장을 만들어야 하는지 데이터에 기반해 ‘확률적으로’ 가장 적합한 문장을 내놓는다.

이 때문에 인간이 쉽게 답할 수 있는 질문에 틀린 답을 내놓거나 비언어적·물리학적 직관이 필요한 지식에 대해서는 엉뚱한 대답을 할 가능성이 있다. 르쿤 교수는 이를 두고 “인간 지능 수준의 AI로 가는 고속도로에서 (챗GPT 같은) 대형 언어 모델은 갓길로 빠져나온 것과 같다”며 기술의 비혁신성을 강조했다. 르쿤 교수가 대형 언어 모델 (LLM)을 비판한 것은 처음이 아니다. 그는 2020년 한 포럼에서도 “GPT는 그저 높이 나는 비행기를 만들려고 하는 것뿐, 이 기술로는 절대 달에 갈 수 없다”고 말했다. 챗GPT, 단어 조합한 확률 모델챗GPT가 학습한 샘플 데이터, 챗GPT에 설정된 답변의 우선 순위, 답변에 대한 교육과 평가에 따라 답변의 정확성이나 진위 여부가 갈리기 때문이다.

최종현 연세대 인공지능학과 교수 역시 “챗GPT는 다른 GPT 모델에 비해 컨텍스트 인코딩 능력이 좋아서 대화의 답변을 보면 AI가 창의력을 갖추거나 통찰력이 있다고 착각할 만하다"며 "하지만 이를 진정한 대화 내용의 이해라고 해석하기 보다는 긴 단어 시퀀스를 조건으로 확률이 가장 높은 다음 단어를 예측하는 기술로 이해해야 한다”고 말했다.

이어 “챗GPT가 학습한 원 데이터에는 통찰력이 있을 수 있고 대화형 언어 모델은 데이터의 시퀀스를 학습하는 것이기 때문에, 그 통찰력을 제공할 수 있는 ‘진짜 전문가’들이 더욱 각광을 받을 가능성이 매우 높다”이라고 말했다.

코딩 역시 단순한 샘플 코드를 제공해 주는 형태라 개발자를 대체하기에도 아직 멀었다는 의견이 지배적이다. 개발자 질의응답 사이트 ‘스택 오버플로’는 이용자가 챗GPT를 통해 만든 답안을 업로드하는 것을 일시적으로 금지하는 결정을 내렸다.

운영진은 “챗GPT가 내놓는 답변이 오답률이 높음에도 일반적으로 타당한 것처럼 보이고 답변을 만들어 내기가 너무 쉽다”고 지적했다.

하지만 현직 개발자들 사이에서는 구글 검색 대신 코드 검색 용도로 점차 많이 쓰일 것 같다는 기대감이 나오기도 한다. 챗GPT는 코드에서 에러가 발생할 수 있는 지점을 알려주는 ‘코드리뷰’도 가능하기 때문이다. 한국 대형 포털 사이트의 한 개발자는 “구글을 통한 코드 검색은 단순 키워드 검색을 하고 목록에서 직접 해결책을 찾아야 한다면 챗GPT는 대화의 문맥을 이해하고 해결책을 같이 찾아주는 형식이라 개발자들이 많은 기대를 하고 있다”고 말했다.

오류가 많고 데이터가 충분하지 않으며 저작권 등 윤리적인 문제가 있을 수 있다는 문제점은 챗GPT를 개발한 오픈AI 역시 잘 알고 있다. 뉴욕타임스에 따르면 오픈AI는 지난해 말이 아니라 올해 상반기에 챗 GPT를 공개할 계획이었다. 더 고도화된 데이터베이스를 적용하기 위해서다.

하지만 오픈AI 경영진은 다른 빅테크 기업이 비슷한 성능을 가진 챗봇을 내놓을 것을 우려해 2021년까지의 데이터만 학습한 챗GPT를 공개했다. 오픈AI 경영진이 챗GPT 출시를 결정하기까지는 고작 13일이 걸렸다고 한다.

미라 무라티 오픈AI 최고기술책임자(CTO)는 2월 5일 공개된 미국 시사 주간지 ‘타임’과의 인터뷰에서 “AI는 남용될 수 있고 나쁜 이들이 사용할 수도 있다”며 “이 기술을 전 세계적으로 어떻게 관리할 것이냐는 문제가 있다”고 인정했다. 그는 구체적으로 “AI 기술을 인간의 가치에 맞춰 조정하면서 사용하도록 어떻게 관리할 것이냐”가 관건이라고 덧붙였다.

문과는 망하는 것 아니냐는 질문으로 돌아가 보자. 전문가들은 AI 기술이 고도화될수록 인간 AI의 공존만이 해답이라고 말한다.

최 교수는 “세계적인 AI 선구자나 전문가들이 AI의 발전 속도를 예측한 내용도 틀리는 경우가 매우 많다”며 “교통과 통신, 기술이 발달해 오면서 생산성이 크게 향상되는 역사가 반복돼 왔지만 인간은 늘 변화된 사회에 적응하는 법을 터득해 왔다. AI가 발달할수록 비 인간적이고 반복적인 일을 기계에게 맡길 수 있게 된다면 더 많은 사람들이 인간적인 삶을 살 수도 있다”고 말했다.

미국에서는 대학 수업에 챗GPT 사용을 ‘의무화’한 사례도 등장했다. 미국 공영 라디오 NPR에 따르면 명문 MBA인 펜실베이니아대 와튼스쿨의 이선 몰릭 교수는 올해 강의에 ‘챗GPT’를 허용한 것은 물론 사용을 의무화했다.

NPR은 몰릭 교수가 이를 통해 인간과 기계 모두에 '우리는 함께 잘 지낼 수 없나'라는 메시지를 던지고 있다고 전했다. 몰릭 교수는 "우리는 전자계산기가 있는 세계에서 수학을 가르쳤다"며 "이제 교육자들에게 주어진 과제는 학생들에게 이 세상이 다시 어떻게 변했고 그 변화에 어떻게 적응할 수 있는지 가르치는 것"이라고 말했다.

김영은 기자 kye0218@hankyung.com