'챗GPT'에 대한 10가지 질문, 챗GPT가 직접 답했다(3) [챗GPT의 모든 것]
입력 2023-02-11 06:00:11
수정 2023-02-11 06:00:11
“요즘 이거 모르면 대화가 안 돼”…인간의 말을 인간처럼 대화하는 인공지능의 모는 것
[스페셜 리포트 : 챗GPT 쇼크]“챗GPT는 ‘알파고 쇼크’ 그 이상일 겁니다. 세상에 바뀌지 않는 분야가 없을 테니까요.”
한국의 한 AI 스타트업 최고기술경영자(CTO)는 챗GPT의 파급력을 묻는 질문에 이렇게 답했다. 챗GPT에 대한 관심이 갈수록 뜨거워지고 있다. 누군가는 ‘알파고 쇼크’를 언급하고 누군가는 ‘아이폰의 탄생’만큼이나 우리의 일상생활을 바꿔 놓을 것이라는 전망을 내놓는다. 이미 학술지뿐만 아니라 교육업계는 챗GPT로 인한 부작용과 이후 교육 방법의 변화에 대한 논의를 시작하고 있다. 법률·의학 등 전문 분야 또한 챗GPT로 인한 위협과 이후 상생을 위한 방안을 고민 중이다. 더욱 중요한 것은 챗GPT로 인한 우리 사회의 변화가 이제 겨우 ‘시작’이라는 것이다.
그렇다면 챗GPT는 무엇이고 우리가 살아가는 세상을 어떻게 바꿔 놓게 되는 것일까. 챗GPT의 모든 것을 열 가지 질문으로 담아 봤다. 질문들에 대한 답은 챗GPT가 직접 작성했다.
7. 챗GPT가 거짓말도 해?
“아니요, 나는 의도적으로 잘못된 정보를 제공하지 않도록 프로그램돼 있습니다. 그러나 맥락을 이해하지 못하거나 훈련 데이터에 제공된 정보가 부정확하거나 훈련 받은 정보가 오래된 경우 잘못된 답변을 제공할 수 있습니다.”
이와 같은 챗GPT의 답변은 거짓말이다. 챗GPT는 거짓말을 잘한다. 스스로 똑똑하다고 자부하는 챗GPT이지만 물론 한계도 존재한다. 챗GPT 스스로 말하는 자신의 단점은 아래와 같다.
“AI 언어 모델로서 나는 다음과 같은 제한 사항이 있습니다. 첫째, 상황 이해 : 대규모의 데이터 세트에 대해 교육을 받았지만 여전히 상황을 이해하는 데 씨름할 수 있습니다. 상황이 명확하지 않은 경우 잘못된 답변을 제공할 수 있습니다. 둘째, 상식 부족 : 나는 개인적인 경험이나 감정이 없으며 일부 상식적인 추론과 지식을 이해하고 처리하는 능력이 부족합니다. 셋째, 훈련 데이터의 편향 : 내가 훈련받은 데이터는 해당 데이터에 존재하는 편향과 한계를 반영하고 있습니다. 이로 인해 편향된 답변을 제공할 수 있습니다. 넷째, 창의력 부족 : 나는 기계이고 훈련 데이터의 패턴을 기반으로만 응답을 생성할 수 있습니다. 이것은 내가 진정으로 창의적인 글이나 독창적인 생각을 할 수 없다는 것을 의미합니다. 다섯째, 제한된 정보 : 나는 2021년까지만의 데이터를 토대로 교육받았습니다. 2021년 이후의 최근 사건이나 발전에 대해서는 알지 못합니다.”
챗GPT가 ‘거짓말’을 잘한다는 사실은 이미 널리 알려져 있다. 로봇 공학자 데니스 홍은 지난 2월 초 페이스북을 통해 ‘챗GPT의 수학적 능력에 관한 논문’ 한 편을 소개했다. AI인 챗GPT는 복잡한 수학 문제를 계산해 달라고 하면 1초도 안 돼 답을 내놓는다. 문제는 그 답이 ‘틀린’ 경우가 많다는 것이다. 사용자가 챗GPT에 ‘계산이 틀렸다’고 지적하면 챗GPT는 “아 제가 계산에서 착오를 일으켰군요”라며 바로 사과한다. 데니스 홍이 소개한 논문의 결론 또한 이와 맞닿아 있다. “수학적 계산 영역에서 AI가 인간을 압도하는 시기가 언젠가 오겠지만 챗GPT의 수학적 능력이 그 수준에 도달하기까지는 여전히 많은 시간이 걸릴 것으로 보인다. 챗GPT는 지금도 생각보다 자주 오답을 내놓는 경우가 많다.”
문제는 GPT가 너무나도 천연덕스럽게 거짓말을 하는 나머지 ‘진실로 속아 넘어가기 십상’이라는 점이다. 사용자가 전혀 모르는 분야에 대해 챗GPT가 제공하는 정보에 의존한다면 부작용이 매우 클 수 있다. 데니스 홍이 이 논문을 소개하며 강조하는 바 또한 이것이다. 챗GPT는 놀랍지만 ‘만능’은 아니라는 것이다. 챗GPT가 인간의 생산성을 높이는 도구로 제대로 그 가치를 발휘하기 위해서는 여전히 챗GPT보다 더 많이 아는 인간의 ‘지식의 힘’이 필요하다. 챗GPT는 사용자가 ‘잘 모르는 분야’보다 ‘잘 아는 분야’를 사용할 때 더 큰 위력을 발휘하게 될 가능성이 높다.
8. 정답을 찾아주는 챗GPT, 이제 ‘구글링’은 사라지는 것일까?
“챗GPT는 질문에 답하고 정보를 제공하는 데 도움이 될 수 있지만 정보를 찾는 데 늘 가장 신뢰할 수 있거나 효율적인 소스는 아닙니다. 구글의 검색 엔진은 웹 검색을 위해 특별히 설계돼 있고 순위 알고리즘 및 개인화된 검색 결과와 같은 많은 고급 기능을 갖추고 있어 정보를 찾는 데 매우 효과적인 도구입니다. 또한 챗GPT는 언어 모델이며 다양한 범위의 텍스트에 대해 학습돼 있지만 정보에 접근하고 검색하는 기능에는 여전히 제한이 있습니다. 최신 정보에 대한 최신 정보가 아닐 수도 있습니다. 따라서 필요한 정보를 찾으려면 챗GPT나 구글과 같은 검색 엔진을 모두 포함하는 소스 조합을 사용하는 것이 좋습니다.”
챗GPT의 등장과 함께 가장 많이 언급되는 것이 ‘구글 천하’의 몰락이다. 챗GPT가 탄생한 지 한 달 만인 지난해 12월 2일 영국 매체 인디펜던트는 ‘구글은 끝났다(google is done)’라는 도발적인 제목의 기사를 싣기도 했다. 시장 조사 기관 스캣카운터에 따르면 글로벌 검색 시장에서 구글의 점유율은 93%에 달한다. MS의 빙은 검색 시장 2위지만 점유율은 3%에 불과하다. 그런데 MS가 지난 2월 7일 오픈AI의 챗GPT를 결합한 검색 엔진 ‘빙’의 새로운 버전을 공개하고 나선 것이다. 구글의 검색 엔진은 찾고자 하는 정보의 키워드를 입력하면 관련 정보를 보여준다. 하지만 챗GPT는 친절하게 정답을 알려준다. ‘구글링’을 할 때 필수적인 과정이나 다름없던 관련 정보들을 열어본 뒤 내용을 파악하고 선별하는 과정이 필요 없게 된 것이다. 챗GPT가 ‘구글 천하’의 막을 내리게 되는 계기가 될 것이란 전망이 나오는 이유다.
하지만 이에 대한 ‘검색 최강자’ 구글의 반격도 만만치 않다. 구글 또한 하루 전인 2월 6일 챗GPT에 맞설 ‘바드(Bard)’라는 AI를 공개했다. 순다르 피차이 구글 CEO는 “앞으로 몇 주 안에 대중에게 바드를 공개할 것”이라고 말했다. 구글의 바드는 초거대 언어 모델인 람다(LaMDA : Language Model for Dialogue Applications)를 기반으로 하고 있다. 1370억 개에 달하는 파라미터를 지니고 있고 30억 개에 달하는 문서와 11억 개에 달하는 대화를 익힌 것으로 알려졌다. 챗GPT와 람다의 기반이 되는 신경망 구조인 ‘트랜스포머’는 구글에 의해 탄생했다. 기술적으로만 따지면 구글의 ‘바드’가 챗GPT에 뒤지지 않을 가능성이 높다. 그럼에도 구글이 지금까지 ‘바드’와 같은 AI를 세상에 내놓는 데 주저한 데는 ‘사람과 대화하는 초거대 AI’가 가져올 수많은 문제와 사회적 이슈를 고려했기 때문이다. 결론적으로, 빅테크 기업들 간의 AI 패권 경쟁은 이미 시작됐다. 구글이 주저하는 사이 MS의 우군이 된 오픈AI가 방아쇠를 당겼고 챗GPT가 일으킨 강력한 돌풍에 이제 구글이 어떻게 응수하는지 지켜볼 차례다.
9. AI는 인간의 직업을 빼앗아 갈까?
“AI는 분명 기존에 인간이 수행하고 있는 특정 작업을 자동화할 수 있는 잠재력을 가지고 있습니다. 그리고 이는 일부 산업에서 일자리 대체로 이어질 수 있습니다. 그러나 현재 AI가 수행할 수 없는 인간의 창의성·공감·직관이 필요한 작업이 많기 때문에 AI가 인간의 직업을 완전히 대체할 가능성은 낮습니다. AI가 고용 시장에 미치는 영향은 정부 정책, 기술 발전 속도, 노동자의 신기술 적응 능력 등 다양한 요인에 따라 달라집니다. AI가 미래에 특정 작업을 수행하는 데 필요한 작업의 성격과 기술을 변경할 수 있지만 이러한 변화의 구체적인 내용을 예측하기는 어렵습니다. 단기적으로 AI는 일상적인 작업을 자동화하고 인간이 보다 복잡하고 창의적인 작업에 집중할 수 있도록 함으로써 인간 노동을 보완할 가능성이 높습니다. 사회가 AI로 인한 일자리 대체로 인한 문제를 선제적으로 해결하고 기술 진보의 혜택이 널리 분배되도록 하는 것이 중요합니다.”
AI가 인간의 직업을 앗아갈 가능성에 대한 질문에 챗GPT는 ‘모범 답안’을 내놓았다. ‘AI가 일상적인 작업을 자동화하고 인간이 보다 복잡하고 창의적인 작업에 집중할 수 있는 환경’이 마련된다면 이는 AI와 인간이 공존하는 미래에 대한 최상의 시나리오다. 하지만 AI가 인간의 ‘창작’ 영역까지 침투해 들어오면서 적어도 단기적으로 AI가 인간의 일자리에 막대한 영향을 미칠 것이라는 공포감 또한 커지고 있는 것이 사실이다.
인간과 기계의 일자리 경쟁은 사실 해묵은 논쟁거리다. 하지만 챗GPT가 과거의 논쟁과 비교해 더욱 큰 충격을 주는 이유는 분명하다. 지금까지 인간과 기계의 일자리 경쟁에서 기계가 확연히 우위를 차지하던 분야는 ‘몸을 쓰는 일’과 ‘단순 노동’이었다. 이와 비교해 챗GPT가 위협하는 일자리는 지적 능력에 기반한 ‘전문직’이다. 챗GPT는 이미 의사 면허 시험에 통과했고 와튼 경영대학의 MBA 시험에서도 통과하는 능력을 증명했다. 변호사 시험 또한 통과 소식이 전해진다. 의사·변호사·연구원·작가와 같은 일자리들이 가장 먼저 위협받고 있다. 이른바 ‘화이트 칼라 빅뱅’이다.
노벨경제학상 수상자이자 미국 뉴욕타임스의 유명한 칼럼니스트인 폴 크루그먼 뉴욕시립대 교수는 지난해 12월 ‘챗GPT의 등장은 로봇이 인간의 전문직을 대체한다는 의미일까’라는 칼럼을 실었다. 과거에도 인간의 직업은 기계에 의해 수없이 대체돼 왔다. 하지만 과거의 기계는 인간의 ‘근육’을 대체했고 그에 따라 ‘지식 산업’에 대한 수요는 역사적으로 증가해 왔다. 실제로 챗GPT는 앞으로 이와 같은 ‘지식 산업’의 상당 부분을 대체할 가능성이 있다. 크루그먼 교수는 칼럼을 통해 “장기적인 관점에서 챗GPT는 지식 노동자들의 생산성을 높이는 데 도움을 줄 것이고 과거 전통 산업들과 마찬가지로 사회를 더 풍요롭게 만들 것”이라면서도 “하지만 그런 풍요로운 사회가 도래하기도 전에 우리 중 일부는 ‘비싼 돈을 들여 지식을 쌓고 교육을 받았음’에도 실직을 당하거나 혹은 예상했던 것보다 훨씬 적은 수입을 올리는 현실을 마주하게 될지도 모를 일이다”라고 경고한다.
10. 챗GPT 이후의 세상, 어떻게 바뀔까?
“챗GPT와 다른 AI 언어 모델은 사회에 긍정적이거나 부정적인 변화를 모두 가져올 수 있습니다. 첫째, 생산성 및 효율성 향상 : AI 언어 모델은 이전에는 사람의 노력이 필요했던 많은 작업을 자동화해 줄 것입니다. 이를 통해 인간은 더 중요한 작업에 시간을 할애하고 효율성을 높일 수 있습니다. 둘째, 더 나은 고객 서비스 : 챗GPT 및 기타 AI 언어 모델은 고객 문의에 빠르고 정확한 답변을 제공해 고객 만족도를 높이고 응답 시간을 단축할 수 있습니다. 셋째, AI 연구의 발전 : AI 언어 모델의 개발 및 사용은 AI 연구의 새로운 발전을 주도하여 보다 발전된 AI 시스템의 개발로 이어집니다. 넷째, 기술에 대한 의존도 증가 : AI 언어 모델이 일상생활에 더 많이 통합됨에 따라 기술에 대한 의존도가 높아지고 기술 없이는 작업을 수행할 수 없게 될 수 있습니다. 다섯째, 윤리적 문제 : AI 언어 모델과 관련된 잠재적인 윤리적 문제도 있습니다. 예를 들어 이러한 시스템이 기존 편견을 영속화하고 잘못된 정보를 영속화할 가능성이 있습니다.”
퓰리처상을 수상한 토머스 프리드먼은 ‘늦어서 고마워’라는 저서에서 지금의 시대를 가속의 시대라고 명명했다. 변화의 속도가 점점 더 빨라지는 시대를 말하는데 이 변화의 속도를 폭발적으로 끌어올리는 결정적인 연도를 ‘빈티지 연도’라고 표현했다. 포도주도 유독 좋은 포도주가 숙성되는 해가 있듯이 기술의 발전 역시 유독 세상에 어마어마한 파급력을 일으키는 기술이 탄생하는 해가 있다는 의미다. 2007년 아이폰이 탄생한 해가 대표적이다. 토머스 프리드먼 식의 표현에 따르면 아마도 2022년은 챗GPT에 따라 또 한 번의 ‘빈티지 연도’로 기억될 것으로 보인다. 챗GPT에 따른 변화는 이미 사회 곳곳에서 시작되고 있기 때문이다.
가장 먼저 변화가 논의되고 있는 분야는 교육이다. 챗GPT가 웬만한 대학생 수준의 에세이를 작성하는 능력을 갖추게 되면서 교육계에서는 챗GPT 표절 논란이 거세지고 있다. 그럼에도 불구하고 챗GPT를 통한 학생들의 표절 행위를 완벽하게 막을 수 없기 때문에 ‘근본적인 교육 방법’을 바꿔야 한다는 주장도 제기되고 있다. 현재 가장 현실성 높은 대안으로 거론되는 것은 ‘거꾸로 교수법’이다. 교실에서 선생님의 강의를 듣고 집에서 에세이 등을 작성하는 기존의 수업 방식을 뒤집는 것으로, 온라인 학습을 통해 집에서 선생님의 강의를 듣고 교실에서 선생님과 함께 에세이 등을 작성하며 사고와 논리력을 키우는 것이다.
비즈니스에서도 챗GPT를 활용한 변화는 이미 현재 진행형이다. 대표적으로 미국 부동산 시장에서는 부동산 중개인들의 업무에 챗GPT를 활용하는 것이 보편화되고 있다. 매물에 대해 설명문을 준비하는 것은 물론 소셜 미디어에 올릴 글을 작성하거나 특히 법률적인 문서를 작성하는 데 상당한 도움을 받고 있다는 것이다. 김중한 삼성증권 연구원은 “중요한 점은 챗GPT와 같은 AI를 활용한 비즈니스가 아직도 초기 시장에 불과하다는 것”이라며 “챗GPT와 같은 생성형 AI가 대중화되는 것은 단지 시간문제”라고 못 박는다.
하지만 챗GPT 스스로 지적하듯이 ‘챗GPT 이후의 세상’에 장밋빛 전망만 존재하는 것은 아니다. 챗GPT에 대한 관심이 너무나 이른 시간 안에 뜨겁게 달아오른 만큼 ‘챗GPT 버블 논란’ 또한 일각에서 제기되는 중이다. 힌국 AI 스타트업의 대표는 “지금 사람들은 챗GPT가 어디에든 적용할 수 있고 모든 문제를 해결해 줄 수 있는 만병 통치약처럼 바라보는 경향이 있다”며 “챗GPT와 같은 AI와 인간이 공존하면서 실질적으로 부딪치게 될 윤리적인 문제나 보안, 규제 관련 문제들을 지금부터 고민하고 차근차근 준비해 나갈 필요가 있다”고 강조했다.
이정흔 기자 vivajh@hankyung.com