한국경제매거진, 제18회 제주포럼서 초거대 AI 관련 세션 진행
이정수 플리토 대표, 유승재 페르소나AI 대표 연사로 참석
초거대 AI 관련 업계의 변화와 고민해야 할 부분 짚어
한국경제매거진은 포럼 3일 차인 6월 3일 ‘다가온 초거대 인공지능(AI) 시대…미래를 위한 인도·태평양 국가의 선택’을 주제로 1시간 30분가량 세션을 진행했다. 이날 연사로 이정수 플리토 대표와 유승재 페르소나AI 대표가 참석했다. 이들 대표는 초거대 AI로 인한 변화와 고민에 대해 설명했다.이정수 대표 “차별화된 AI 기술 만드는 게 중요”첫 연사로 나선 이정수 대표는 AI의 문제점과 사용자 시각에서 필요한 자세, 업계의 현안 등을 짚었다.
초거대 AI의 가장 큰 장점은 상황에 대한 이해다. 이 대표는 “어떤 상황을 가정했을 때 자동 번역기는 번역 과정에서 잘못된 번역이 생길 수 있다”며 “똑같은 문장을 아무런 정보를 주지 않고 생성형 AI에서 번역한다면 굉장히 정확도가 높은 번역이 도출된다. 그 이유는 특정 단어에 대한 배경 지식까지 활용해 일반 번역보다 더 자연스러운 번역을 만들기 때문”이라고 설명했다.
다만 문제도 있다. 잦은 오류다. 이 대표는 제주도 방언을 예시로 들었다. 그는 “‘제주도에 오난 어떵 하우꽈?’라고 챗GPT에 물어보면 ‘제주도에는 어떤 일이 있나요’라고 번역한다. ‘맨도롱 해수과?’를 챗GPT에 물어보면 ‘무슨 일을 하겠어요?’라고 번역해 준다”고 운을 뗐다.
그러나 챗GPT의 대답은 정답은 아니다. 첫 질문은 ‘제주도에 오니 어떻습니까’라는 뜻이고 둘째 질문은 ‘따뜻한가요?’라는 의미다. 이 대표는 “챗GPT는 틀린 답도 자신 있게 대답한다”며 “너무 믿으면 안 된다. 근접하지 않은 경우가 대부분이다. 그래서 업계에서는 언어의 AI가 왜 이렇게 어려운지에 대해 고민하고 있다”고 덧붙였다.
AI가 특정 질문에 정확한 정보를 말하지 못하는 것은 제한된 정보로 결론을 도출하기 때문이다. 이 때문에 AI가 내놓는 대답도 의심해야 한다. 여전히 AI는 발전하는 과정에 있다. 그는 “모든 문제는 제한된 정보로 발생한다”며 “AI에서 가장 중요하게 지적하는 부분이 ‘환각 효과’다. 잘못된 정보를 두려워해야 한다”고 지적했다.
특히 이 대표는 챗GPT로 촉발된 AI 경쟁에서 불필요한 마케팅보다 기술 개발에 집중해야 한다고 지적했다.
그는 “챗GPT에 대한 관심이 커지자 업계는 부수적인 서비스를 내면서 가격을 높게 설정하고 있고 비슷한 서비스가 쏟아지고 있다”며 “그런 것들보다 기업만의 차별화된 기술과 노하우를 가지는 게 중요하다”고 말했다.
이어 “중요한 것은 생성형 AI를 학습시킬 수 있는 데이터와 차별화된 기술을 합쳐 새로운 가치를 만들어 내는 것”이라며 “그게 바로 지금 스타트업과 관련 기업, 나아가 국가가 해야 할 일”이라고 덧붙였다.
마지막으로 이 대표는 “생성형 AI의 미래는 사람이 결정한다”며 “생성형 AI는 보안에 취약하다. 우리가 쓰는 모든 정보가 그걸 만든 회사에 들어갈 것이고 범죄에 악용될 수 있다”고 강조했다.
그러면서 “긍정적 미래도 있겠지만 사용할 때 조심해야 하고 긴장해야 한다. 결국 만든 것도 사람이고 쓰는 것도 사람이다. 인간이 AI를 어떻게 활용하느냐에 따라 우리의 미래는 밝을 것”라고 말했다. 유승재 대표 “국가 간 경쟁, 기술 자국화 필요"둘째 발표자로 나선 유승재 페르소나AI 대표는 AI 시장의 확대로 발전하는 과정에 있고 시행착오를 겪고 있다고 밝히며 인간이 고민해야 하는 문제가 많다고 설명했다.
유 대표는 현재 AI 산업 상황을 ‘인공 지식’의 시대라고 했다. 그는 “지금은 AI의 시대보다는 인공 지식의 시대”라며 “정말 우리가 원하는 AI를 위한 기술이 나오는 시점이다. 아직은 여전히 인간의 손길이 필요한 부분이 많다”고 말했다.
그러면서 챗GPT가 내놓은 모든 답이 정답은 아니라고 밝혔다. 그는 “포털에서 ‘제주포럼에 가는 길이 어디야’라고 검색하면 그에 대한 결과가 한 400개 이상 나온다”며 “거기에서 인간이 가장 근접한 정답을 찾아야 한다. 반면 챗GPT는 바로 원하는 답을 찾아 준다”고 설명했다.
이어 “챗GPT는 정답을 말하려고 하지만 거기에는 환각 효과가 있다”며 “틀린 정보를 많이 말한다. 아예 말이 안 되면 인간이 보고 틀렸다고 파악할 수 있지만 그럴싸하게 답하면 일반인들은 인지하지 못한다. 잘못 사용한다면 사고도 발생할 수 있다”고 덧붙였다.
‘가짜 데이터 편향’ 외에도 챗GPT의 단점으로는 △데이터 부족 △보안 문제 발생 △약 1만2000줄 질문 제한 등이 있다. 또 다른 문제는 과도한 소비다. 유 대표는 “챗GPT와 같은 생성형 AI는 인프라 유지에 약 4억원이 든다”며 “최근에는 이 비용이 크게 늘어 한 달에 9억원을 사용한다고 한다. 파라미터 수가 방대해 에너지를 과도하게 소비한다. 소비 문제도 생각해 봐야 한다”고 지적했다.
그럼에도 초거대 AI를 선점해야 하는 이유는 기업 간 경쟁이 아닌 국가 간 경쟁으로 심화하고 있기 때문이다. 이를 위해 ‘기술 자국화’가 선행돼야 한다고 말했다.
유 대표는 “많은 국가들이 초거대 AI 고민하고 있지만 이를 할 수 있는 국가는 많지 않고 한국은 할 수 있다”며 “앞으로 경쟁력을 가지기 위해서는 기술 종속에서 벗어나야 한다. 챗GPT의 사용 범위가 넓어지면서 이에 대한 우려도 나온다. 챗GPT가 멈추면 한국 서비스가 다 멈출 수 있다. 챗GPT 사용도 좋지만 한국 만의 차별화된 기술을 만들어야 한다”고 강조했다.
이어 “저작권 이슈와 AI 윤리 문제도 나오고 있다”며 “여기에 맞는 국가 전략도 세워야 할 필요성이 제기된다”고 덧붙였다.
마지막으로 유 대표는 “한 교수님이 AI를 말과 사람이 경주하는 것에 비교하더라”며 “말을 이기려고 하지 말고 말 위로 올라타야 한다. 인간이 만든 AI를 우리가 활용해야 한다는 것”이라고 말했다.
최수진 기자 jinny0618@hankyung.com
© 매거진한경, 무단전재 및 재배포 금지