사진=연합뉴스
사진=연합뉴스
1957년 소련은 세계 최초의 인공위성 스푸트니크 1호 발사에 성공했다. 미국은 큰 충격을 받은 동시에 심각한 위기 의식을 느꼈다. 이른바 스푸트니크 쇼크(Sputnik crisis)다. 이듬해인 1958년 미국은 과학기술 분야의 우위를 유지하기 위해 오늘날 혁신적 연구개발의 대명사가 된 다르파(DARPA)와 우주탐사에 앞장서 온 항공우주국(NASA)을 설립했다. 중국 AI 기업 딥시크가 몰고 온 충격올해 1월 제2의 스푸트니크 쇼크라 불릴 만한 이벤트가 구소련의 인접국인 중국에서 발생했다. 딥시크(DeepSeek)가 공개한 생성형 AI 모델 R1은 업계의 통념을 단숨에 허무는 동시에 시장을 독과점해 온 미국 빅테크 기업들을 긴장시키고 있다. 오픈AI는 줄곧 고수해 온 폐쇄적 개발 방식을 오픈소스 방식으로 전환하는 방안을 검토하기 시작했다. 엔비디아의 기업가치는 한때 6000억 달러(약 840조원) 가까이 증발했다. 마이크로소프트, 구글의 모회사 알파벳, 반도체 기업 브로드컴, 장비 기업 ASML 등 AI 관련 기업들의 주가도 폭락했다. 후발 기업들은 딥시크 사례에서 선도 기업과의 격차를 줄일 수 있는 팁을 찾고 있다. 과도한 데이터 수집을 우려하는 각국 정부, 기업들이 딥시크의 AI 사용을 금지하는 사례가 많아지고 있다. 가장 돋보이는 점은 차별화된 개발 방식딥시크는 R1의 성능이 오픈AI의 AI 모델들과 대등하거나 소폭 능가한다고 발표했다. 미국 수학경시대회 벤치마크 성능 테스트 결과 R1은 79.8%를 획득해서 79.2%를 받은 오픈AI의 추론 특화 모델 o1을 능가했다고 한다. 코딩 테스트 정확도 역시 R1(65.9%)이 o1(63.4%)을 앞섰다고 밝혔다.

성능보다 더 주목받는 점은 딥시크만의 차별화된 접근법이다. 첫째, 오픈AI 등 선도 기업들이 주장해 온 스케일 법칙(Scale Law), 즉 대규모 물량 투입 없이 고성능 AI를 개발했다. 딥시크에 따르면 R1의 기반인 V3의 최종 훈련비는 약 560만 달러(약 81억원)에 그친다. 오픈AI, 메타의 개발비와 비교하면 1~10% 수준에 불과하다. 업계에서는 생성형 AI 모델 개발이 이른바 ‘쩐의 전쟁’이라고 봤다. 대규모 데이터 수집, 대량의 고사양 AI 반도체, 이를 뒷받침하는 거대한 자본 투입 등이 불가피하다고 본 것이다.

그러나 딥시크에 따르면 통념과 다른 접근으로 개발비를 대폭 절감했다. 우선 MoE(Mixture of Experts) 아키텍처를 적극 활용했다. R1 모델의 파라미터 6710억 개 중에서 340억 개만 선택적으로 활성화시켜 기존 방식 대비 메모리 사용량을 약 90% 줄였고 처리 시간도 단축했다. 업계 표준이던 32비트 데이터 대신 8비트 데이터를 사용해서 해당 작업의 메모리 사용량도 최대 75% 줄였다. 외부 역량을 최대한 활용하기 위해 누구나 소스 코드에 접할 수 있는 오픈소스 개발 방식을 채택해 개발 속도를 가속화했다.

업계에서는 딥시크의 누적 개발비가 상당히 클 것으로 추정한다. V3와 R1뿐만 아니라 이전 AI 모델들의 개발에 투입된 AI 반도체 구매 비용, 서버 임대 비용, 합성 데이터 생성 비용 등을 포함한 딥시크의 총 개발비는 V3 훈련비의 90배에 달하는 약 5억 달러(약 7300억원)에 이른다는 의견도 있다. 그렇지만 V3 모델의 최종 훈련비가 상당히 저렴하다는 점은 무시하기 어렵다.

둘째, AI 개발에 엔비디아의 저사양 AI 반도체 H800을 사용한 점도 눈에 띈다. 2022년 시행된 미국의 대중국 수출 규제 때문에 구매하기 힘든 고사양의 A100 칩 없이 고성능 AI를 개발한 것이다. 이게 사실이라면 부족한 자금, 공급망 미확보 등으로 고성능 AI 반도체를 확보하지 못하는 기업들에는 무척 고무적인 소식이다. 물론 다른 시각도 있다.

특히 시장에서는 딥시크의 모회사인 헤지펀드 하이플라이어(High-Flyer)가 규제 시행 전인 2021년까지 비축했던 A100 GPU 약 1만 개로 구성된 컴퓨팅 자원을 보유한 점에 주목한다. 관행상 R1 출시 시점인 2025년 1월보다 최소 6개월 이전인 2024년 중반 무렵에 AI 성능 안정화가 완료되었을 것이고 데이터 확보와 서버 구축 등 기반 작업이 딥시크의 LLM 모델 논문 공개 시점인 2024년 1월보다 적어도 1~2년 전에 완료되었을 가능성을 감안하면 모회사 하이플라이어가 보유한 A100 GPU 기반 컴퓨팅 자원이 V3와 R1의 개발 과정에서 큰 역할을 했을 것으로 추측하기도 한다.

셋째, 오픈소스 방식으로 개발된 AI가 폐쇄적 방식으로 개발된 AI를 따라잡은 첫 사례이다. SOTA(State-of-the-art) 코딩 모델로 평가받았던 오픈소스 코딩 모델 딥시크 코더(DeepSeek-Corder)는 2023년 11월에 출시되었고 업계 평균 소요 기간인 약 1년의 개발 기간을 거쳐 R1이 등장했다.

이 와중에 다양한 의혹도 제기된다. 중국 정부의 검열 시스템이 적용되었다는 심증이 확산되고 있다. AI가 천안문 사태, 시진핑 주석 거론, 대만 독립 등의 민감한 정치 이슈에 대한 질문에 대해서는 응답을 거부하기 때문이다. 과도한 데이터 수집 의혹과 중국 정부로 데이터가 유출된다는 의혹도 더욱 커지고 있다. 학습 데이터를 공개하지 않은 점을 들어 완전한 오픈소스 개발은 아니라는 의견도 제기됐다. 중국산 AI 확산의 예고편일 수도딥시크 사례는 다양한 이슈를 제공하며 시사하는 바도 많다. 우선 AI 개발 방식의 일대 전환을 불러오는 변곡점이 될 가능성이 커 보인다. 대규모 데이터 세트, 대량의 고사양 AI 반도체, 초거대 자본력 등의 물량 공세가 아닌 효과적인 대안을 모색할 가치가 충분하다는 점을 시사한다.

딥시크 식의 개발은 상용화 측면에서도 잠재적 이점이 크다. 가성비 있는 개발은 저렴한 사용료로 이어져 ‘사용자 기반 확장→저렴하고 신속한 학습→고부가 서비스 창출’이란 선순환을 유발할 수 있다. 딥시크는 좋은 사례가 될 전망이다. 딥시크가 AI 기업의 주수익원 중 하나인 API 사용료를 저렴하게 책정했기 때문이다. 딥시크는 중국에서는 AI 시장의 핀둬둬, 해외에서는 AI 시장의 테무(Temu)로 불린다고 한다. 핀둬둬는 저가격을 내세워 급성장한 이커머스 기업 테무(Temu)의 모회사이다. 딥시크의 API 사용료(V2 모델)는 0.14달러(100만 토큰당)로 오픈AI의 GPT-4, 바이두(Baidu)의 ERNIE, 중국 쯔푸AI(Zhipu AI)의 GLM 등 주요 경쟁 모델 대비 0.8~1.4% 수준으로 저렴하다. 딥시크의 저가 공세에 대응해서 바이두 등 경쟁사들은 최대 90%의 요금 인하를 추진하기도 했다. 이번에 출시된 R1의 API 사용료 역시 2.2달러로 GPT o1의 30분의 1 수준에 불과하다.

중국을 견제하려는 미국의 규제가 오히려 중국 AI 기업들의 경쟁력 강화를 가속화할 가능성도 엿보인다. 중국 AI 기업들은 6억 명에 달하는 방대한 사용자를 기반으로 데이터 수집과 고객경험 발굴을 착실하게 진행하고 저사양 반도체 등 저성능 HW를 보다 효과적으로 활용하는 경험도 꾸준히 축적하고 있다. 중국 정부에 따르면 중국 AI 기업은 4700여 개, 생성형 AI 기업만 약 700개나 되고 상용화된 거대언어모델(LLM)도 200개 이상이다. ‘6마리의 작은 호랑이’로 불리는 즈푸AI, 문샷AI, 미니맥스, 바이촨즈넝, 링이완우, 제웨싱천 등의 스타트업과 4대 천왕으로 불리는 알리바바, 텐센트, 바이두, 틱톡(바이트댄스)의 저력은 딥시크보다 우수한 것으로 알려진다.

이 같은 배경을 바탕으로 딥시크 사례는 소수의 미국 빅테크 독주 일변도인 글로벌 AI 시장의 구도가 붕괴하는 시발점이 될 것이란 전망도 있다. 중국 AI 기업들의 잠재력을 전 세계에 각인시키는 동시에 중국 기업들이 AI 기술 트렌드의 주역으로 부상할 가능성도 커지고 있다.

진석용 LG경영연구원 연구위원