딥시크는 기존 AI 기술 대비 비용과 성능을 획기적으로 개선한 혁신을 통해 중국 기업의 위상을 바꿔놓고 있다. 특히 저비용, 고효율의 최적화 기술과 투명한 오픈소스 전략으로 글로벌 AI 시장에서 급부상 중이다.

[커버스토리]
스마트폰에 설치된 챗GPT와 딥시크 앱. 사진=연합DPA
스마트폰에 설치된 챗GPT와 딥시크 앱. 사진=연합DPA
딥시크는 중국에 대한 인식을, 천동설에서 지동설로 바꿀 만큼의 패러다임의 변화를 가지고 오고 있다. 모방, 짝퉁이라는 오명을 벗어나 창조와 혁신의 대명사가 됐고, 폐쇄가 아닌 개방 전략으로 글로벌 기업으로 한번에 정착했다.

인재 역시 해외에서 공부하거나 일을 한 인재를 수입하는 형태도 아니고, 중국 본토의 다양한 대학에서 직접 양성한 인재를 등용해 문화대혁명으로 쇠락했던 중국의 대학이 완전히 부활했음을 증명했다. 중국 기업이 응용이 아닌 기초에 도전했다는 점도 새삼 새로운 것이었다.

지동설에 버금가는 패러다임 전환

화웨이, 텐센트, 레노버 등 수백 개의 중국 기업이 일제히 딥시크를 도입한다고 발표했다. BYD, 지리자동차 등 14개 중국 전기차 기업들도 포함된다. 중국 로봇 기업 유비테크도 딥시크 R1 모델을 바탕으로 한 프레임워크를 공개했다.
모두를 위한 AI…전환점 만든 딥시크
미국 회사 마이크로소프트 애저, 아마존웹서비스, 엔비디아, 세레브라스, 데이터브릭스도 '딥시크-R1'을 서비스한다. 미국의 퍼플렉시티도 사용자가 원하면 딥시크 R1을 기본 언어모델로 선택할 수 있게 해 놓았다. 스노플레이크도 생성형 인공지능(AI) 기반 애플리케이션 생성 도구인 Cortex AI에서 R1을 지원한다.

한국의 프렌들리AI도, 딥시크 모델을 API로 제공한다. 한국의 뤼튼은 카카오톡플러스친구로 질문하면, 딥시크 모델을 사용해서 대답한다. 마음AI는 딥시크 기반 내부망 전용 LLM ‘말 알바트로스’를 출시했다. 의료 AI기업 딥노이드는 R1을 적용해서 서비스를 업그레이드 했다고 밝혔다.
모두를 위한 AI…전환점 만든 딥시크
선전에 위치한 텐센트 본사 빈하이 빌딩. 텐센트는 위챗에 딥시크의 AI 기술을 도입하기로 했다. 사진=연합뉴스
선전에 위치한 텐센트 본사 빈하이 빌딩. 텐센트는 위챗에 딥시크의 AI 기술을 도입하기로 했다. 사진=연합뉴스
코드·가중치까지 공개…진정한 ’오픈’ AI

딥시크의 모회사는 고빈도 매매를 처리하는 퀀트 투자 회사로, 처리 지연을 최소화해야 하므로, 효율화 작업을 극한으로 추진하게 된다. 딥시크는 통상적으로 숫자를 소수점 32자리까지 기록하는 기존 방법을 버리고, 소수점 8자리로 기록해 메모리 사용량을 4분의 1로 줄이고, 단어를 하나씩 읽는 방식을 버리고, 문장을 한 번에 처리하는 방법을 도입했다.

또한 모든 정보를 한 모델이 처리하는 방식 대신, 필요에 따라 전문가 시스템을 호출하는 방식으로 설계해, 전체 6710억 개의 매개 변수를 어떤 순간에 다 활성화시키지 않고 20분의 1인 약 340억 개만 활성화함으로써, 추론 비용과 메모리 사용량을 줄이면서도 높은 성능을 유지하는 방법을 사용하고 있다.
모두를 위한 AI…전환점 만든 딥시크
딥시크는 지난 2월 말, 5일간의 '오픈소스 위크' 이벤트를 진행해 자신들의 노하우를 오픈 소스와 함께 상세히 공개하는 자신감도 보였다. AI 전문가 모델 간의 통신에 있어, 처리량을 높이고 대기시간을 줄이는 라이브러리를 공개하고, AI 모델의 학습과 추론에 필수적인 일반 행렬 곱셈의 정확성과 효율성을 높이기 위한 라이브러리를 공개했으며, AI 학습 및 추론 부하를 조절하는 고성능 분산 파일 시스템 등 딥시크 AI 모델 훈련의 핵심인 컴퓨팅과 통신, 스토리지 등에서 하드웨어의 성능을 어떻게 극대화했는지를 자세하게 공개했다.

특히 모델 코드와 가중치에 이어 데이터와 엔지니어링 방식까지 자세하게 공개한 것은 거의 최초의 사례다. 소소해 보이지만, 진지하게 진행 상황을 완전히 투명하게 공유한다는 약속을 지켰다. 딥시크는 진정한 오픈 AI가 되고 있다.

딥시크는 토큰 그룹을 요약된 표현으로 압축해 전체 데이터를 처리하지 않고도 패턴을 포착할 수 있도록 하고, 중요도 점수를 계산해 가장 관련성 있는 토큰만 선택적으로 유지하며, 전체 컨텍스트를 인식한다. 이러한 방법으로 전체적 컨텍스트 인식과 로컬 정밀도를 모두 유지한다.
지난 2024년 3월 젠슨 황 엔비디아 최고경영자(CEO)가 연례 개발자회의 ‘GTC 2024’에서 차세대 인공지능(AI) 칩인 ‘블랙웰’을 소개하고 있다. 그의 오른손(사진 왼쪽)에 들려 있는 시제품에 보이는 세 개의 사각형 중 위 두 개가 고성능 그래픽처리장치(GPU) B200이다. 딥시크는 미국의 수출규제로 엔비디아의 최신 GPU 대신 저사양인 H800을 사용해 놀라운 성능을 구현해 냈다. 사진=연합AP
지난 2024년 3월 젠슨 황 엔비디아 최고경영자(CEO)가 연례 개발자회의 ‘GTC 2024’에서 차세대 인공지능(AI) 칩인 ‘블랙웰’을 소개하고 있다. 그의 오른손(사진 왼쪽)에 들려 있는 시제품에 보이는 세 개의 사각형 중 위 두 개가 고성능 그래픽처리장치(GPU) B200이다. 딥시크는 미국의 수출규제로 엔비디아의 최신 GPU 대신 저사양인 H800을 사용해 놀라운 성능을 구현해 냈다. 사진=연합AP
극한의 최적화 모델 추구

실제 이런 최적화를 통해 딥시크는 적용 모델의 속도가 6배에서 12배 정도 빨라진 동시에, 이 방식이 기존의 표준적 방식보다 모두 높은 정확도를 보였다고 설명한다. 특히 컨텍스트가 한글로 6만4000정도로 긴 경우, 높은 정확도를 보였다고 강조한다. 추론 과정에서 자연어 설명을 추가하는 방식으로 논리적 흐름을 자연스럽게 강화하는 방식도 공개했다.

이러한 공개 과정을 통해, 딥시크가 학습 비용에 대해서 거짓말을 했다는 주장을 무색하게 만들었다. 시스템의 전체 구조와 재현 방법이 공개되지 않고, 부하 분산 방법이나 분산 메모리 시스템과 같은 핵심 구성 요소는 여전히 불투명해서, 전체적인 검증이 불가능해지고, 진정한 오픈소스 투명성에 못 미쳤다는 평가도 있고, 인프라와 모델 가중치는 공개했지만, 데이터와 학습 과정에 대한 것은 거의 알리지 않았다는 지적도 있다.

겉으로는 오픈 소스를 표방하지만, 실제로는 중요한 부분을 비공개로 숨기는 이른바 ‘오픈 워싱(open-washing)’이라고까지 박한 평가를 당하기도 하지만, 메타의 라마 시리즈 역시 데이터를 공개하지 않는 것은 마찬가지다. 상대적으로 딥시크는 그 공개의 범위가 더 넓다고 본다.

딥시크는 알고리듬 최적화에 집중한 결과로, 동급 성능 모델 대비 에너지 효율성이 서너 배 우수하다. 딥시크는 이미지 분석 및 생성 멀티모달 모델 ‘야누스 프로(Janus-Pro)’를 공개했는데, 70억 개의 파라미터만으로 오픈AI의 ‘달리 3’, 스태빌리티AI의 ‘스테이블 디퓨전 XL’을 능가하는 수준의 성능을 보인다. 허깅페이스 등에서 무료로 사용 가능하다.

11분의 1 비용으로 개발

딥시크는 AI학계와 산업계에, 리소스를 낭비하지 않도록 데이터와 알고리듬 모두 아직 개선할 여지가 많다는 것을 보여주었다. 규모가 1.5배 더 큰 모델을 11분의 1의 비용으로 개발하고도 더 강력한 성능을 보였다. AI 훈련비용을 80억 원 정도 들였다고 하는데, 라마 405B는 약 8400억 원, 일론 머스크의 그록(Grok)3는 약 4조~5조 원이 들은 것에 비하면, 이제는 미국 기업들이 너무 비효율적이고 고비용 구조로 AI를 훈련시키는 것 아닌가 하는 생각이 들 정도다.
모두를 위한 AI…전환점 만든 딥시크
오픈AI o1은 입력 토큰 100만 개당 15달러, 출력 토큰 100만 개당 60달러인 반면, 딥시크 R1은 입력 토큰 100만 개당 0.55달러, 출력 토큰 100만 개당 2.19달러로 가격이 약 25분의 1 수준으로 싸다. 딥시크는 하루 매출 추정치를 공개하기도 했는데, 서비스에 든 그래픽처리장치(GPU) 사용료의 5배에 달하는 이익을 얻었다고 밝혀서, 비용 절감 기술이 효율적임을 자랑하고 있다.

하루 동안 R1과 V3을 서비스한 결과를 공유했는데, 하루 GPU 사용료는 약 1억3000만 원인데, 입력된 토큰과 출력된 토큰에 대해 모두 API 사용료를 받은 것으로 계산하면, 매출이 약 8억2000만 원이되고, 이익이 약 6억9000만 원으로, 수익률은 5배가 넘는다는 것이다.
모두를 위한 AI…전환점 만든 딥시크
딥시크 모바일 앱은 중국에서 한 달 만에 3000만 명의 일일 활성 사용자를 기록하며 빠르게 성장했지만, 딥시크는 사용자를 확보하는 것이 주요 목적이 아니다. 사용자를 모아 돈을 버는 것에 앞서 더 강력한 AI 모델 개발 및 생태계 확장에 집중한다는 것이다. 응용 서비스 개발에 나서는 기업과 달리 범용인공지능(AGI) 개발을 목표로 하고, 제한된 자원으로 더 강력한 모델 성능을 달성하려면 비용과 효율성을 최적화한 새로운 모델 구조를 연구할 수밖에 없고, 이는 더 큰 모델로 확장하는 데 필요한 기본 연구이기도 하다는 것이다.
미국 버지니아 애시본에 있는 아마존 데이터센터. 사진=연합EPA
미국 버지니아 애시본에 있는 아마존 데이터센터. 사진=연합EPA
독점 유지에 집착하는 미국 빅테크

도널드 트럼프 미국 대통령은 딥시크처럼 저렴하고 빠른 AI 기술이 등장하면 결국 많은 돈을 쓰지 않고도 더 나은 성과를 낼 수 있어 긍정적이라고 평가했다. 얀 르쿤 메타 AI 최고과학자는 폐쇄형 모델이 개방형 모델에 밀린 것이며, 오픈 소스와 개방형 연구의 강력함을 입증했다고 평가했다.

AI의 미래는 소수 전문가 그룹이 통제하는 것이 아니라 민주화에 있다는 것이 다시 한번 입증됐다. 앤드루 응 교수는 딥시크 사례를 들어, 컴퓨팅 비용이 급격히 저렴해지면 AI 시장이 폭발적으로 확대될 것이며, 기초 모델의 경쟁이 활발해져 개발자들이 응용 개발에 적극적으로 나설 환경이 만들어질 것이라고 내다봤다. 그는 오픈 가중치 모델이 AI 공급망의 핵심이 될 것이며, 이를 기반으로 저렴한 AI 위에서 새로운 애플리케이션을 개발할 기회가 확대될 것이라고 강조했다.

딥시크의 등장은 AI 기술에 대한 접근성을 높이는 중요한 변곡점으로 평가받고 있다. 딥시크의 성공은 PC가 메인 프레임을 대체한 사례나 클라우드 컴퓨팅의 혁신적 전환과 비슷한 역사적 의미를 갖게 될 것이라는 것이다. 딥시크로 인해, '제본스의 역설(Jevon's Paradox)'이 많이 회자된다. 기술 발전으로 자원 사용이 효율적으로 변하면 오히려 소비량이 감소하는 대신 증가한다는 역설로, AI 기술이 저렴해지면 그만큼 AI 사용과 전체 시장 규모는 더욱 커질 것이라는 의미다.
모두를 위한 AI…전환점 만든 딥시크
클라우드 중심의 AI에서 저비용 고효율의 온디바이스(on-device) AI로 시장의 중심축이 이동하고, 소프트웨어 기업들의 수익성도 개선될 전망이다. 리나 칸 전 미국 연방거래위원회(FTC) 위원장은 "딥시크는 탄광의 카나리아 같은 존재"라며, 딥시크의 등장은 미국 기술 기업들이 경쟁 부족 상태에서 중국 기업에 쉽게 위협받을 수 있다는 경고라고 분석했다. 미국의 빅테크들이 경쟁보다는 독점과 지배력 유지에만 집중하고 있다고 비판하며, 혁신적인 기술 발전은 대기업 내부보다는 외부의 도전자들로부터 더 잘 나오는 경향이 있다면서, 미국이 진정한 AI 경쟁력을 유지하려면 국내 시장부터 활발한 경쟁을 유도해야 한다고 주장했다.
지난 1월 21일 도널드 트럼프 대통령이 오라클의 최고기술책임자(CTO)인 래리 엘리슨과 소프트뱅크의 손정의 CEO, 오픈AI의 샘 알트먼 CEO가 지켜보고 있는 가운데 미국 내 민간 부문의 인공지능(AI) 인프라에 최대 5000억 달러 규모의 투자를 추진하겠다고 발표하고 있다. 사진=연합UPI
지난 1월 21일 도널드 트럼프 대통령이 오라클의 최고기술책임자(CTO)인 래리 엘리슨과 소프트뱅크의 손정의 CEO, 오픈AI의 샘 알트먼 CEO가 지켜보고 있는 가운데 미국 내 민간 부문의 인공지능(AI) 인프라에 최대 5000억 달러 규모의 투자를 추진하겠다고 발표하고 있다. 사진=연합UPI
AI 개발 비용, '제로'로 수렴된다

딥시크는 기존 모델 대비 비용을 획기적으로 낮추면서도 우수한 성능을 제공하고 있다. 특히, 투명한 추론 과정을 제공하기 때문에 기업들이 독자적인 AI 모델을 보다 쉽게 구축할 수 있도록 만들었다. 이를 통해 기업은 방대한 예산 없이도 고급 맞춤형 AI를 구현할 수 있게 됐다. 특히 '증류(distillation)' 기법을 활용하면 대규모 모델에서 지식을 추출해 작은 규모의 모델로도 뛰어난 성능을 낼 수 있다.
모두를 위한 AI…전환점 만든 딥시크
딥시크는 '라마(Llama)', '큐원(Qwen)' 같은 다양한 오픈소스 모델을 이용한 증류 모델도 제공해 작은 규모로 특정 도메인이나 작업에 최적화된 맞춤형 모델을 만드는 길을 열어놓았다. 기업이 가진 고유 데이터를 바탕으로 미세 조정(fine-tuning)을 하면, 모델에 독자적인 개성이나 특화된 기능을 추가할 수 있는데, 대부분의 기업은 RAG(Retrieval-Augmented Generation) 기법만으로도 자신의 데이터를 활용해 빠르게 모델 구축이 가능하다.

AI 개발 비용은 앞으로도 지속적으로 하락할 전망이며, 일부에서는 궁극적으로 제로에 가까워질 것으로 예상하고 있다. 이러한 변화는 대형 연구기관뿐 아니라 소규모 기업이나 개별 개발자도 고성능 AI 모델 개발과 활용을 쉽게 할 수 있게 한다는 점에서 중요한 전환점이다. 이제 성공적인 AI 활용의 핵심은 방대한 자금이나 리소스보다는 데이터를 얼마나 정확하고 체계적으로 준비하고 관리하는지에 달려 있다.
지난 2월 17일 시진핑 중국 국가주석이 민영기업 심포지엄에서 딥시크의 창립자 량원펑과 악수하는 뉴스 장면이 중국 베이징의 한 쇼핑센터에서 거대한 스크린을 통해 방영되고 있다. 사진=연합뉴스
지난 2월 17일 시진핑 중국 국가주석이 민영기업 심포지엄에서 딥시크의 창립자 량원펑과 악수하는 뉴스 장면이 중국 베이징의 한 쇼핑센터에서 거대한 스크린을 통해 방영되고 있다. 사진=연합뉴스
데이터가 경쟁력…한국, 연합 AI 전략 필수

딥시크로 인해, 무조건 큰 모델을 지향할 필요 없이 증류 기법과 최적화를 통해 비교적 적은 매개 변수로도 뛰어난 성능과 긴 컨텍스트 처리 능력을 충분히 확보할 수 있다는 사실이 검증됐다. 따라서 AI 경쟁에서 성공하기 위한 핵심 역량은 오픈소스의 적극적 활용과 자사의 데이터를 통한 특화, 그리고 하드웨어 최적화를 통한 비용 절감에 있다.

결국 성능과 효율성, 접근성을 모두 높여서 특정 산업이나 분야에 특화된 버티컬 시장에서 빠르게 경쟁 우위를 확보하는 것이 기업들이 추구해야 할 현실적인 방향이다. 특히 언어 데이터가 아닌 특수한 데이터를 보유한 분야는 아직 경쟁이 덜하기 때문에 많은 기회가 남아 있다. 그런데 각 경제 주체가 자신의 소중한 데이터를 소유하는 동시에 그 데이터가 외부에 노출되지 않고도, 강력한 AI 모델 개발에 활용될 수 있는 혁신적인 방법을 한국과 한국 기업들이 선택해야 한다.

그것을 가능하게 할 방법이 있다.

이제 한국은 미국을 따라갈 것도 아니고 중국을 따라갈 것도 아니다. 제3의 길을 가야 한다. 폐쇄 AI 전략과 오픈소스 AI 전략이 충돌하는 과정을 지켜보는 한국으로서는, 이들과 차별화된 ‘연합 AI 전략’을 채택해야 한다. 연합학습은 개별 기관이 데이터를 외부에 노출하지 않고도 독립적으로 AI 모델을 학습한 뒤, 이 모델을 결합해 강력한 통합 모델을 구축하는 방식이다.

각 경제 주체가 데이터 중앙화 없이 협력할 수 있는 범국가적 프로젝트를 추진함으로써, 기관별 데이터 보호와 AI 모델 성능 극대화를 동시에 달성할 수 있다. 산업별, 응용별, 분야별 최고 수준의 연합 AI 모델을 구축하고, 데이터 제공자에게 명확한 보상을 제공하는 연합 데이터 뱅크 제도를 만들어 운영하면, 전 세계의 데이터를 한국 주도의 데이터 관리 체계로 모을 수 있으며, 이러한 혁신적 제도와 소프트웨어는 국가 AI 컴퓨팅센터의 핵심 메커니즘으로 적용돼야 한다.

연합 데이터 뱅크 제도를 통해 경제 주체 모두가 자신만의 데이터 계좌를 개설해 데이터를 통해 경제적 보상을 얻으며 AI 발전에 참여할 수 있다. 정부는 민간 부문까지 연합학습을 활성화하는 촉진자 역할을 맡음으로써, 개별 기업 차원의 AI 전환이 아닌 산업 전체의 효율성과 시너지를 극대화할 수 있으며, 다양한 산업의 글로벌 경쟁력을 획기적으로 높일 수 있다.

이경전 경희대 경영학·빅데이터응용학과 교수