딥시크는 기존 AI 기술 대비 비용과 성능을 획기적으로 개선한 혁신을 통해 중국 기업의 위상을 바꿔놓고 있다. 특히 저비용, 고효율의 최적화 기술과 투명한 오픈소스 전략으로 글로벌 AI 시장에서 급부상 중이다.
[커버스토리]
인재 역시 해외에서 공부하거나 일을 한 인재를 수입하는 형태도 아니고, 중국 본토의 다양한 대학에서 직접 양성한 인재를 등용해 문화대혁명으로 쇠락했던 중국의 대학이 완전히 부활했음을 증명했다. 중국 기업이 응용이 아닌 기초에 도전했다는 점도 새삼 새로운 것이었다.
지동설에 버금가는 패러다임 전환
화웨이, 텐센트, 레노버 등 수백 개의 중국 기업이 일제히 딥시크를 도입한다고 발표했다. BYD, 지리자동차 등 14개 중국 전기차 기업들도 포함된다. 중국 로봇 기업 유비테크도 딥시크 R1 모델을 바탕으로 한 프레임워크를 공개했다.

한국의 프렌들리AI도, 딥시크 모델을 API로 제공한다. 한국의 뤼튼은 카카오톡플러스친구로 질문하면, 딥시크 모델을 사용해서 대답한다. 마음AI는 딥시크 기반 내부망 전용 LLM ‘말 알바트로스’를 출시했다. 의료 AI기업 딥노이드는 R1을 적용해서 서비스를 업그레이드 했다고 밝혔다.


딥시크의 모회사는 고빈도 매매를 처리하는 퀀트 투자 회사로, 처리 지연을 최소화해야 하므로, 효율화 작업을 극한으로 추진하게 된다. 딥시크는 통상적으로 숫자를 소수점 32자리까지 기록하는 기존 방법을 버리고, 소수점 8자리로 기록해 메모리 사용량을 4분의 1로 줄이고, 단어를 하나씩 읽는 방식을 버리고, 문장을 한 번에 처리하는 방법을 도입했다.
또한 모든 정보를 한 모델이 처리하는 방식 대신, 필요에 따라 전문가 시스템을 호출하는 방식으로 설계해, 전체 6710억 개의 매개 변수를 어떤 순간에 다 활성화시키지 않고 20분의 1인 약 340억 개만 활성화함으로써, 추론 비용과 메모리 사용량을 줄이면서도 높은 성능을 유지하는 방법을 사용하고 있다.

특히 모델 코드와 가중치에 이어 데이터와 엔지니어링 방식까지 자세하게 공개한 것은 거의 최초의 사례다. 소소해 보이지만, 진지하게 진행 상황을 완전히 투명하게 공유한다는 약속을 지켰다. 딥시크는 진정한 오픈 AI가 되고 있다.
딥시크는 토큰 그룹을 요약된 표현으로 압축해 전체 데이터를 처리하지 않고도 패턴을 포착할 수 있도록 하고, 중요도 점수를 계산해 가장 관련성 있는 토큰만 선택적으로 유지하며, 전체 컨텍스트를 인식한다. 이러한 방법으로 전체적 컨텍스트 인식과 로컬 정밀도를 모두 유지한다.

실제 이런 최적화를 통해 딥시크는 적용 모델의 속도가 6배에서 12배 정도 빨라진 동시에, 이 방식이 기존의 표준적 방식보다 모두 높은 정확도를 보였다고 설명한다. 특히 컨텍스트가 한글로 6만4000정도로 긴 경우, 높은 정확도를 보였다고 강조한다. 추론 과정에서 자연어 설명을 추가하는 방식으로 논리적 흐름을 자연스럽게 강화하는 방식도 공개했다.
이러한 공개 과정을 통해, 딥시크가 학습 비용에 대해서 거짓말을 했다는 주장을 무색하게 만들었다. 시스템의 전체 구조와 재현 방법이 공개되지 않고, 부하 분산 방법이나 분산 메모리 시스템과 같은 핵심 구성 요소는 여전히 불투명해서, 전체적인 검증이 불가능해지고, 진정한 오픈소스 투명성에 못 미쳤다는 평가도 있고, 인프라와 모델 가중치는 공개했지만, 데이터와 학습 과정에 대한 것은 거의 알리지 않았다는 지적도 있다.
겉으로는 오픈 소스를 표방하지만, 실제로는 중요한 부분을 비공개로 숨기는 이른바 ‘오픈 워싱(open-washing)’이라고까지 박한 평가를 당하기도 하지만, 메타의 라마 시리즈 역시 데이터를 공개하지 않는 것은 마찬가지다. 상대적으로 딥시크는 그 공개의 범위가 더 넓다고 본다.
딥시크는 알고리듬 최적화에 집중한 결과로, 동급 성능 모델 대비 에너지 효율성이 서너 배 우수하다. 딥시크는 이미지 분석 및 생성 멀티모달 모델 ‘야누스 프로(Janus-Pro)’를 공개했는데, 70억 개의 파라미터만으로 오픈AI의 ‘달리 3’, 스태빌리티AI의 ‘스테이블 디퓨전 XL’을 능가하는 수준의 성능을 보인다. 허깅페이스 등에서 무료로 사용 가능하다.
11분의 1 비용으로 개발
딥시크는 AI학계와 산업계에, 리소스를 낭비하지 않도록 데이터와 알고리듬 모두 아직 개선할 여지가 많다는 것을 보여주었다. 규모가 1.5배 더 큰 모델을 11분의 1의 비용으로 개발하고도 더 강력한 성능을 보였다. AI 훈련비용을 80억 원 정도 들였다고 하는데, 라마 405B는 약 8400억 원, 일론 머스크의 그록(Grok)3는 약 4조~5조 원이 들은 것에 비하면, 이제는 미국 기업들이 너무 비효율적이고 고비용 구조로 AI를 훈련시키는 것 아닌가 하는 생각이 들 정도다.

하루 동안 R1과 V3을 서비스한 결과를 공유했는데, 하루 GPU 사용료는 약 1억3000만 원인데, 입력된 토큰과 출력된 토큰에 대해 모두 API 사용료를 받은 것으로 계산하면, 매출이 약 8억2000만 원이되고, 이익이 약 6억9000만 원으로, 수익률은 5배가 넘는다는 것이다.


도널드 트럼프 미국 대통령은 딥시크처럼 저렴하고 빠른 AI 기술이 등장하면 결국 많은 돈을 쓰지 않고도 더 나은 성과를 낼 수 있어 긍정적이라고 평가했다. 얀 르쿤 메타 AI 최고과학자는 폐쇄형 모델이 개방형 모델에 밀린 것이며, 오픈 소스와 개방형 연구의 강력함을 입증했다고 평가했다.
AI의 미래는 소수 전문가 그룹이 통제하는 것이 아니라 민주화에 있다는 것이 다시 한번 입증됐다. 앤드루 응 교수는 딥시크 사례를 들어, 컴퓨팅 비용이 급격히 저렴해지면 AI 시장이 폭발적으로 확대될 것이며, 기초 모델의 경쟁이 활발해져 개발자들이 응용 개발에 적극적으로 나설 환경이 만들어질 것이라고 내다봤다. 그는 오픈 가중치 모델이 AI 공급망의 핵심이 될 것이며, 이를 기반으로 저렴한 AI 위에서 새로운 애플리케이션을 개발할 기회가 확대될 것이라고 강조했다.
딥시크의 등장은 AI 기술에 대한 접근성을 높이는 중요한 변곡점으로 평가받고 있다. 딥시크의 성공은 PC가 메인 프레임을 대체한 사례나 클라우드 컴퓨팅의 혁신적 전환과 비슷한 역사적 의미를 갖게 될 것이라는 것이다. 딥시크로 인해, '제본스의 역설(Jevon's Paradox)'이 많이 회자된다. 기술 발전으로 자원 사용이 효율적으로 변하면 오히려 소비량이 감소하는 대신 증가한다는 역설로, AI 기술이 저렴해지면 그만큼 AI 사용과 전체 시장 규모는 더욱 커질 것이라는 의미다.


딥시크는 기존 모델 대비 비용을 획기적으로 낮추면서도 우수한 성능을 제공하고 있다. 특히, 투명한 추론 과정을 제공하기 때문에 기업들이 독자적인 AI 모델을 보다 쉽게 구축할 수 있도록 만들었다. 이를 통해 기업은 방대한 예산 없이도 고급 맞춤형 AI를 구현할 수 있게 됐다. 특히 '증류(distillation)' 기법을 활용하면 대규모 모델에서 지식을 추출해 작은 규모의 모델로도 뛰어난 성능을 낼 수 있다.

AI 개발 비용은 앞으로도 지속적으로 하락할 전망이며, 일부에서는 궁극적으로 제로에 가까워질 것으로 예상하고 있다. 이러한 변화는 대형 연구기관뿐 아니라 소규모 기업이나 개별 개발자도 고성능 AI 모델 개발과 활용을 쉽게 할 수 있게 한다는 점에서 중요한 전환점이다. 이제 성공적인 AI 활용의 핵심은 방대한 자금이나 리소스보다는 데이터를 얼마나 정확하고 체계적으로 준비하고 관리하는지에 달려 있다.

딥시크로 인해, 무조건 큰 모델을 지향할 필요 없이 증류 기법과 최적화를 통해 비교적 적은 매개 변수로도 뛰어난 성능과 긴 컨텍스트 처리 능력을 충분히 확보할 수 있다는 사실이 검증됐다. 따라서 AI 경쟁에서 성공하기 위한 핵심 역량은 오픈소스의 적극적 활용과 자사의 데이터를 통한 특화, 그리고 하드웨어 최적화를 통한 비용 절감에 있다.
결국 성능과 효율성, 접근성을 모두 높여서 특정 산업이나 분야에 특화된 버티컬 시장에서 빠르게 경쟁 우위를 확보하는 것이 기업들이 추구해야 할 현실적인 방향이다. 특히 언어 데이터가 아닌 특수한 데이터를 보유한 분야는 아직 경쟁이 덜하기 때문에 많은 기회가 남아 있다. 그런데 각 경제 주체가 자신의 소중한 데이터를 소유하는 동시에 그 데이터가 외부에 노출되지 않고도, 강력한 AI 모델 개발에 활용될 수 있는 혁신적인 방법을 한국과 한국 기업들이 선택해야 한다.
그것을 가능하게 할 방법이 있다.
이제 한국은 미국을 따라갈 것도 아니고 중국을 따라갈 것도 아니다. 제3의 길을 가야 한다. 폐쇄 AI 전략과 오픈소스 AI 전략이 충돌하는 과정을 지켜보는 한국으로서는, 이들과 차별화된 ‘연합 AI 전략’을 채택해야 한다. 연합학습은 개별 기관이 데이터를 외부에 노출하지 않고도 독립적으로 AI 모델을 학습한 뒤, 이 모델을 결합해 강력한 통합 모델을 구축하는 방식이다.
각 경제 주체가 데이터 중앙화 없이 협력할 수 있는 범국가적 프로젝트를 추진함으로써, 기관별 데이터 보호와 AI 모델 성능 극대화를 동시에 달성할 수 있다. 산업별, 응용별, 분야별 최고 수준의 연합 AI 모델을 구축하고, 데이터 제공자에게 명확한 보상을 제공하는 연합 데이터 뱅크 제도를 만들어 운영하면, 전 세계의 데이터를 한국 주도의 데이터 관리 체계로 모을 수 있으며, 이러한 혁신적 제도와 소프트웨어는 국가 AI 컴퓨팅센터의 핵심 메커니즘으로 적용돼야 한다.
연합 데이터 뱅크 제도를 통해 경제 주체 모두가 자신만의 데이터 계좌를 개설해 데이터를 통해 경제적 보상을 얻으며 AI 발전에 참여할 수 있다. 정부는 민간 부문까지 연합학습을 활성화하는 촉진자 역할을 맡음으로써, 개별 기업 차원의 AI 전환이 아닌 산업 전체의 효율성과 시너지를 극대화할 수 있으며, 다양한 산업의 글로벌 경쟁력을 획기적으로 높일 수 있다.
이경전 경희대 경영학·빅데이터응용학과 교수
© 매거진한경, 무단전재 및 재배포 금지