TECH

딥시크가 뭐길래, 엔비디아가 떨어져?

엔비디아 시총 859조 원을 날린 딥시크 쇼크의 전말
엔비디아 시총 859조 원을 날린 딥시크 쇼크의 전말

2025. 01. 29

안녕하세요, 이주형입니다. 설 연휴의 첫날, 엔비디아의 주가가 118.42달러로 마감했습니다. (현지 시각 27일 기준) 지난 1년간의 최고치인 153.13달러에서 무려 22.65%나 떨어진 수치죠. 흥미로운 지점은 이 폭락의 대부분이 27일, 단 하루에 벌어졌다는 것입니다. 하루만에 무려 6,000억 달러(약 859조 원)의 시가총액이 날아갔고, 엔비디아 회장인 젠슨 황의 재산도 130억 달러(약 19조 원) 가량 증발했다는 이야기 나왔을 정도로 어마어마한 수치였습니다.

눈물 좀 닦고…

오늘은 이 폭락 사태의 배후(?)인 곳에 대해 알아보려 합니다. 바로 딥시크(DeepSeek)입니다.


딥시크는 어디고, 뭘 했나요?

딥시크는 2023년에 창립된 중국의 AI 스타트업입니다. 딥시크는 이전부터 대형 언어 모델(LLM)을 개발하면서 “오픈 소스로 공개하겠다”라고 공언했었는데요.

이 사태(?)의 시작은 지난 12월, 딥시크가 V3이라는 LLM을 처음으로 공개하면서 시작됩니다. V3 기반 챗봇을 처음으로 써본 사람들은 충격에 빠졌습니다. LLM 분야에서 선두주자로 꼽히고 있는 오픈AI의 챗GPT와 거의 비슷한 기능과 성능을 가지고 있었거든요. 딥시크는 여기에서 멈추지 않고 지난주에는 V3 기반의 추론형 모델인 R1과 이미지 생성형 모델인 ‘야누스 프로’도 공개했는데, R1은 다양한 추론 능력을 시험하는 벤치마크에서 오픈AI의 o1 모델과 엎치락뒤치락하는 결과를 보여줬고, 야누스 프로 역시 오픈AI의 DALL.E 3과 스테이블 디퓨전에 비견되는 성능을 지닌 것으로 알려졌습니다.

여기서 충격적인 것은 R1의 구동에 필요한 비용이에요. R1의 API 사용 비용(외부 개발자가 해당 소프트웨어를 자신의 서비스 혹은 앱에 연결해서 사용할 때 드는 비용)은 o1보다 무려 96.4% 더 저렴했다고 합니다. 서버 비용도 그만큼, 아니면 훨씬 덜 들 수도 있다는 의미가 돼요.

미국 앱 스토어에서 당당히 1위를 차지한 딥시크 앱.

딥시크에 대한 반응은 뜨거웠습니다. 딥시크 V3을 써볼 수 있는 딥시크의 챗봇 앱은 애플 앱 스토어에서 순식간에 1위를 차지했고, 딥시크는 “악의적인 공격”을 이유로 신규 가입을 잠정 중단한 상태입니다. 거기에 AI 분야를 이끌고 있는 주요 인사들 모두 딥시크에 대해 긍정적인 평가를 남길 정도였죠. 오픈AI의 CEO 샘 알트먼은 R1에 대해 “인상적인 모델”이라고 평했고, 엔비디아 역시 “AI의 엄청난 발전”이라는 입장을 밝혔습니다.


딥시크 V3이 왜 ‘엄청난 AI 발전’인가요?

딥시크 V3이 인상적인 것은 바로 개발하는 과정에서 보여준 효율성입니다. 딥시크는 지난달에 공개한 논문에서 V3의 모델 훈련에 고작 600만 달러(약 87억 원) 정도의 개발비와 총 279만 시간 분량의 엔비디아 H800 GPU가 사용되었다고 밝혔는데요. 이게 무슨 의미인지 하나씩 뜯어보겠습니다.

먼저, V3 개발에 들어갔다는 600만 달러라는 수치도 많아보일 수 있지만, 샘 알트먼은 GPT-4 모델의 훈련에 1억 달러(약 1,445억 원)가 넘는 비용이 쓰였다고 한 인터뷰에서 밝힌 바 있습니다. GPT-4의 단 6% 비용으로 수준은 비슷한 LLM을 만들어냈다는 것이죠.

엔비디아의 H800 GPU.

또 다른 중요한 포인트는 바로 엔비디아 H800 GPU를 활용했다는 부분이에요. 이게 왜 중요한지 설명하려면 먼저 직전 바이든 행정부의 대중 정책을 잠깐 살펴봐야 합니다. 바이든 행정부는 오픈AI가 챗GPT로 생성형 AI의 선봉장에 섰을 때, 이러한 선두를 유지해야 한다는 판단을 했습니다. 특히 전기차와 같이 지금 IT 산업의 많은 부분에서 중국이 치고 올라오는 속도를 볼 때, 생성형 AI 부문에서도 중국에게 손쉽게 따라 잡힐 것이라는 두려움이 산재해 있었어요.

그래서 바이든 행정부는 2022년과 2023년, 두 차례에 걸쳐 AI 모델 훈련에 사용될 수 있는 칩에 대한 수출 제한 조치를 발표했습니다. 중국에 수출하는 칩은 미국 내에서 판매되는 칩만큼의 성능을 낼 수 없도록 의도적으로 제한을 건 것이죠. 엔비디아는 이에 맞춰 H800이라는 AI 특화 GPU를 발표했는데, 이는 엔비디아의 플래그십 AI 특화 GPU인 H100을 기반으로 수출 제한 규제에 명시된 사항을 준수하기 위해 성능을 일부 하향한 제품이었어요. H800이 정확히 H100보다 얼마만큼 성능이 떨어지는지 엔비디아는 구체적으로 밝힌 것은 없지만, 최대 50%까지 성능이 떨어진다는 이야기가 있습니다.

젠슨 황 회장은 한 컨퍼런스에서 GPT-4 모델을 훈련하려면 H100 GPU 8천 대 정도를 3개월 동안 사용해야 한다고 밝힌 적이 있다고 해요. (실제 GPT-4 모델 훈련에는 H100의 전 세대 GPU인 A100을 사용했습니다.) 간단하게 계산해보면, 총 1,752만 시간의 H100 GPU 사용이 필요하다는 것이죠. 결론적으로, 딥시크는 최악의 상황에서 성능이 H100의 반밖에 나오지 않는 H800을 GPT-4를 훈련하는 데 들어간 H100 사용 시간의 단 16%의 시간만 사용해서 V3 모델을 만들어냈다는 얘기가 됩니다. 즉, 단순하게 계산하면 딥시크는 오픈AI가 가지고 있던 연산 능력의 최저 8%로 V3을 만든 것이죠. 이는 그만큼 AI 모델을 훈련하는데 있어 엔비디아의 최신 GPU 기술이 꼭 필요한가라는 의문을 제기하기에 충분했고, 그로 인해 엔비디아와 더불어 H100을 대량으로 구매해 AI 모델을 개발하던 기업들의 주가가 적잖은 피해를 본 것입니다. 그리고 그 여파는 미국 증시 전체에도 적잖은 영향을 미쳐서 나스닥 지수가 3% 하락한 채로 마감했습니다.

여기서 유일하게 하락장을 비껴간 곳은 애플이었어요. 도리어 애플은 이날 주가가 3% 올랐는데요. 여기에는 애플이 굳이 AI가 아니어도 다른 안정적인 매출원이 많은 것도 있겠지만, 애플이 엔비디아에 의존하지 않고 자체적으로 AI 모델 훈련 및 서버 운용 계획을 가지고 있는 것이 주목받은 결과이기도 합니다. 애플은 지난해 애플 인텔리전스를 발표하면서 프라이빗 클라우드 컴퓨트라는 새로운 방식의 AI 데이터 처리 서버 운용 방식을 발표했는데, 여기에 중심이 되는 것은 바로 애플 실리콘 기반의 커스텀 서버들이었습니다. 지금의 생성형 AI 붐이 엔비디아 GPU에 지나치게 의존적이라는 의견이 나오는 가운데, 엔비디아의 GPU를 사용하지 않고 AI 서버 처리 시스템을 구축한 애플이 뒤늦게 주목을 받은 것이죠.


딥시크가 시사하는 것들

딥시크의 주장이 모두 사실이라고 가정할 때, AI 훈련의 효율성에 집중한 딥시크가 내던진 파장은 과연 오래갈까요? 이번 글을 쓰기 위해 다양한 기사와 의견을 분석한 후 든 제 생각은 딥시크의 영향은 단기적인 현상일 가능성이 높다는 것입니다.

딥시크가 V3과 R1에서 보여준 것은 대단하지만, 여전히 딥시크는 미국의 수출 제한의 영향을 받고 있습니다. 물론 중국 자본의 힘도 만만치 않으니 각 잡고 이번 V3 개발에 들어간 600만 달러보다 더 많은 자본을 부으면 확실히 V3보다 더 대단한 게 나올 수는 있을 테지만, 여전히 사용할 수 있는 하드웨어 자체는 미국 기업이 더 앞서 있습니다.

오픈 소스로 공개된 딥시크 R1의 깃헙 페이지.

거기다 이번 딥시크의 등장으로 미국 기업들 쪽에서도 의식을 안 할 수는 없을 겁니다. 딥시크가 V3과 R1을 오픈 소스로 공개했으니 이 두 모델을 열심히 뜯어보면서 연구하겠죠. (이미 메타는 연구를 시작했다는 소문이 들려오기도 합니다) 여기에 위에 언급한 사용할 수 있는 하드웨어의 우위까지 합치면 미국 기업들의 반격도 머지 않았으리라 봅니다.

그렇다면 엔비디아는 어떨까요? 물론 딥시크 역시 엔비디아의 GPU로 개발했고, 이후에도 여전히 엔비디아의 GPU는 AI 시장을 선도할 것입니다. 오늘 잃은 시가총액도 차차 회복할 겁니다. 하지만 꼭 가장 최강의 GPU가 아니어도, 그 GPU를 수천만 시간 동안 쓰지 않아도 AI 모델 훈련이 가능하다는 것이 입증된 이번 사태는 AI 시대에서 무적일 것만 같았던 엔비디아에 꽤나 큰 상처를 입힌 것은 확실해 보입니다. AI 훈련에 필요한 GPU 자원이 줄어든다는 것은 엔비디아 입장에서는 그만큼의 매출 하락으로 다가올 테니까요.

그럼에도 딥시크의 등장이 조금이나마 반가운 점이 있다면, 이제 모두가 AI를 효율적으로 개발하는 것에도 투자를 할 것이라는 부분이에요. 지금까지의 AI 모델 훈련이나 데이터를 처리하는 과정은 “성능이 최고면 장땡”인 상황이었습니다. 모두가 H100을 최대한 많이 구매해서 거대한 데이터 센터에 넣은 후, 엄청난 전기를 써가며 만들어가는 것, 이것밖에 방법이 없다고 생각했거든요. 그러다보니 이러한 생성형 AI 모델 개발은 빅 테크만이 할 수 있는 전유물이라 여겨지기도 했습니다.

하지만 딥시크는 꼭 그게 만사형통인지에 대해서 질문을 던졌습니다. 좀 더 효율적인 개발이 이루어진다면, 그만큼 전력 소모량 등의 자원도 적게 들고, 환경에도 좋은 영향을 미치지 않을까라는 희망을 가져봅니다. 그리고 더 많은 중소기업들도 AI 모델 개발에 뛰어들 수도 있겠죠. 물론 정확히 어떤 영향을 줄지는 좀 지켜봐야 하겠지만요.

이래서 경쟁이 좋다고 하는 거 아니겠어요?

About Author
이주형

테크에 대한 기사만 10년 넘게 쓴 글쟁이. 사실 그 외에도 관심있는 게 너무 많아서 탈입니다.