Q&A
HOME >> 커뮤니티 >> Q&A

딥시크 관련주 및 엔비디아 주가 역대급 폭락 이유

페이지 정보

작성자 Yeti 작성일25-03-25 17:44 조회3회 댓글0건

본문

우리는 딥시크 이번 주 목요일까지 설 연휴로 휴장이지만, 미국 주식 시장은 휴장 없이 진행됩니다.아직 정규장 시작 전 거래 시간인 프리마켓(Pre-market)거래 시간이지만 엔비디아(NVDA), TSMC (TSM)등이 각 -11.65%, -10.37%로 큰 폭의 하락을 기록하고 있습니다.주가는 항상 등락을 반복하지만, 이번의 하락은 중국 기업이 발표한 논문과 출시한 서비스로 시작된 것으로 파악되고 있습니다.​차근차근 알아보도록 하겠습니다.​1. 딥시크(DeepSeek)과 하이플라이어(High-Flyer)딥시크(DeepSeek)는 하이플라이어(High-Flyer)가 세운 AI 연구 회사입니다.2023년 5월 설립되어, 아직 설립된 지 2년도 되지 않았습니다.​하이플라이어(High-Flyer)는 2015년 중국의 아이비리그로 불리는 C9 대학 중 하나인 항저우에 위치한 저장대학교 출신 세 명의 엔지니어가 세운 회사입니다.2007년 ~ 2008년 금융위기 당시 대학생들이었던 창업자들은 알고리즘 거래에 대한 아이디어를 갖게 되었고, 이를 발전시키다 창업을 하게 됩니다.​2016년부터 AI(기계학습 기반)를 이용하여 거래 전략을 세우고, 2019년에는 AI 알고리즘을 전담하는 High-Flyer AI를 설립했습니다.2020년부터 AI 학습을 위해 슈퍼컴퓨터를 운영하기 시작했습니다.2021년부터 운영한 슈퍼컴퓨터(Fire-Flyer 2)는 엔비디아(NVIDIA)의 고성능 GPU인 A100을 10,000개 넘게 이용하였습니다.​이처럼 하이플라이어(High-Flyer)는 알고리즘을 이용하는 퀀트 투자회사였고, 2016년부터 적극적으로 AI를 이용하였습니다.2023년 주식 및 투자와 관련 없는 일반 인공지능을 전문적으로 연구하는 회사를 설립하는데, 이 회사가 바로 딥시크(DeepSeek)입니다.​딥시크(DeepSeek)와 모 회사인 하이플라이어(High-Flyer) 모두 비상장회사로 주식 시장에 상장되어 있지 않습니다.​딥시크(DeepSeek)가 놀라운 것은 대형 IT 회사도 아니고, 주식 및 투자만 전문으로 AI를 활용하던 퀀트투자회사의 자회사로 새롭게 시작하여 2년도 되지 않아 큰 성과를 낸 점입니다.​다만, 어찌되었건 분야는 다르지만 AI를 적극 활용하던 회사였고 대규모 GPU 장비등을 운영한 경험이 있는 점은 고려해야 할 것 같습니다.​2. DeepSeek-MoE2023년 설립되고 첫해는 메타(이전 페이스북)이 공개한 대규모 AI언어 모델인 라마2(LLaMa 2)를 기반으로 성능을 개선하는 방향으로 연구가 진행되었고, 실제로 성능이 개선된 모델들을 공개하였습니다.​이때까지는 많은 유망한 AI 스타트업 중 하나였지만, 2024년 1월 자체적으로 개발한 모델인 DeepSeek-MoE를 공개하며 존재감을 알리게 됩니다.논문) DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language ModelsDeepSeek-MoE를 이해하기 위해서는 먼저 파라미터(Parameter)의 개념을 알아야 합니다.우리 뇌는 크게 흔히 뇌세포라고 부르는 뇌 신경세포인 뉴런과 뇌 신경세포들을 연결해 주는 시냅스로 구성되어 있습니다.뇌 신경세포는 서로 평균 1,000개에서 10,000개 딥시크 정도가 연결되어 있습니다.인간의 뇌는 평균 약 1,000억 개의 뇌세포가 있기에, 연결인 시냅스는 무려 약 100조 개 정도로 추정됩니다.​뇌세포가 많은 것도 중요하겠지만, 더 중요한 것은 사실 시냅스입니다.연결이 많이 되어 시냅스가 많을수록 정보가 효율적으로 전달되고, 다양하게 전달될 수 있어 똑똑하다고 볼 수 있습니다.우리 뇌에서 시냅스에 해당하는 것을 AI 모델에서 파라미터(Parameter)라고 할 수 있습니다.단순히 말해 파라미터(Parameter)는 많으면 많을수록 좋습니다.​아래의 표를 보면 영어로 된 모델 이름 옆에 있는 숫자와 숫자 뒤에 B가 붙어 표시된 것이 파라미터(Parameter) 수입니다.B는 빌리언, 10억을 줄여서 표기하였습니다.아래에 보면 OTPT 2.7B, GPT-neo 2.7B 등의 모델보다는 3B 모델의 성능(Average Performance)가 더 높은 것을 확인할 수 있습니다.27억 개(2.7B)의 파라미터보다 30억 개(3B)의 파라미터가 더 좋은 성과를 내며, 6억 개(6B), 7억 개(7B)의 파라미터가 더 좋은 성과를 내고 있습니다.​추가적으로, 같은 파라미터를 이용해도 기술의 향상으로 더 성능이 좋게 발전하고 있습니다.아래의 표에 RedPajama-INCITE 7B, 공개 라마(Open LLaMA) 7B, Falcon 7B, 라마(LLaMA) 7B, 라마2(LLaMA2) 7B 모델은 파라미터가 모두 70억 개로 비슷하지만 성능은 최신 모델인 라마2 7B가 압도적으로 높습니다.​DeepSeekMoE 모델은 16B(빌리언), 즉 160억 개의 파라미터(Parameter)를 가지고 있고 라마2(LLaMA2) 7B 거의 같은 성능을 내는 것으로 발표하였습니다.단순히 보면, 약 2.2배 많은 파라미터를 사용하여 똑같은 성능을 낸 것은 오히려 기술력이 떨어진다고 볼 수 있습니다.그러나 그래프의 하단을 보면 활성화된 파라미터(Activated Parameters) 숫자로는 DeepSeekMoE 16B가 다른 모델에 비해 매우 작은 편으로 위치하는 것을 알 수 있습니다.​왜 그럴까요?​결론만 쉽게 이야기하자면, 시험을 볼 때 뇌의 모든 부분을 짜내어서 답을 내는 학생(기존 모델)과 과목에 따라 뇌의 일부분만 효율적으로 사용해서 답을 내는 학생(DeepSeek-MoE)으로 비유해 볼 수 있습니다.​위의 표를 보면, 다른 모델들은 파라미터 수와 활성화된 파라미터 수가 일치하는 것을 확인할 수 있습니다.즉, 기존 모델들은 모든 파라미터가 모두 활성화, 사용됩니다.​DeepSeekMoe 모델은 16B(빌리언), 160억 개의 파라미터(Parameter)를 가졌지만, 모델을 실행할 때 사용되는 활성화된 파라미터(Activated Parameters)는 27억 개 정도로 표기하고 있습니다.​이는 MoE가 전문가 혼합을 뜻하는 Mixture of Experts의 딥시크 약어임을 보면 이해하기 쉽습니다.전문가 혼합 모델 MoE는 하나의 모델 안에 여러 모델이 존재합니다.이 모델들은 하나의 전문가처럼 학습이 되었고, 게이팅 네트워크(Gating Network)가 어떤 전문가, 모델을 쓸지 결정해서 그 모델만 사용하여 결과를 내는 것입니다.​아래의 그림은 매우 많은 전문가(Expert)가 있지만 게이팅 네트워크(Gating Network)가 2개의 전문가만 사용하는 것으로 결정하여 결과를 전달하는 예시입니다.​이처럼, DeepSeek-MoE는 한 모델로 구성되어 모든 파라미터를 사용하는 모델들과 달리 많은 파라미터(Parameter)를 가지고 있지만 일부만 사용함으로써 성능과 비용상의 이점을 얻을 수 있는 모델입니다.​3. DeepSeekMathDeepSeek-MoE를 공개한지 바로 3달 뒤 DeepSeekMath를 공개했습니다.​모델 이름에 수학(Math)이 들어간 것으로 바로 아실 수 있겠지만, 수학과 관련된 AI모델입니다.해당 모델은 7B, 70억 개의 파라미터만 사용하였지만 10배 이상 많은 파라미터를 사용한 모델들 보다 훨씬 좋은 정확도(Accuracy)를 기록하였습니다.GPT-4 초기 버전보다 좋고, GPT-4, 제미나이 울트라와 비교될만한 결과를 낸 것입니다.이처럼 DeepSeek은 최적화와 관련된 기술력을 이미 자랑하고 있었습니다.​대규모AI모델을 학습을 하는 데는 데이터가 많이 필요합니다.특히 양질의 데이터가 매우 중요합니다.공부를 하는 데 있어서 좋은 자료, 양질의 자료가 필요한 것을 생각하시면 됩니다.​DeepSeekMath는 2023년 공개된 고품질 수학 관련 텍스트인 OPEN WEB MATH를 기반으로 시작하였습니다.OPEN WEB MATH는 수학과 관련된 고품질 데이터 모음인데, 이를 공개한 저자들의 실험에 따르면 20배 이상의 일반 언어 관련 데이터로 학습한 모델보다 수학적으로 더 뛰어난 결과를 기록하였습니다.​만약 고품질 수학 관련 텍스트 데이터 모음인 OPEN WEB MATH가 없었다면, DeepSeekMath가 높은 성과를 내기위해서는 더 많은 시간이 걸렸을 것입니다.여기에 더 좋은 성능을 위해 데이터를 지속적으로 추가하였습니다.자료를 모으기 위해 400억 개의 웹페이지를 가져와서 수학과 관련된 페이지인지 확인하고 학습에 사용하였습니다.​이처럼 AI모델 개발에는 양질의 데이터, 데이터의 양적 확보는 매우 중요한 일입니다.DeepSeek은 DeepSeekMath를 통해 공개된 데이터의 활용 및 대규모 데이터를 직접 확보하여 처리할 수 있는 능력이 있음을 알 수 있습니다.​4. DeepSeek V2, V2.5, V3DeepSeek은 바로 2달 후인 2024년 5월 DeepSeek-V2를 공개하였습니다.그리고 4달 후인 2024년 9월에는 DeepSeek-V2.5, 그리고 다시 3달 후인 2024년 12월 DeepSeek-V3를 공개하였습니다.​DeepSeek을 살펴보면서 가장 놀라운 점 중 딥시크 하나가 매우 빠른 속도로 새로운 모델 및 기술을 공개하고 있다는 점입니다.DeepSeek은 현재 200명 정도의 인력이 근무하는 것으로 알려져 있습니다.오픈AI의 직원 수가 2024년 9월 기준 1,700명인 것에 비하면 상당히 소수인 것을 알 수 있습니다.직원 수 대비 발전하는 속도가 매우 빠른 회사입니다.DeepSeek V3모델은 파라미터 수가 폭발적으로 증가하여 671B, 6,710억 개의 파라미터를 사용합니다.​다만 앞에서 소개한 대로 전문가 혼합(MoE) 기술을 활용하여 한 번에 사용하는 파라미터는 37B, 37억 개밖에 되지 않습니다.매우 높은 성능의 모델을 매우 적은 운영 비용으로 제공할 수 있는 모델이 DeepSeek의 장점입니다.다만, 오픈AI의 GPT 최신 모델들도 전문가 혼합(MoE) 기술을 사용할 것으로 추정되지만 자세한 내용은 공개되지 않아 정확하게 알 수가 없습니다.​추가적으로 대규모AI모델은 학습을 시키고 만드는데 매우 많은 GPU와 시간이 필요합니다.스탠퍼드 2024년 AI 인덱스 리포트에 따르면, 구글의 AI모델 제미나이 울트라(Gemini Ultra)를 학습시키는데 사용한 비용이 무려 2조 7,490억 원입니다.오픈AI의 GPT-4는 1조 1,251억 원으로 추정되고 있습니다.즉, 서비스할 수 있는 대규모AI모델 학습에는 1조 원 이상이 사용되는 것을 확인할 수 있습니다.이렇게 학습을 시키는데 많은 비용이 들기에, 지금까지 대규모AI모델은 미국 빅테크 기업 외에는 도전하기 어려운 분야로 여겨지고 있었습니다.​하지만, DeepSeek V3는 학습시키는 비용도 혁신적으로 절감하였습니다.기존 대규모AI모델에 비해 매우 저렴합니다.​DeepSeek V3는 학습을 위해 엔비디아(NVIDIA)의 고성능 GPU인 H100을 미국 정부가 고성능 칩 수출 제한으로 사용할 수 없어, 이보다 성능을 제한하여 중국에 수출할 수 있도록 만든 저사양 모델인 H800을 사용하였습니다.H800 GPU를 이용하여 학습시키는데 걸린 시간만 278만 8천 시간입니다.무려 318년이 걸려서 엄청 오래 걸린 것으로 보이지만, 2,000대의 H800 GPU를 이용하면 2달 도 안되어 학습을 마무리할 수 있습니다.고성능 GPU인 H100을 이용하였다면 훨씬 더 빠르게 학습이 마무리되었을 것입니다.​대신 H800은 훨씬 저렴하여 1시간에 2달러 정도에 사용할 수 있기에 학습에 사용한 총비용은 80억 원 정도라고 밝혔습니다.​미국 빅테크들은 조 단위 비용으로 모델 학습에 조 단위의 돈을 사용했는데, DeepSeek는 이에 비하면 매우 적은 80억 원으로 학습을 할 수 있는 모델을 만든 것입니다.​매우 저렴하게 학습을 하였고, 딥시크 운영할 때도 최소한의 파라미터만 사용하여 결과를 내기에 운영 비용이 저렴합니다.그 결과 가장 경쟁력 있는 가격으로 서비스를 제공할 수 있는 기반을 갖추게 되었습니다.​5. DeepSeek-R1, DeepSeek-R1-Zero미국의 대형AI기업, 빅테크 대비 소규모의 인원과 자원을 바탕으로 고효율의 AI모델을 빠르게 발표해오던 DeepSeek가 지난 2025년 1월 22일 또다시 새로운 모델 DeepSeek-R1과 DeepSeek-R1-Zero를 공개하였습니다.​​앞에 발표한 모델도 중국AI기업이 미국AI기업 및 기술에 크게 뒤지지 않는다는 인식을 주기 충분하였지만, 이번에 발표한 모델은 과연 미국AI기업들의 기술이 앞서있는 것인 맞는가?에 대한 의문을 줄 정도로 충격적이었습니다.​오픈AI의 모델 중 가장 최신이고 강력한 모델이 오픈AI-o1-1217입니다.기존의 DeepSeek-V3모델이 효율이 좋게 가성비 결과를 내기는 했지만, 오픈AI-o1-1217과 비교하면 너무 처참한 결과를 기록하였습니다.그렇기에 아직 성능적으로는 차이가 있다고 인정할 수밖에 없었을 것입니다.​하지만, 이번에 발표한 DeepSeek-R1은 오픈AI-o1-1217과 비교해도 일부 분야에서는 앞서고, 일부 분야에서는 뒤지는 서로 대등한 결과를 기록하였습니다.아래의 표의 첫 번째와 두 번째를 비교하면 사실상 거의 비슷한 성능임을 확인할 수 있습니다.​그동안 오픈AI의 성능은 따라잡지 못했는데, 처음으로 오픈AI의 최신 모델 성능을 따라잡은 것입니다.단순히 성능만 높아진 것이 아닙니다.그동안 같은 파라미터 수라면 성능이 월등히 좋았고, 최소한의 일부 파라미터만 이용하여 효율을 높이던 방식도 더 나아졌습니다.​DeepSeek은 DeepSeek-R1-Zero를 먼저 만들고, DeepSeek-R1을 개발하였습니다.이 모델들은 12월에 공개한 DeepSeek V3를 기반으로 만든 모델입니다.DeepSeek-R1-Zero는 기존 대규모AI모델의 필수 과정이라고 생각했던 지도 미세 조정 과정(Supervised Fine-Tuning, SFT)을 이용하지 않았습니다.​지도 미세 조정 과정(Supervised Fine-Tuning, SFT)이란, 대규모AI모델이 원하는 수준의 답변을 하도록 유도하기 위해 질문에 대해 사람이 직접 원하는 답을 만들어 만든 소규모 데이터 모음을 이용하여 학습하는 과정입니다.쉽게 말해, 일반 인터넷 웹 문서를 통해 학습한 AI모델을 은행 고객을 대상으로 하는 챗봇으로 활용하기 위해, 예상 질문과 답변을 추가 학습시키는 것으로 이해하시면 될 것 같습니다.이런 지도 미세 조정 과정(Supervised Fine-Tuning, SFT)은 사람이 직접 질문, 답변을 만들어내야 하기에 비용도 많이 들고, 고품질의 데이터를 만들려면 더 많은 비용이 들 수밖에 없는 문제가 있습니다.그럼에도 성능을 높이기 위한 과정으로 필수로 여겨졌습니다.​하지만, DeepSeek-R1-Zero는 지도 미세 조정 과정(Supervised Fine-Tuning, SFT)을 딥시크 이용하지 않았습니다.​AI가 가장 처음 모두에게 충격을 주었던 사건은 2016년 구글의 자회사인 딥마인드의 바둑 AI모델인 알파고와 이세돌 9단의 대국이었을 것 같습니다.당시 알파고는 인터넷 무료 바둑 서비스인 KGS Go에서 게임 자체 등급 기준 6단부터 9단 까지의 16만 대국의 데이터를 가지고 학습을 하였습니다.당시만 해도 바둑은 현대 컴퓨터 기술의 연산량으로는 아직 인간을 이길 수 없다고 많은 분들이 생각하였기에, 알파고의 4대 1 승리는 매우 큰 충격이었습니다.​하지만, 매우 양질의 데이터인 프로기사들의 대국을 학습에 이용했다면 더 좋은 결과를 빠르게 기록했을 가능성이 높습니다.이후 딥마인드는 알파고를 개량하여 아예 바둑의 대국 데이터가 없이 기본적인 바둑의 규칙만 알려주고 스스로 바둑을 두면서 실력을 늘려나가는 알파고 제로(Zero)를 개발하게 됩니다.알파고 제로(Zero)는 처음에는 전혀 실력의 진전이 없어 보였지만, 3시간 만에 초보자처럼 둘 수 있게 되었고 3일 만에 이세돌 9단에 승리를 거두었던 알파고와 100번의 대국 중 한 번도 지지 않고 이길 수 있는 실력이 되었습니다.이처럼 기본적인 룰만 알고 스스로 바둑을 둬보면서 실력을 늘려나가는 것을 강화 학습(Reinforcement Learning)이라고 합니다.​DeepSeek-R1-Zero는 지도 미세 조정 과정(Supervised Fine-Tuning, SFT)대신 강화 학습(Reinforcement Learning)을 통해 스스로 성능을 향상시키는 방법을 학습에 사용하였습니다.​실제 학습 결과를 보면, 학습이 진행되면서 정확도(Accuracy)가 지속적으로 향상되는 것을 확인할 수 있습니다.​바둑은 명확한 규칙이 있고, 보상이 명확하여 강화 학습(Reinforcement Learning)이 쉬운 편이었지만, 대규모AI언어모델에 적용하기는 쉽지 않습니다.하지만 DeepSeek은 대규모AI언어모델에도 강화 학습이 사용될 수 있다는 가능성을 입증하였습니다.​다만, 치명적인 단점도 있었습니다.DeepSeek-R1-Zero가 내놓는 답은 가독성이 매우 떨어지는 경우가 있었습니다.특히 학습 때 영어와 중국어 위주로 학습되었는데, 종종 두 언어를 섞어서 사용하여 답을 하는 경우가 많았습니다.DeepSeek는 아직 강화 학습(Reinforcement Learning)만으로는 만족할 만한 결과를 내기 어렵다는 사실을 인지하고, 이를 개량한 DeepSeek-R1을 개발합니다.​DeepSeek-R1은 사람에게 친화적인 양질의 소규모 데이터를 기반으로 초기 학습(Cold Start)하는 것으로 시작합니다.이를 통해 DeepSeek-R1-Zero의 문제점이었던 가독성 및 언어를 섞어 사용하는 문제를 해결할 수 있었고 오픈AI의 고성능 모델을 위협할 만한 모델을 만들어 낸 것입니다.​6. 모델 공개오픈AI의 GPT는 구글이 공개한 기술인 트랜스포머(Transformer)를 기반으로 발전시킨 딥시크 모델입니다.오픈AI도 GPT3.5까지는 자세한 논문을 공개하며, 기술을 공개하기도 하였지만 오픈AI는 GPT3.5 이후로는 논문을 공개하지 않습니다.단순히 성능 위주로 공개하는 테크니컬 리포트(Technical Report)만 발행하고 있습니다.구글도 논문 발표나 특히 타사에 사용될 수 있는 논문 및 기술의 공개는 줄었습니다.​즉, 빅테크들은 이제 자사 서비스의 기술적 우위를 유지하기 위해 기술을 공개하는 것을 꺼려 하는 분위기입니다.메타가 라마(LLaMa)를 공개하긴 했지만, 다른 기업들보다는 성능적으로는 열세인 상황에서 공개를 통해 기술 확대를 노리는 것으로 보고 있습니다. ​이런 상황에서 미국 빅테크 회사가 아닌 중국의 회사가 공개한 DeepSeek-R1모델이 오픈AI의 최신 모델과 대등한 놀라운 결과를 기록하였습니다.그리고 DeepSeek은 해당 모델을 공개하였습니다.To support the research community, we open-source DeepSeek-R1-Zero, DeepSeek-R1, and six dense models (1.5B, 7B, 8B, 14B, 32B, 70B) distilled from DeepSeek-R1 based on Qwen and Llama.모든 모델은 누구나 자유롭게 다운로드할 수 있습니다.Contribute to deepseek-ai/DeepSeek-R1 development by creating an account on GitHub.​그리고 DeepSeek-R1 모델은 MIT 라이선스로 배포되었습니다.해당 모델을 상업적인 용도로 사용하여도 제한이 없고, 수정을 하여 사용하거나 다른 AI모델을 학습하는 데 사용해도 아무런 제약이 없습니다.​7. 결론현재 상황을 정리해 보면, 다음과 같습니다.​그동안 오픈AI, 구글 등의 빅테크 기업들은 수많은 인력들과 조 단위 비용을 들여가며, 대규모AI언어모델 학습을 시키고 성능을 발전시키고 있었습니다.AI를 학습시키고, 서비스를 제공하는데 많은 GPU와 시간이 필요한 것은 당연시되었습니다.구글의 AI모델 제미나이 울트라(Gemini Ultra)를 학습시키는데 사용한 비용이 무려 2조 7,490억 원입니다. 오픈AI의 GPT-4는 1조 1,251억 원으로 추정되고 있습니다.​하지만, 중국 퀀트 회사의 자회사인 DeepSeek(딥시크)가 설립 2년도 안되어 공개한 DeepSeek-R1 모델은 적은 GPU와 시간으로도 대규모AI언어모델을 만들 수 있음을 증명하였고, 관련 기술과 모델을 무료로 공개하였습니다.​차라리 DeepSeek이 해당 기술만 공개하고, 모델은 공개하지 않았더라면 검증이 필요하고 파급력은 조금 줄어들 수 있었지만, 모델까지 모두 공개함에 따라 영향력이 매우 커질 수 밖에 없게되었습니다.​미국의 수출제한 조치로 엔비디아(NVIDIA)의 고성능 GPU인 H100, H200을 사용할 수 없어, 보급형인 H800을 사용할 수밖에 없는 환경에서 저렴한 비용으로 학습이 가능한 모델과 구조를 갖춘 것입니다.미국의 수출제한 조치가 오히려 성능과 딥시크 비용의 절감을 할 수 있는 혁신을 가져온 셈이 되었습니다.​저사양 GPU로도 충분히 성능을 보여준 DeepSeek(딥시크)로 인해, 기존보다 더 성능이 강화된 B200 GPU 출시를 앞둔 엔비디아(NVIDIA)에게는 큰 악재가 되었습니다.DeepSeek의 기술로 이전 세대의 GPU, 보급형에서도 서비스가 충분히 가능한 것이 증명되었기에 GPU 장비 확장 및 구매보다 모델 개선에 더 집중할 가능성이 높습니다.​이와 연결되어 엔비디아(NVIDIA)의 생산을 전담하고 있는 TSMC도 영향을 받고, 엔비디아(NVIDIA)에 메모리를 공급하는 마이크론(MU)도 영향을 받을 것입니다.​만약 우리나라 주식 시장이 개장했더라면 SK하이닉스 등도 큰 폭의 하락을 면치 못했을 것 같습니다.​미국이 수출제한 조치까지 하며 중국의 AI 발전을 늦추려고 하였지만, 사실 AI 기술은 이미 중국이 양적으로는 더 앞서고 있었습니다.​관련 학회 중 이미지, 영상 관련 학회로 손에 꼽는 CVPR이라는 학회가 있습니다.작년인 2024년에 발표된 논문을 국가별로 살펴보면 중국이 제일 많았고, 미국이 그다음이었습니다.미국과 중국이 차지하는 비율이 70%가 넘습니다.​회사 이름으로 발표된 논문을 분석해 보면 압도적인 1위는 구글이었지만, 공동 2위는 텐센트와 메타였습니다.상위 10개 기업은 미국과 중국 기업밖에 없습니다.​기업을 보면 미국이 앞서가지만, 논문을 발표한 대학교 순서로 보면 중국이 압도적으로 우위에 있습니다.1위가 중국 칭화대학교, 2위가 DeepSeek(딥시크)의 모회사인 하이플라이어의 창업 멤버들의 모교인 중국 저장대학교, 3위가 홍콩 중문대학, 4위가 홍콩 과기대학교, 5위 중국 난징대학, 6위 싱가포르 난양기술대학, 7위 중국 베이징대학교, 8위 스위스 취리히 연방 공과대학교, 9위 싱가포르 국립대학교, 10위 독일 뮌헨 공과대학입니다.14위가 우리나라의 카이스트입니다.​물론 단순 논문의 양, DeepSeek(딥시크)의 최신 모델만으로 모든 것을 속단할 수는 없습니다.​하지만, 미국과 중국 두 나라가 과점하고 있었고, 미국이 선도했다고 평가되고 있던 AI기술 리더십에 생채기를 낸 것은 확실한 것 같습니다.​앞으로도 어떤 기업, 어떤 기술이 변화를 만들기 기대되지만, 이왕이면 우리나라에서도 좋은 결과가 있었으면 좋겠습니다.모두 좋은 밤 되세요.​​ㅇ 네이버인플루언서 팬 추가를 안해주신 분들은, 팬하기로 응원부탁드립니다.ㅇ 주의 : 이 글은 투자를 권유하는 글이 아니며, 투자의 책임은 오롯이 투자자 본인에게 있습니다. ​제 글을 허가 없이 자신의 글인 것처럼 무단 전재, 사용하는 것을 허락하지 않습니다.제가 유튜브채널을 시작하였습니다. 구독으로 응원해 주세요.​​​

댓글목록

등록된 댓글이 없습니다.

상호명 신성사 | 대표자 박한규 | 사업자등록번호 106-50-64457 | TEL 02-713 –3691 | FAX 02 - 716 - 8564 | ADD 서울특별시 용산구 원효로58길 17 나우빌딩 2층 | E-mail help@sscom.co.kr

Copyrightsⓒ2016 신성사 All rights reserved.