아티클

[번역] 다리오 아모데이: 딥시크와 반도체 수출 통제에 관하여

미국의 AI 기업들과 중국 기업 딥시크의 반도체 기술 경쟁에서, 수출 통제는 미국의 기술적 우위를 지키고 양극화된 세계보다 미국 중심의 단극 세계를 형성하는 데 중요한 역할을 한다.

2025.01.31 | 조회 176 |
0
|
0xPlayer의 프로필 이미지

0xPlayer

-

첨부 이미지

몇 주 전, 저는 중국의 반도체 수입 제한을 더욱 강화해야 한다고 주장했습니다. 그 이후 중국의 인공지능 기업 '딥시크'가 일부 분야에서 미국의 최첨단 AI 모델들과 맞먹는 성능을 더 낮은 비용으로 구현했다는 소식이 전해졌습니다.

이 글에서는 딥시크가 앤트로픽과 같은 미국 AI 기업들에게 실질적인 위협이 되는지는 다루지 않겠습니다(미국의 AI 주도권에 대한 위협 주장이 과장되어 있다고 판단합니다)¹.

대신, 딥시크의 이러한 성과가 반도체 수출 통제 정책의 타당성을 훼손하는지 검토하고자 합니다. 제 의견으로는 그렇지 않습니다. 오히려 일주일 전보다 수출 통제의 실질적 중요성이 한층 더 높아졌다고 봅니다².

수출 통제는 민주주의 국가들이 AI 개발의 선두 자리를 지키도록 하는 핵심적 역할을 합니다. 분명히 말씀드리자면, 이는 미국과 중국 간의 경쟁을 피하는 방법이 아닙니다. 궁극적으로 우리가 승리하려면 미국과 여타 민주주의 국가들의 AI 기업들이 중국보다 우수한 모델을 보유해야 합니다. 다만 우리의 기술적 우위를 중국 공산당이 따라잡을 수 있도록 도와줄 필요는 없습니다.


AI 개발의 세 가지 역학관계

정책 제안에 앞서, AI 시스템의 세 가지 기본적인 역학관계를 설명하고자 합니다:

1. 규모의 법칙(Scaling laws). AI의 주요 특성 중 하나는 - 제가 공동 창업자들과 함께 오픈AI에서 처음 입증했던 - 다른 조건이 동일할 때, AI 시스템의 학습 규모를 확대하면 다양한 인지 과제에서 전반적인 성능이 점진적으로 향상된다는 점입니다. 예컨대, 100만 달러 모델은 주요 코딩 과제의 20%를, 1,000만 달러 모델은 40%를, 1억 달러 모델은 60%를 해결할 수 있습니다. 이러한 차이는 실질적으로 큰 의미를 지니며 - 10배의 격차는 학부생과 박사급 실력 차이에 맞먹을 수 있어 - 기업들은 이러한 모델 학습에 막대한 투자를 하고 있습니다.

2. 곡선의 이동(Shifting the curve). 이 분야는 지속적으로 효과성과 효율성을 높이는 크고 작은 혁신들을 만들어내고 있습니다. 이는 모델의 '구조'를 개선하거나(현재 모든 모델이 사용하는 기본 트랜스포머 구조의 개선) 기반 하드웨어에서 모델을 더 효율적으로 실행하는 방식으로 나타날 수 있습니다. 새로운 세대의 하드웨어도 같은 효과를 보입니다. 이는 일반적으로 '곡선을 이동시킵니다': 만약 혁신이 2배의 "연산 승수"(CM)를 가져온다면, 코딩 작업에서 40%의 성능을 내는 데 1,000만 달러 대신 500만 달러가 들거나, 60%의 성능을 내는 데 1억 달러 대신 5,000만 달러가 드는 식입니다.

최첨단 AI 기업들은 정기적으로 이러한 CM들을 발견합니다: 자주는 작은 규모(~1.2배), 때로는 중간 규모(~2배), 가끔은 매우 큰 규모(~10배)의 발전을 이룹니다. 더 지능적인 시스템을 갖는 것의 가치가 매우 크기 때문에, 이러한 곡선의 이동은 일반적으로 기업들이 모델 학습에 '더 적게가 아닌 더 많이' 투자하게 만듭니다: 비용 효율성의 향상은 전적으로 더 똑똑한 모델을 학습하는 데 재투자되며, 오직 기업의 재정적 자원에 의해서만 제한됩니다.

사람들은 자연스럽게 "처음에는 비쌌다가 나중에는 저렴해진다"는 생각에 끌립니다 - 마치 AI가 일정한 품질을 가진 하나의 제품이고, 가격이 내려가면 더 적은 반도체를 사용하게 될 것처럼 말입니다. 하지만 핵심은 '규모의 곡선'입니다: 곡선이 이동할 때, 우리는 단순히 더 빠르게 곡선을 따라가게 되는데, 이는 곡선의 정점에 있는 것의 가치가 매우 높기 때문입니다.

2020년, 저희 팀은 '알고리즘' 발전으로 인한 곡선의 이동이 연간 약 1.68배라고 제시하는 논문을 발표했습니다. 그 이후로 이는 상당히 가속화되었을 것입니다; 또한 이는 효율성과 하드웨어를 고려하지 않은 수치입니다. 현재는 그 수치가 연간 약 4배 정도로 추정됩니다. (수치 확인) 학습 곡선의 이동은 추론 곡선도 함께 이동시키며, 그 결과 '모델의 품질을 일정하게 유지하면서' 가격이 크게 하락하는 현상이 수년간 이어지고 있습니다. 예를 들어, 원래의 GPT-4보다 15개월 후에 출시된 클로드 3.5 소넷은 거의 모든 벤치마크에서 GPT-4를 능가하면서도, API 가격은 약 10배 더 낮습니다.

3. 패러다임의 전환(Shifting the paradigm). 때때로, 규모 확장의 근본적인 방식이 변하거나, 새로운 유형의 확장이 학습 과정에 더해집니다. 2020-2023년 동안에는 주로 '사전학습 모델'의 확장이 주를 이뤘습니다. 즉, 인터넷 텍스트의 양을 늘리고 그 위에 부가적인 학습을 더하는 모델들이었습니다. 2024년에는 사고의 연쇄를 만들어내기 위한 '강화학습'(RL) 방식이 새로운 확장의 중심이 되었습니다.

앤트로픽, 딥시크를 비롯한 여러 기업들(특히 9월에 o1-프리뷰 모델을 선보인 오픈AI가 주목할 만함)은 이러한 학습이 수학, 코딩 대회, 그리고 이와 유사한 추론이 필요한 객관적 평가가 가능한 작업들에서 성능을 획기적으로 향상시킨다는 점을 확인했습니다. 이 새로운 패러다임은 일반적인 형태의 사전학습 모델로 시작해서, 두 번째 단계에서 RL을 활용하여 추론 능력을 보강하는 방식을 포함합니다.

주목할 점은, 이러한 RL 방식이 새롭기 때문에 우리는 아직 발전 곡선의 매우 초기 단계에 있다는 것입니다. 현재 모든 참여자들은 두 번째 RL 단계에 상대적으로 적은 투자를 하고 있습니다. 10만 달러에서 100만 달러로의 투자 증가만으로도 상당한 성과를 얻을 수 있는 상황입니다. 기업들은 현재 이 두 번째 단계를 수억, 수십억 달러 규모로 확장하기 위해 빠르게 움직이고 있습니다. 하지만 우리가 발전 곡선의 초기에 있는 강력한 새로운 패러다임이라는 특별한 '변곡점'에 있음을 이해하는 것이 중요합니다.


딥시크의 모델들

앞서 설명한 세 가지 역학관계는 딥시크의 최근 출시를 이해하는 데 도움이 됩니다. 약 한 달 전, 딥시크는 순수 사전학습 모델인 "딥시크-V3"를 출시했습니다³ - 위의 #3에서 설명한 첫 번째 단계입니다. 그리고 지난주, 두 번째 단계를 추가한 "R1"을 선보였습니다. 외부에서 이러한 모델들의 전모를 파악하기는 불가능하지만, 이 두 출시에 대한 제 견해를 다음과 같이 정리해보겠습니다.

딥시크-V3는 실제로 진정한 혁신이었으며, 한 달 전에 주목받았어야 할 성과입니다(우리는 분명히 그렇게 했습니다). 사전학습 모델로서, 일부 중요 과제에서 미국의 최첨단 모델들⁴의 성능에 근접하면서도 훨씬 적은 비용으로 학습이 가능했습니다. 다만, 우리는 특히 클로드 3.5 소넷이 실제 코딩과 같은 다른 주요 과제에서 여전히 월등히 앞서 있다는 점을 확인했습니다.

딥시크 팀은 주로 공학적 효율성에 초점을 맞춘 몇 가지 혁신적이고 인상적인 기술로 이를 이뤄냈습니다. "키-밸류 캐시" 관리 측면에서 특히 혁신적인 개선이 있었고, "전문가 혼합" 방식을 이전보다 더 발전시킬 수 있었습니다.

하지만 더 세밀한 검토가 필요합니다:

  • 딥시크는 "미국 AI 기업들이 수십억 달러를 들인 것을 600만 달러⁵로 해내지" 않았습니다. 저는 앤트로픽에 대해서만 말씀드릴 수 있지만, 클로드 3.5 소넷은 학습에 수천만 달러 정도가 소요된 중간 규모의 모델입니다(정확한 수치는 밝힐 수 없습니다). 또한, 3.5 소넷은 더 크거나 고비용 모델을 활용하는 방식으로 학습되지 않았습니다(일부 소문과는 달리). 소넷의 학습은 9-12개월 전에 이루어졌고, 딥시크의 모델은 11월/12월에 학습되었으며, 소넷은 여전히 많은 내부 및 외부 평가에서 뚜렷한 우위를 보이고 있습니다. 따라서, 제가 보기에 공정한 평가는 "딥시크가 7-10개월 더 오래된 미국 모델들의 성능에 근접한 모델을 상당히 적은 비용으로 만들었다(하지만 사람들이 제시한 비율과는 거리가 있습니다)"입니다.
  • 효율성 곡선의 연간 감소율이 약 4배라면, 일반적인 발전 과정에서 - 2023년과 2024년의 통상적인 비용 감소 추세를 고려할 때 - 현재 시점에서 3.5 소넷/GPT-4보다 3-4배 저렴한 모델이 예상됩니다. 딥시크-V3가 이러한 미국의 최첨단 모델들보다 성능이 떨어진다는 점을 감안하면 - 발전 곡선에서 약 2배 정도 뒤처져 있다고 보는 것이 꽤 관대한 평가입니다 - 딥시크-V3의 학습 비용이 1년 전 개발된 현재 미국 모델들보다 약 8배 적다는 것은 완전히 자연스럽고 "추세에 부합하는" 현상입니다. 정확한 수치는 밝히지 않겠지만, 앞서 언급했듯이 딥시크의 학습 비용을 액면 그대로 받아들여도, 그들은 기껏해야 추세선에 걸쳐있거나 그에도 미치지 못합니다. 예를 들어, 이는 최초 GPT-4에서 클로드 3.5 소넷으로의 추론 비용 격차(10배)보다 완만하며, 3.5 소넷은 GPT-4보다 우수한 모델입니다. 이 모든 것은 딥시크-V3가 특별한 돌파구나 LLM의 경제성을 근본적으로 바꾸는 것이 아님을 시사합니다. 이는 단지 지속적인 비용 감소 곡선상의 예상된 지점일 뿐입니다. 이번에 다른 점은 예상된 비용 절감을 처음으로 보여준 기업이 중국 기업이라는 사실입니다. 이는 전례 없는 일이며 지정학적으로 중요한 의미를 지닙니다. 하지만 미국 기업들도 곧 따라잡을 것입니다 - 이는 딥시크를 모방해서가 아니라, 그들도 일반적인 비용 감소 추세를 달성하고 있기 때문입니다.
  • 딥시크와 미국 AI 기업들은 모두 주력 모델 학습에 사용했던 것보다 더 많은 자금과 반도체를 보유하고 있습니다. 추가 반도체들은 모델 기반 아이디어 개발을 위한 연구개발에 활용되며, 때로는 아직 완성되지 않은(또는 제대로 구현하기 위해 여러 번의 시도가 필요한) 더 큰 모델들의 학습에 사용됩니다. 보도에 따르면 - 확실한 사실인지는 알 수 없으나 - 딥시크는 실제로 5만 개의 호퍼 세대 반도체⁶를 보유하고 있다고 하는데, 이는 제가 추정하기에 주요 미국 AI 기업들이 보유한 것의 약 2-3배 수준입니다(예를 들어, xAI "콜로서스" 클러스터보다 2-3배 많습니다)⁷. 이 5만 개의 호퍼 반도체는 약 10억 달러의 비용이 듭니다. 따라서 기업으로서 딥시크의 총 지출(개별 모델 학습 비용과는 별개)은 미국 AI 연구소들과 크게 다르지 않습니다.
  • 특히 주목할 점은 모델들이 어느 정도 차별화되어 있고 서로 다른 강점과 약점을 지니고 있어 "발전 곡선" 분석이 다소 단순화되어 있다는 것입니다. 발전 곡선 수치들은 많은 세부사항을 제외한 대략적인 평균에 불과합니다. 저는 앤트로픽의 모델들에 대해서만 말씀드릴 수 있지만, 앞서 언급했듯이 클로드는 코딩과 사용자와의 잘 설계된 상호작용 방식에서 매우 뛰어납니다(많은 사람들이 개인적인 조언이나 지원을 위해 활용합니다). 이러한 작업들과 몇 가지 추가적인 과제들에서는 딥시크와 비교가 되지 않습니다. 이러한 요소들은 발전 수치에 반영되지 않습니다.

R1이 지난주 출시되면서 대중의 큰 주목을 받았지만(엔비디아 주가가 17%나 하락), 기술적 혁신 측면에서 보면 V3만큼 획기적이지는 않습니다. 이는 두 번째 단계의 학습 - 앞 섹션의 #3에서 설명한 강화학습 - 을 추가한 것으로, 본질적으로 오픈AI가 오원으로 수행한 것을 재현한 것입니다(비슷한 규모로 유사한 결과를 얻은 것으로 보입니다)⁸.

하지만 우리가 발전 곡선의 초기 단계에 있기 때문에, 강력한 사전학습 모델에서 시작하는 한 여러 기업들이 이러한 유형의 모델을 만드는 것이 가능합니다. V3를 기반으로 R1을 만드는 것은 아마도 매우 적은 비용이 들었을 것입니다. 따라서 우리는 여러 기업들이 우수한 추론 모델을 만들 수 있는 흥미로운 "변곡점"에 있습니다. 하지만 모든 기업들이 이러한 모델들의 발전 곡선을 따라 더 높이 올라감에 따라 이는 빠르게 사라질 것입니다.


수출 통제

이 모든 내용은 제가 주로 관심을 가진 주제인 중국의 반도체 수출 통제에 대한 서론에 불과합니다. 이상의 사실들을 고려할 때, 저는 상황을 다음과 같이 판단합니다:

  • 성능 곡선이 주기적으로 변화하고 특정 수준의 모델 지능을 학습하는 비용이 급격히 감소함에도, 기업들은 더욱 강력한 AI 모델 학습에 더 많은 비용을 투자하는 추세를 이어가고 있습니다. 더 지능적인 모델을 학습하는 것의 경제적 가치가 막대하기 때문에, 비용 절감 효과는 거의 즉시 소진되어 - 애초에 계획했던 것과 비슷한 규모의 거대 비용으로 더 뛰어난 모델을 개발하는 데 재투자됩니다. 딥시크가 개발한 효율성 혁신은, 미국 연구소들이 아직 발견하지 못했더라도 곧 미국과 중국 연구소들이 수십억 달러 규모의 모델을 학습하는 데 활용할 것입니다. 이는 기존에 계획했던 수십억 달러 모델들보다 더 뛰어난 성능을 보일 것입니다 - 하지만 여전히 수십억 달러가 소요될 것입니다. 이러한 비용은 우리가 거의 모든 분야에서 인간의 지능을 뛰어넘는 AI에 도달할 때까지 계속 증가할 것입니다.
  • 거의 모든 분야에서 인간의 지능을 뛰어넘는 AI를 개발하기 위해서는 수백만 개의 반도체와 최소 수백억 달러가 필요하며, 이는 2026-2027년경에 가장 실현 가능할 것으로 보입니다. 딥시크의 등장이 이러한 전망을 바꾸지는 못합니다. 이는 대체로 이미 이러한 계산에 반영되어 있던 예상 비용 감소 곡선상에 있기 때문입니다.
  • 이는 2026-2027년에 우리가 매우 다른 두 가지 세계(시나리오) 중 하나에 처할 수 있음을 의미합니다. 미국의 여러 기업들은 필요한 수백만 개의 반도체를 확보할 것이 확실해 보입니다(수백억 달러의 비용으로). 관건은 중국도 그만큼의 반도체를 확보할 수 있을지 여부입니다.
    • 만약 중국이 수백만 개의 반도체를 확보한다면, 우리는 '양극화된' 세계에 살게 될 것입니다. 미국과 중국 모두 과학기술의 급격한 발전을 이끌어낼 수 있는 강력한 AI 모델들을 보유하게 될 것입니다 - 제가 "데이터센터의 천재들의 나라"라고 부르는 상황입니다. 그러나 이러한 양극화된 세계가 영원히 균형을 이룰 필요는 없습니다. 미국과 중국이 AI 시스템에서 동등한 수준을 유지하더라도, 중국이 기술의 군사적 활용에 더 많은 인재와 자본, 역량을 집중할 가능성이 높습니다. 이는 중국의 탄탄한 산업 기반과 군사-전략적 이점과 결합하여, AI뿐만 아니라 모든 분야에서 세계적 주도권을 확보하는 데 도움이 될 수 있습니다.
    • 반면 중국이 수백만 개의 반도체를 확보하지 못한다면, 우리는 (적어도 일시적으로) 미국과 그 동맹국들만이 이러한 모델들을 보유한 '단극' 세계에 살게 될 것입니다. 이러한 단극 체제가 얼마나 지속될지는 불확실하지만, AI 시스템이 결국 더 뛰어난 AI 시스템을 개발하는 데 기여할 수 있다는 점에서, 일시적인 우위가 지속 가능한 이점으로 이어질 수 있습니다. 따라서 이 시나리오에서는 미국과 그 동맹국들이 세계 무대에서 지배적이고 장기적인 우위를 점할 수 있습니다.
  • 효과적인 수출 통제만이 중국의 수백만 개 반도체 확보를 막을 수 있으며, 이는 우리가 단극 세계와 양극 세계 중 어디로 향할지를 결정짓는 가장 중요한 요소가 될 것입니다.
  • 딥시크의 성과가 수출 통제의 실패를 의미하지는 않습니다. 앞서 언급했듯이, 딥시크는 이미 상당한 규모의 반도체를 보유하고 있었기에 강력한 모델을 개발하고 학습할 수 있었던 것은 당연한 결과입니다. 그들은 미국 AI 기업들에 비해 실질적인 자원 제약을 겪지 않았으며, 수출 통제가 그들의 '혁신'을 이끌어낸 주요 요인은 아니었습니다. 이는 단순히 그들이 뛰어난 기술력을 가진 엔지니어들이며, 중국이 미국의 강력한 경쟁자라는 사실을 보여주는 것입니다.
  • 또한 딥시크의 사례가 중국이 밀수를 통해 필요한 모든 반도체를 확보할 수 있다거나, 통제 체계에 항상 허점이 있다는 것을 입증하지도 않습니다. 수출 통제는 중국의 수만 개 반도체 확보를 막도록 설계되지 않았다고 봅니다. 10억 달러 규모의 경제 활동은 은폐가 가능할 수 있으나, 100억 달러나 1천억 달러 규모는 은폐하기가 어렵습니다. 백만 개의 반도체는 물리적으로도 밀수하기가 쉽지 않을 것입니다. 현재 딥시크가 보유한 것으로 알려진 반도체를 살펴보는 것도 의미가 있습니다. 세미애널리시스에 따르면, 이는 H100, H800, H20을 포함해 총 5만 개입니다. H100은 출시 이후 수출이 금지되어, 딥시크가 이를 보유하고 있다면 밀수됐을 가능성이 높습니다(엔비디아는 딥시크의 발전이 "수출 통제를 완전히 준수한다"고 밝혔습니다). H800은 2022년 초기 수출 통제에서는 허용됐으나, 2023년 10월 규제 강화로 금지됐으므로 이는 규제 이전에 확보됐을 것입니다. H20은 학습 효율은 낮지만 연산에는 더 효율적입니다 - 현재는 허용되고 있으나, 제 견해로는 금지되어야 합니다. 이는 딥시크의 AI 반도체 보유량 상당수가 아직 규제되지 않은 제품들(단, 규제가 필요함), 규제 이전 확보된 제품들, 그리고 높은 확률로 밀수된 것으로 추정되는 제품들로 구성되어 있음을 보여줍니다. 이는 수출 통제가 실제로 작동하고 진화하고 있다는 증거입니다: 허점들이 하나씩 메워지고 있는 것입니다. 그렇지 않았다면, 그들은 아마도 최고급 H100으로만 구성된 장비를 보유했을 것입니다. 만약 우리가 이러한 허점들을 충분히 신속하게 막을 수 있다면, 중국의 수백만 개 반도체 확보를 저지할 수 있을 것이고, 이는 미국이 우위를 점하는 단극 세계의 가능성을 높일 것입니다.

수출 통제와 미국의 국가 안보에 대한 제 관심을 고려할 때, 한 가지를 분명히 하고자 합니다. 저는 딥시크 자체를 적대적으로 보지 않으며, 그들을 특별히 겨냥하는 것이 핵심이 아닙니다. 그들의 인터뷰를 보면, 단순히 유용한 기술을 만들고자 하는 영리하고 호기심 많은 연구자들로 보입니다.

하지만 그들은 인권을 침해했고, 국제 무대에서 공격적인 행보를 보여왔으며, AI 분야에서 미국과 대등해진다면 이러한 행태를 더욱 자유롭게 이어갈 수 있는 권위주의 정부의 통제 아래 있습니다. 수출 통제는 이를 막기 위한 우리의 가장 강력한 수단 중 하나이며, 기술이 '더욱 강력해지고', '비용 효율성'이 높아진다는 점이 수출 통제를 완화해야 할 이유가 될 수는 없습니다.

각주

  1. 본문에서는 서구 모델로부터의 증류에 관한 보고들에 대해 어떤 입장도 취하지 않겠습니다. 딥시크가 논문에서 밝힌 대로의 학습 방식을 그대로 받아들이고자 합니다.
  2. 딥시크 모델의 출시는 분명 엔비디아에 부정적이지 않았음에도, 이에 대한 반응으로 엔비디아의 주가가 두 자릿수(~17%) 하락한 것은 의아스러운 일이었습니다. 이는 AI 기업들에 미치는 영향보다 더 분명합니다. 다만 이 글의 주된 목적은 수출 통제 정책을 옹호하는 데 있습니다.
  3. 정확히 말하자면, 추론 패러다임의 전환 이전 모델들에서 볼 수 있는 극히 제한적인 강화학습이 포함된 사전학습 모델이었습니다.
  4. 매우 제한된 일부 작업에서는 더 우수한 성능을 보입니다.
  5. 이는 딥시크의 논문에 인용된 수치입니다 - 이를 그대로 받아들이며 의심하지 않습니다. 다만 미국 기업들의 모델 학습 비용과의 비교, 그리고 특정 모델 학습 비용(600만 달러)과 전체 연구개발 비용(이보다 훨씬 큰 규모)의 구분에 대해서만 의문을 제기합니다. 하지만 600만 달러라는 수치조차 완전히 확신할 수는 없습니다 - 모델 규모는 검증이 가능하나 토큰 수와 같은 다른 요소들은 그렇지 않기 때문입니다.
  6. 일부 인터뷰에서 제가 언급한 "50,000개의 H100" 보유 발언은 보도 내용을 다소 부정확하게 요약한 것이어서 이를 정정하고자 합니다. "호퍼 칩" 중 가장 잘 알려진 것은 H100(제가 언급했던 것으로 추정)이지만, 호퍼에는 H800과 H20도 포함되며, 딥시크는 이 세 종류를 합쳐 총 50,000개를 보유하고 있다고 보도되었습니다. 이는 전체적인 상황을 크게 바꾸지는 않지만, 정정할 필요가 있습니다. H800과 H20에 대해서는 수출 통제를 논의할 때 더 자세히 다루겠습니다.
  7. 참고로, 수출 통제로 인해 차세대 클러스터에서는 이 격차가 크게 벌어질 것으로 예상됩니다.
  8. R1이 큰 주목을 받은 주요 이유 중 하나는 모델의 사고 과정을 사용자에게 보여준 최초의 모델이기 때문이라고 생각합니다(오픈AI의 o1은 최종 답변만 제시합니다). 딥시크는 사용자들이 이에 관심이 있다는 점을 보여주었습니다. 분명히 말씀드리면, 이는 사용자 인터페이스 선택의 문제이며 모델 자체의 성능과는 무관합니다.
  9. 중국이 독자적으로 개발한 반도체는 가까운 미래에 미국산과 경쟁하기 어려울 것입니다. 최근 매트 포팅거와 함께 쓴 제가 쓴 칼럼에서 언급했듯이: "중국의 최고 AI 반도체인 화웨이 어센드 시리즈는 미국의 엔비디아가 제작한 최고급 반도체에 비해 성능이 현저히 떨어집니다. 중국은 또한 증가하는 수요를 따라갈 생산력이 부족할 수 있습니다. 현재 중국 외부에서 화웨이 어센드 반도체의 주목할 만한 클러스터가 전혀 없다는 사실은 중국이 자국 수요 충족에도 어려움을 겪고 있음을 시사합니다."
  10. 분명히 말씀드리면, 여기서의 목적은 중국이나 다른 권위주의 국가들이 고성능 AI 시스템으로부터 얻을 수 있는 과학, 의학, 삶의 질 향상 등의 막대한 혜택을 부정하는 것이 아닙니다. AI의 혜택은 모든 이에게 돌아가야 합니다. 목표는 그들이 군사적 우위를 확보하는 것을 방지하는 데 있습니다.
  11. 본 아티클은 여러 단계를 거쳤기에, 이해를 돕기 위한 링크를 참조할 필요가 있습니다. 주요 조치들은 다음과 같습니다. #1, #2, #3, #4

본 콘텐츠는 2025년 1월 앤트로픽의 공동 창업자이자 대표인 다리오 아모데이의 "On DeepSeek and Export Controls"아티클을 번역한 것입니다.

저는 전문 번역가가 아니기 때문에 오역이 있을 수 있습니다. 또한 본 글은 원저작자의 요청에 따라 불시에 삭제될 수 있습니다. 감사합니다.

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

0xPlayer 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2026 0xPlayer

-

뉴스레터 문의lowell9195@gmail.com

메일리 로고

도움말 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 송파구 위례광장로 199, 5층 501-8호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스