Về cảnh quan tính toán toàn cầu đang thay đổi
Về cảnh quan tính toán toàn cầu đang thay đổi
- 24 min read
Về sự thay đổi của Cảnh quan Tính toán Toàn cầu
Bài viết này thảo luận về sự thay đổi của cảnh quan tính toán toàn cầu, đặc biệt là ảnh hưởng của các chính sách kiểm soát xuất khẩu của Hoa Kỳ đối với sự phát triển công nghệ AI của Trung Quốc.
Tóm tắt
Tình trạng sử dụng chip AI hiện tại, vốn từng gần như hoàn toàn tập trung ở Hoa Kỳ, đang dần thay đổi. Sự tiến bộ vượt bậc của Trung Quốc trong việc phát triển AI mã nguồn mở đã thúc đẩy sự phát triển nhanh chóng của các chip AI nội địa. Trong vài tháng gần đây, các mô hình AI mã nguồn mở có hiệu suất cao tại Trung Quốc bắt đầu được vận hành bởi các chip như Ascend của Huawei và Cambricon, thậm chí một số mô hình còn đang được huấn luyện bằng chip nội địa.
Hai hệ quả lớn đối với các nhà hoạch định chính sách và các nhà nghiên cứu, phát triển AI là: kiểm soát xuất khẩu của Hoa Kỳ tương quan với việc đẩy nhanh sản xuất chip của Trung Quốc, và sự khan hiếm chip ở Trung Quốc có khả năng đã thúc đẩy nhiều đổi mới được mở mã nguồn và định hình sự phát triển AI toàn cầu.
Sự phát triển chip của Trung Quốc có mối tương quan cao với các biện pháp kiểm soát xuất khẩu mạnh mẽ hơn từ Hoa Kỳ. Dưới sự bất ổn về khả năng tiếp cận chip, các công ty Trung Quốc đã đổi mới cả trong sản xuất chip và các tiến bộ thuật toán để tối ưu hiệu quả tính toán trong các mô hình. Vì sự cần thiết, việc giảm phụ thuộc vào NVIDIA đã dẫn đến các triển khai AI toàn diện trong nước, như đã thấy với Alibaba.
Những hạn chế về tính toán có thể đã thúc đẩy những tiến bộ về kiến trúc, cơ sở hạ tầng và huấn luyện. Các đổi mới về hiệu quả tính toán từ các nhà lãnh đạo mã nguồn mở bao gồm việc giới thiệu Bộ nhớ Attention Tách lớp Nhiều đầu (MLA) của DeepSeek và Tối ưu hóa Chính sách Tương đối theo Nhóm (GRPO). Một nền văn hóa cởi mở đã khuyến khích chia sẻ kiến thức và những cải tiến về hiệu quả tính toán đã góp phần giảm chi phí suy luận, thúc đẩy nền kinh tế AI.
Tính đủ dùng của silicon trong nước đã làm dấy lên nhu cầu và các mô hình đang bắt đầu được tối ưu hóa cho các chip nội địa. Song song đó, các nền tảng phần mềm đang dịch chuyển khi các giải pháp thay thế cho CUDA của NVIDIA xuất hiện và thách thức NVIDIA ở mọi cấp độ; sự cộng hưởng giữa các nhà phát triển AI và các nhà cung cấp chip đang tạo ra một hệ sinh thái phần mềm mới, phát triển nhanh chóng.
Sự thay đổi của cảnh quan tính toán toàn cầu sẽ tiếp tục định hình mã nguồn mở, huấn luyện, triển khai và hệ sinh thái AI nói chung.
Hiện trạng Tính toán Toàn cầu
Nhu cầu và tiện ích của các chip AI tiên tiến đã có xu hướng tăng và dự kiến sẽ tiếp tục tăng. Trong vài năm qua, tất cả các chip của NVIDIA đều giữ vững vị thế thống trị. Gần đây, những người chơi mới đang thu hút sự chú ý. Trung Quốc đã có kế hoạch dài hạn cho sản xuất trong nước, với các kế hoạch tự chủ và đầu tư tiền bạc, cơ sở hạ tầng lớn. Hiện tại, thế hệ tiếp theo của các mô hình AI mã nguồn mở của Trung Quốc đã bắt đầu được cung cấp năng lượng bởi các chip của Trung Quốc.
Các xu hướng rộng lớn trên toàn cầu đang ngày càng gay gắt, với cả Hoa Kỳ và Trung Quốc đều viện dẫn an ninh quốc gia trong các biện pháp hạn chế về chip và tài nguyên đất hiếm. Khi các biện pháp kiểm soát xuất khẩu của Hoa Kỳ thắt chặt, việc triển khai các chip do Trung Quốc sản xuất dường như đã tăng tốc. Sự trỗi dậy của ngành công nghiệp chip trong nước của Trung Quốc đang làm thay đổi các chuẩn mực và kỳ vọng đối với việc huấn luyện và triển khai AI toàn cầu, với nhiều mô hình hơn đang được tối ưu hóa cho phần cứng của Trung Quốc và các mô hình mã nguồn mở hiệu quả về tính toán đang ngày càng phổ biến. Trong những tháng gần đây, các chip do Trung Quốc sản xuất đã bắt đầu cung cấp năng lượng cho suy luận của các mô hình phổ biến và bắt đầu hỗ trợ các hoạt động huấn luyện.
Những thay đổi này có thể ảnh hưởng đến mọi thứ, từ các kỹ thuật được sử dụng trong huấn luyện, đến việc tối ưu hóa cả hiệu quả tính toán và phần cứng cụ thể, giảm chi phí suy luận, đến sự bùng nổ mã nguồn mở gần đây. Điều này có thể làm thay đổi cả chính sách thương mại của Hoa Kỳ và cách tiếp cận của Trung Quốc đối với việc triển khai toàn cầu, dẫn đến một tương lai của những tiến bộ AI từ một hệ sinh thái toàn cầu tập trung vào Mỹ sang một hệ sinh thái nơi Trung Quốc là trung tâm.
Khởi đầu của sự tái cấu trúc
Sản xuất chip trong nước của Trung Quốc đã được tiến hành trong nhiều năm trước khi bùng nổ AI hiện đại. Một trong những chip tiên tiến đáng chú ý nhất, Ascend của Huawei, ban đầu ra mắt vào năm 2018 nhưng được mở rộng triển khai bắt đầu từ năm 2024 và ngày càng tăng trong suốt năm 2025. Các chip đáng chú ý khác bao gồm Cambricon Technologies và Kunlun của Baidu.
Năm 2022, chính quyền Biden đã thiết lập các biện pháp kiểm soát xuất khẩu đối với các chip AI tiên tiến, một động thái nhắm vào khả năng tiếp cận các GPU cao cấp của NVIDIA của Trung Quốc. Chiến lược này nhằm mục đích hạn chế nguồn cung cấp GPU NVIDIA hàng đầu, làm chậm tiến độ AI của Trung Quốc. Tuy nhiên, điều bắt đầu như một sự phong tỏa đã nghịch lý trở thành một chất xúc tác. Ý định xây dựng một bức tường thay vào đó đã đặt nền móng cho một ngành công nghiệp đang phát triển.
Các phòng thí nghiệm AI của Trung Quốc, ban đầu được thúc đẩy bởi nỗi sợ bị cắt đứt, đã phản ứng bằng sự gia tăng đổi mới, sản xuất cả các mô hình mã nguồn mở đẳng cấp thế giới như Qwen, DeepSeek, GLM và Kimi, cũng như các chip nội địa ngày càng cung cấp năng lượng cho cả huấn luyện và suy luận cho các mô hình đó. Có một mối quan hệ ngày càng tăng giữa các nhà sản xuất chip và mã nguồn mở, vì khả năng chạy các mô hình mã nguồn mở tại địa phương cũng dẫn đến phản hồi mang lại lợi ích lẫn nhau. Điều này dẫn đến, ví dụ, các mô hình được tối ưu hóa nhiều hơn cho Ascend.
Những tiến bộ của Trung Quốc cả về mã nguồn mở và tính toán đang định hình lại cảnh quan toàn cầu. Martin Casado, đối tác tại a16z, lưu ý rằng một phần đáng kể các startup của Hoa Kỳ hiện đang xây dựng dựa trên các mô hình mã nguồn mở của Trung Quốc, và một phân tích gần đây cho thấy các mô hình mã nguồn mở của Trung Quốc đang dẫn đầu về sự phổ biến trên LMArena.
Khoảng trống được tạo ra bởi các biện pháp hạn chế đã khơi dậy một nỗ lực nội địa toàn diện ở Trung Quốc, biến các nhà sản xuất chip địa phương từng bị gạt sang một bên thành tài sản quốc gia quan trọng và thúc đẩy sự hợp tác mạnh mẽ giữa các nhà sản xuất chip và các nhà nghiên cứu để xây dựng một hệ sinh thái phi-NVIDIA khả thi. Đây không còn là một kịch bản giả định; với những gã khổng lồ như Baidu và Ant Group đã huấn luyện thành công các mô hình nền tảng trên phần cứng nội địa, một cơ sở hạ tầng AI song song đang nhanh chóng hình thành, trực tiếp thách thức lợi thế lớn nhất của NVIDIA: hệ sinh thái phần mềm lấy nhà phát triển làm trung tâm.
Xem Phụ lục để biết dòng thời gian chi tiết về kiểm soát chip và ảnh hưởng đến phát triển và triển khai phần cứng.
Phản ứng: Thúc đẩy AI của Trung Quốc
Lệnh cấm năm 2022, trùng hợp với làn sóng ChatGPT toàn cầu, đã gây ra sự hoảng loạn trên khắp cảnh quan công nghệ của Trung Quốc. Sự mặc định an toàn về tính toán NVIDIA dồi dào đã biến mất. Các tuyên bố về việc buôn lậu chip NVIDIA đã xuất hiện. Tuy nhiên, lệnh cấm đã phá hủy niềm tin từ cộng đồng nghiên cứu, những người, đối mặt với viễn cảnh bị bỏ lại phía sau vĩnh viễn, đã bắt đầu đổi mới vì sự cần thiết. Những gì nổi lên là một triết lý mới, thực dụng, nơi cách tiếp cận “không ưu tiên NVIDIA” trở thành hợp lý, không chỉ đơn thuần là ý thức hệ.
Làm thế nào Cảnh quan Tính toán của Trung Quốc đã xúc tác cho Vụ nổ Tung Của các Mô hình Mã nguồn mở
Các phòng thí nghiệm Trung Quốc đã đi theo một con đường khác, tập trung vào hiệu quả kiến trúc và hợp tác mở. Mã nguồn mở, từng là một mối quan tâm ngách, đã trở thành chuẩn mực mới, một lựa chọn thực dụng để tăng tốc độ tiến bộ một cách nhanh chóng thông qua kiến thức được chia sẻ. Mô hình này cho phép các tổ chức tận dụng các mô hình được huấn luyện trước, chất lượng cao hiện có làm nền tảng cho các ứng dụng chuyên biệt thông qua hậu huấn luyện, giảm đáng kể gánh nặng tính toán. Một ví dụ điển hình là mô hình DeepSeek R1, yêu cầu dưới 300.000 đô la để hậu huấn luyện trên kiến trúc V3 của nó, do đó giảm rào cản cho các công ty phát triển các mô hình tinh vi. Mặc dù không phải là toàn bộ mô hình cơ sở, nhưng việc giảm chi phí cho mô hình suy luận là rất đáng kể. Các tiến bộ thuật toán cải thiện bộ nhớ như Bộ nhớ Attention Tách lớp Nhiều đầu (MLA) với mô hình V3 của DeepSeek, có khả năng được khuyến khích bởi những hạn chế về tính toán, là một phần lớn của “khoảnh khắc DeepSeek” tháng 1 năm 2025.
Khoảnh khắc đó cũng đã thúc đẩy một phong trào lớn hơn cho các công ty Trung Quốc, bao gồm cả những công ty mã nguồn đóng, để thay đổi chiến lược và đầu tư vào các mô hình mã nguồn mở hiệu quả về tính toán. Chi phí thấp hơn của các mô hình này có thể đến từ nhiều biến số và cũng bị ảnh hưởng bởi hiệu quả; khi các công ty Trung Quốc giảm chi phí tính toán và suy luận, họ đã chuyển những chi phí thấp hơn đó cho người dùng, tiếp tục phát triển nền kinh tế AI nói chung.
-
Trọng lượng Mã nguồn mở của DeepSeek: Ngoài hiệu suất cao và chi phí thấp đã tạo nên làn sóng vào đầu năm 2025, việc DeepSeek tiên phong là một phòng thí nghiệm tiền phong hiệu quả về tính toán mở là một phần lớn làm cho công ty và các mô hình của nó trở nên quen thuộc. Những tiến bộ này có thể được cho là do đổi mới trong một môi trường khan hiếm tính toán. Được tài trợ bởi nhà đầu tư Wenfeng Liang với “việc theo đuổi thuần túy mã nguồn mở và AGI”, DeepSeek đã trở thành tổ chức được theo dõi nhiều nhất trên Hugging Face. Các bài báo kỹ thuật chi tiết của nó, bao gồm cả một nghiên cứu đột phá được đăng trên tạp chí Nature về mô hình R1 của nó, đã đặt ra một tiêu chuẩn mới cho giao tiếp khoa học. Mặc dù một sức hút lớn là các trọng lượng mở của nó so với API của nó, vào năm 2024, DeepSeek đã cắt giảm giá API của mình xuống 1/30 so với OpenAI, gây ra cuộc chiến giá cả. Vào năm 2025, DeepSeek-OCR đã chứng minh thêm năng lực của họ về hiệu quả tính toán và với việc phát hành DeepSeek-V3.2-Exp, họ đã giảm thêm hơn 50% chiết khấu cho người dùng. Đáng chú ý, mô hình DeepSeek-V3.2-Exp cũng đã được phát hành với hỗ trợ ngày đầu tiên để triển khai trên chip Trung Quốc (Huawei Ascend và Cambricon). Việc phát hành này cũng đánh dấu sự nhấn mạnh vào các giải pháp thay thế CUDA và minh họa cho một cơ sở hạ tầng AI phần cứng-phần mềm toàn diện trong triển khai.
-
Sự thống trị của Hệ sinh thái Qwen: Alibaba đang trên đà kiểm soát một ngăn xếp đầy đủ các mô hình hiệu suất cao và chip được thiết kế riêng, giảm sự phụ thuộc vào NVIDIA. Gia đình Qwen của công ty đã trở thành một nguồn chính cho nghiên cứu mã nguồn mở toàn cầu. Giấy phép Apache 2.0 dễ dãi của nó cho phép sử dụng thương mại, đây là một rào cản đối với các mô hình tương tự thường sử dụng giấy phép tùy chỉnh hạn chế hơn, dẫn đến hơn 100.000 mô hình phái sinh trên Hugging Face. Alibaba gần đây đã công bố các chip được cải thiện để suy luận tốt hơn, với PPU của nó được tích hợp vào các dự án cơ sở hạ tầng trong nước.
-
Làn sóng Toàn Ngành về Chi phí Thấp, Hiệu quả Cao: Nhiều mô hình mã nguồn mở hơn đã được phát hành với hiệu suất SotA với mức giá thấp hơn đáng kể. Zhipu AI đã quay trở lại với các bản phát hành mã nguồn mở GLM-4.5 và 4.6, cả hai đều nhanh chóng lọt vào top xu hướng trên Hugging Face và 4.6 trở thành mô hình mã nguồn mở hiệu suất cao nhất trên LMArena. Giá API của GLM liên tục giảm, tự hào về khả năng tiết kiệm chi phí, thậm chí cung cấp gói 3 đô la/tháng như một giải pháp thay thế cho Claude Code với giá bằng 1/5. Mặc dù tính minh bạch đầy đủ về các quyết định giá cả là không rõ ràng, hiệu quả có vẻ đóng vai trò quan trọng.
-
Hạt giống Huấn luyện Hoàn toàn trên Chip Nội địa: Mặc dù nhiều chip sắp ra mắt chủ yếu được thiết kế cho suy luận, nhưng nhiều mô hình hơn đang ám chỉ việc được huấn luyện trên chip nội địa. Ant Group đã tiên phong trong việc huấn luyện mô hình Ling của mình trên các cụm chip NVIDIA, Ascend và Cambricon không đồng nhất phức tạp. Baidu đã thực hiện thành công việc huấn luyện liên tục trên một cụm hơn 5.000 bộ tăng tốc Kunlun P800 nội địa, sản xuất mô hình Qianfan VL của mình.
Tiến bộ trong Môi trường Hạn chế Tính toán Đẩy Ranh giới Kỹ thuật
Sự đổi mới không chỉ giới hạn ở trọng lượng mô hình; nó đi sâu vào ngăn xếp phần mềm và phần cứng.
-
Khám phá Kiến trúc: Các nhà nghiên cứu độc lập từ cơ sở như Peng Bo, đã ủng hộ Attention Tuyến tính như một người kế nhiệm tiềm năng cho Transformer. Cách tiếp cận này, đôi khi được gọi là “sự trả thù của RNN” và thấy trong các mô hình như RWKV, đã được mở rộng thành các mô hình cấp thương mại như MiniMax M1 và Qwen-Next bởi các phòng thí nghiệm Trung Quốc, những người sẵn sàng đặt cược vào nghiên cứu có rủi ro cao, phần thưởng cao. Trong khi đó, DeepSeek đã đi theo một con đường khác bằng cách lặp lại kiến trúc Transformer gốc. Công việc của họ giới thiệu các đổi mới như Bộ nhớ Attention Tách lớp Nhiều đầu (MLA) và DeepSeek Sparse Attention (DSA) được giới thiệu với mô hình v3.2 của nó, được thiết kế để giảm đáng kể chi phí tính toán trong quá trình suy luận mà không ảnh hưởng đến hiệu suất, đồng thời cũng tăng tốc khám phá Học tăng cường (RL) thông qua các lần triển khai nhanh hơn. Các kiến trúc mô hình độc quyền hiệu suất cao không công khai và do đó khó so sánh.
-
Cơ sở hạ tầng Mở: Trong một sự thay đổi triệt để khỏi bí mật của doanh nghiệp, các phòng thí nghiệm đã chia sẻ những bí mật kỹ thuật sâu sắc nhất của họ. Công việc của nhóm Kimi trên hệ thống phục vụ Mooncake đã chính thức hóa việc tách biệt tiền cung cấp/giải mã. StepFun’s Step3 đã cải thiện điều này với Attention-FFN Disaggregation (AFD). Baidu đã công bố các báo cáo kỹ thuật chi tiết về việc vượt qua các thách thức kỹ thuật trong quá trình huấn luyện Ernie 4, trong khi Volcengine của ByteDance đóng góp verl, một thư viện mã nguồn mở cung cấp các công cụ huấn luyện RL cấp sản xuất cho cộng đồng. Những gì từng là bí quyết độc quyền đã trở thành kiến thức cộng đồng, thúc đẩy một vòng quay tiến bộ tự lặp.
-
Đột phá Huấn luyện: Bài báo DeepSeekMath của DeepSeek đã giới thiệu một phương pháp học tăng cường (RL) mới lạ, Tối ưu hóa Chính sách Tương đối theo Nhóm (GRPO), giảm đáng kể chi phí tính toán so với các phương pháp tương tự trước đó là Tối ưu hóa Chính sách Gần đúng (PPO) trong khi ổn định huấn luyện và thậm chí đạt được độ chính xác cao hơn. GRPO kể từ đó đã được giới thiệu trong một khóa học DeepLearning.AI, được các nhà nghiên cứu Meta xây dựng dựa trên trong Mô hình Thế giới Mã của họ, và được Giám đốc Nghiên cứu OpenAI Jerry Tworek ca ngợi là đã “tăng tốc mạnh mẽ chương trình nghiên cứu RL của hầu hết các phòng thí nghiệm nghiên cứu của Hoa Kỳ”.
Với tất cả các công việc được tổng hợp, trên các bảng xếp hạng công khai như Chatbot Arena của LMSYS, các mô hình như DeepSeek R1, Kimi K2, Qwen và GLM-4.6 hiện thường xuất hiện ở vị trí cao cùng với các mô hình của Hoa Kỳ. Đổi mới dưới áp lực đã dẫn đến những bước nhảy vọt.
Hậu quả: Phần cứng, Phần mềm và Sức mạnh Mềm
Khi các mô hình AI được huấn luyện và triển khai, chúng thường được tối ưu hóa cho các loại chip nhất định. Hơn cả phần cứng, vũ trụ phần mềm của NVIDIA đã là một người bạn đáng tin cậy của hệ sinh thái AI toàn cầu.
Cuộc cách mạng học sâu, được châm ngòi bởi chiến thắng của AlexNet trên GPU NVIDIA năm 2012, đã tạo ra mối quan hệ cộng sinh. Kiến trúc Thiết bị Hợp nhất Tính toán (CUDA) của NVIDIA, cuDNN và Thư viện Giao tiếp Tập thể (NCCL) từ lâu đã hình thành nền tảng của nghiên cứu AI. Một hệ sinh thái hoàn chỉnh, bao gồm các framework phổ biến như PyTorch và Hugging Face transformers đã được tối ưu hóa nặng trên CUDA. Một thế hệ nhà phát triển toàn diện đã trưởng thành trong hệ sinh thái này, tạo ra chi phí chuyển đổi khổng lồ.
Một hệ sinh thái phần mềm miễn cưỡng chuyển đổi khỏi các nền tảng hiện có hiện đang khám phá ở những nơi khác, đây có thể là bước đầu tiên ra khỏi sự phụ thuộc của Hoa Kỳ. Phía phần mềm đã phát triển với sự trỗi dậy của các chip mới; các nhà phát triển đang tối ưu hóa và triển khai các mô hình mới nhất của họ trên các nền tảng song song mới.
Từ Đủ dùng đến Nhu cầu Cao
Trước năm 2022, các chip nội địa từ các công ty như Cambricon và Huawei (Ascend) hiếm khi được coi trọng một cách nghiêm túc. Chúng đã được đưa vào trung tâm của hệ sinh thái AI nội địa vào năm 2025 khi SiliconFlow lần đầu tiên chứng minh mô hình R1 của DeepSeek chạy liền mạch trên đám mây Ascend của Huawei chỉ vài tuần sau khi R1 ra mắt. Điều này đã tạo ra hiệu ứng domino, thúc đẩy một cuộc đua trên toàn thị trường để phục vụ các mô hình nội địa nhanh hơn và tốt hơn trên các chip nội địa. Được thúc đẩy bởi toàn bộ hệ sinh thái chứ không chỉ riêng DeepSeek, ma trận hỗ trợ của Ascend đã nhanh chóng mở rộng. Điều này chứng tỏ silicon nội địa là đủ dùng và khơi dậy nhu cầu lớn. Đáng chú ý, Ascend của Huawei có tích hợp ngày đầu tiên với việc phát hành DeepSeek v3.2 – một mức độ hợp tác chưa từng tưởng tượng được trước đây.
Cộng hưởng Nội địa
Các nhà nghiên cứu bắt đầu cùng phát triển với các nhà cung cấp chip nội địa, cung cấp đầu vào trực tiếp và giải quyết các vấn đề một cách hợp tác. Sự cộng hưởng này tạo ra một hệ sinh thái phát triển được tùy chỉnh cho các Mô hình Ngôn ngữ Lớn (LLM) phát triển nhanh hơn nhiều so với CUDA của NVIDIA.
Một thế hệ các nhà nghiên cứu trẻ hơn, được đào tạo trong thế giới đa nhà cung cấp này, đã xuất hiện mà không có những định kiến cũ cho rằng phần cứng nội địa kém hơn chip Nvidia. Cách tiếp cận hợp tác này đã mang lại kết quả hấp thụ. Tài liệu cho mô hình DeepSeek-V3.1 ghi nhận rằng định dạng chính xác FP8 mới của nó rõ ràng nhắm mục tiêu “cho chip nội địa thế hệ tiếp theo”, một ví dụ rõ ràng về thiết kế đồng thời mô hình nhận biết phần cứng. Người kế nhiệm của nó, DeepSeek-V3.2, đã đưa nguyên tắc này đi xa hơn bằng cách tích hợp các kernel dựa trên TileLang được thiết kế để di chuyển trên nhiều nhà cung cấp phần cứng.
Cảnh quan Phần mềm Mới
Hệ sinh thái CUDA hiện đang bị thách thức ở mọi lớp. Các dự án mã nguồn mở như FlagGems từ BAAI và TileLang đang tạo ra các giải pháp thay thế trung lập về backend cho CUDA và cuDNN. Các ngăn xếp giao tiếp như Thư viện Giao tiếp Tập thể của Huawei (HCCL) và các giải pháp khác đang cung cấp các giải pháp thay thế mạnh mẽ cho NCCL. Hệ sinh thái khác biệt đáng kể so với ba năm trước, điều này sẽ có những tiếng vang trong tương lai trên toàn cầu.
Nhìn về phía trước
Các điều chỉnh đối với các cuộc đàm phán địa chính trị, hạn chế tài nguyên và sở thích văn hóa đã dẫn đến những bước nhảy vọt trong cả sự phát triển AI hiệu suất cao của Trung Quốc và giờ là các chip nội địa cạnh tranh. Chính sách của Hoa Kỳ đã thay đổi qua các chính quyền, từ cấm đoán đến mô hình chia sẻ doanh thu, trong khi Trung Quốc phản ứng bằng sự kết hợp giữa chính sách công nghiệp và luật thương mại quốc tế. Các nhà nghiên cứu và nhà phát triển đã đổi mới và điều chỉnh. Ảnh hưởng đến mã nguồn mở, huấn luyện và triển khai cho thấy sự dịch chuyển trong các phụ thuộc phần mềm, các đổi mới về hiệu quả tính toán định hình sự phát triển trên toàn cầu và một hệ sinh thái AI tự cung tự cấp của Trung Quốc.
Hệ sinh thái AI nội địa của Trung Quốc đang tăng tốc, với các công ty như Moore Threads, MetaX và Biren đang chạy đua để niêm yết công khai. Cambricon, từng gặp khó khăn, đã chứng kiến sự tăng vọt về định giá. Sự mở rộng của hệ sinh thái chip mới này ra toàn cầu vẫn chưa được quyết định.
Tương lai của hệ sinh thái chip toàn cầu, và do đó tương lai của tiến bộ AI, đã trở thành một mục quan trọng cho các cuộc thảo luận lãnh đạo sắp tới. Câu hỏi không còn là liệu Trung Quốc có thể xây dựng hệ sinh thái của riêng mình hay không, mà là nó sẽ đi xa đến đâu.
Lời cảm ơn
Xin cảm ơn Adina Yakefu, Nathan Lambert, Matt Sheehan và Scott Singer vì phản hồi của họ về các bản nháp trước đó. Mọi sai sót vẫn là trách nhiệm của tác giả.
Phụ lục A: Dòng thời gian Sử dụng Chip và Kiểm soát
Trước năm 2022, các biện pháp hạn chế của Hoa Kỳ nhắm mục tiêu vào các thực thể siêu máy tính cụ thể. Chính sách sau đó đã phát triển khi các nhà quản lý và ngành công nghiệp thích ứng.
-
Những Động thái Ban đầu (Tháng 10 năm 2022):
- Các chip như Ascend còn non trẻ trong khi NVIDIA thống trị thị trường toàn cầu và Trung Quốc.
- Cục Công nghiệp và An ninh (BIS) thuộc Bộ Thương mại đã ban hành các quy định “máy tính tiên tiến” nhằm giải quyết các mối quan ngại về an ninh quốc gia và chính sách đối ngoại của Hoa Kỳ. Quy tắc này đã thiết lập một ngưỡng tính toán với một kích hoạt băng thông kết nối, ngay lập tức cắt đứt quyền tiếp cận của Trung Quốc đối với các GPU hàng đầu A100 và H100 của NVIDIA. Trung Quốc đã nhanh chóng đệ trình một tranh chấp WTO (DS615), cho rằng các biện pháp này là rào cản thương mại mang tính phân biệt đối xử.
-
Thời kỳ Điều chỉnh (Cuối năm 2022–2023):
- Thị phần 95% của NVIDIA tại Trung Quốc bắt đầu giảm nhanh chóng.
- NVIDIA bắt đầu phát triển các biến thể tuân thủ cho thị trường Trung Quốc. A800 (Tháng 11 năm 2022) và H800 (Tháng 3 năm 2023) được tạo ra với băng thông chip-to-chip giảm để đáp ứng các yêu cầu pháp lý và phục vụ như các giải pháp thay thế cho A100 và H100. GPU tiêu dùng cực kỳ phổ biến RTX 4090 cũng bị hạn chế, dẫn đến việc tạo ra RTX 4090D dành riêng cho Trung Quốc.
-
Thu hẹp Khoảng cách (Cuối năm 2023–2024):
- Hiệu suất của các chip nội địa Trung Quốc dần được cải thiện.
- BIS đã nâng cấp toàn diện khung pháp lý. BIS đã loại bỏ băng thông kết nối làm bài kiểm tra chính và giới thiệu các chỉ số mới: Tổng Hiệu suất Xử lý (TPP) và mật độ hiệu suất. Đây là một đòn tấn công trực tiếp, thành công chống lại A800/H800. Các cuộc tranh luận mở rộng về kiểm soát xuất khẩu đối với H20 và thậm chí cả trọng lượng mô hình.
-
Thay đổi Câu chuyện (2025):
- Việc áp dụng Ascend, Cambricon và Kunlun tăng mạnh sau “khoảnh khắc DeepSeek” tháng 1.
- Cũng vào tháng 1, chính quyền Biden đã thiết lập Quy tắc Khuếch tán AI của mình, áp đặt thêm các biện pháp hạn chế đối với cả chip và các trọng lượng mô hình được chọn trong bối cảnh các mối quan ngại về an ninh và buôn lậu. Để đáp lại, NVIDIA đã thiết kế một chip tuân thủ mới, H20. Tận dụng sự hiện diện ngày càng tăng của NVIDIA trong các lĩnh vực chính trị, CEO NVIDIA Jensen Huang bắt đầu giải thích công khai tầm quan trọng chiến lược của việc bán chip Hoa Kỳ trên toàn thế giới. Sau đó, Hoa Kỳ đã ban hành yêu cầu cấp phép vào tháng 4 năm 2025, tính phí NVIDIA 5,5 tỷ đô la và về cơ bản ngừng bán hàng, trước khi hủy bỏ Quy tắc Khuếch tán AI vào tháng 5 năm 2025.
-
Thỏa hiệp (Tháng 8 năm 2025):
- Alibaba công bố một chip mới cho suy luận.
- Sau các cuộc đàm phán căng thẳng, Bộ Thương mại đã bắt đầu cấp phép cho H20 với thỏa thuận chia sẻ doanh thu chưa từng có là 15%. Nhưng đến khi H20 được gỡ bỏ lệnh cấm, thị trường đã bắt đầu thay đổi.
-
Phản ứng của Trung Quốc (Cuối năm 2025):
- Triển khai ngày đầu tiên bắt đầu cho Ascend và Cambricon trong các mô hình DeepSeek mới.
- Khi Hoa Kỳ chuyển sang mô hình chia sẻ doanh thu, Bắc Kinh đã phản ứng. Các cơ quan quản lý Trung Quốc được cho là đã hướng dẫn các công ty hủy đơn đặt hàng NVIDIA, chuyển hướng nhu cầu sang các bộ tăng tốc nội địa theo một câu chuyện “cung cấp an toàn tại nhà”. Điều này tiếp theo là một cuộc điều tra chống phân biệt đối xử đối với các biện pháp của Hoa Kỳ và một cuộc điều tra chống bán phá giá đối với các IC tương tự của Hoa Kỳ, tập trung chip vào các cuộc đàm phán lãnh đạo trong tương lai.
Link bài viết gốc
- Tags:
- Ai
- 12 Ngày Trước
- Huggingface.co