Lập kế hoạch trung tâm dữ liệu AI chiến lược của Microsoft cho phép triển khai NVIDIA Rubin liền mạch, quy mô lớn

CES 2026 giới thiệu nền tảng NVIDIA Rubin, cùng với sự sẵn sàng đã được chứng minh của Azure cho việc triển khai.

  • 9 min read
Lập kế hoạch trung tâm dữ liệu AI chiến lược của Microsoft cho phép triển khai NVIDIA Rubin liền mạch, quy mô lớn
CES 2026 giới thiệu nền tảng NVIDIA Rubin, cùng với sự sẵn sàng đã được chứng minh của Azure cho việc triển khai.

Lập kế hoạch chiến lược trung tâm dữ liệu AI của Microsoft cho phép triển khai liền mạch, quy mô lớn hệ thống NVIDIA Rubin

CES 2026 giới thiệu nền tảng NVIDIA Rubin mới, cùng với sự sẵn sàng đã được chứng minh của Azure cho việc triển khai. Chiến lược trung tâm dữ liệu dài hạn của Microsoft được thiết kế cho những khoảnh khắc như thế này, nơi các hệ thống thế hệ tiếp theo của NVIDIA phù hợp trực tiếp vào cơ sở hạ tầng đã dự đoán trước các yêu cầu về năng lượng, nhiệt, bộ nhớ và mạng của chúng từ nhiều năm trước ngành. Sự hợp tác lâu dài của chúng tôi với NVIDIA đảm bảo Rubin phù hợp trực tiếp với thiết kế nền tảng tương lai của Azure.

Tìm hiểu thêm về cơ sở hạ tầng AI của Azure

Xây dựng với mục đích cho tương lai

Các trung tâm dữ liệu AI của Azure được thiết kế cho tương lai của tính toán tăng tốc. Điều đó cho phép tích hợp liền mạch các rack NVIDIA Vera Rubin NVL72 trên các siêu nhà máy AI thế hệ tiếp theo lớn nhất của Azure, từ các địa điểm Fairwater hiện tại ở Wisconsin và Atlanta đến các địa điểm trong tương lai.

Cơ sở hạ tầng AI mới nhất của NVIDIA đòi hỏi nâng cấp đáng kể về năng lượng, làm mát và tối ưu hóa hiệu suất; tuy nhiên, kinh nghiệm của Azure với các địa điểm Fairwater của chúng tôi và nhiều chu kỳ nâng cấp trong những năm qua cho thấy khả năng nâng cao và mở rộng cơ sở hạ tầng AI một cách linh hoạt theo sự tiến bộ của công nghệ.

Kinh nghiệm đã được chứng minh của Azure trong việc cung cấp quy mô và hiệu suất

Microsoft có nhiều năm kinh nghiệm được thị trường chứng minh trong việc thiết kế và triển khai cơ sở hạ tầng AI có khả năng mở rộng, phát triển cùng với mọi tiến bộ lớn của công nghệ AI. Song song với từng thế hệ tiếp theo của cơ sở hạ tầng tính toán tăng tốc của NVIDIA, Microsoft nhanh chóng tích hợp các đổi mới của NVIDIA và cung cấp chúng ở quy mô lớn. Việc triển khai quy mô lớn sớm của chúng tôi về GPU NVIDIA Ampere và Hopper, được kết nối thông qua mạng InfiniBand NVIDIA Quantum-2, rất quan trọng trong việc mang lại các mô hình như GPT-3.5 vào cuộc sống, trong khi các cụm khác đã thiết lập các kỷ lục hiệu suất siêu máy tính, cho thấy chúng tôi có thể đưa các hệ thống thế hệ tiếp theo hoạt động nhanh hơn và với hiệu suất thực tế cao hơn so với phần còn lại của ngành.

Chúng tôi đã ra mắt các triển khai thương mại đầu tiên và lớn nhất của cả nền tảng NVIDIA GB200 NVL72 và NVIDIA GB300 NVL72, được thiết kế như các rack thành một siêu máy tính duy nhất giúp đào tạo các mô hình AI nhanh hơn đáng kể, giúp Azure tiếp tục là lựa chọn hàng đầu cho khách hàng tìm kiếm khả năng AI tiên tiến.

Cách tiếp cận hệ thống của Azure

Azure được thiết kế cho tính toán, mạng, lưu trữ, phần mềm và cơ sở hạ tầng hoạt động cùng nhau như một nền tảng tích hợp. Đây là cách Microsoft xây dựng lợi thế bền vững vào Azure và mang lại những đột phá về chi phí và hiệu suất tăng dần theo thời gian.

Việc tối đa hóa việc sử dụng GPU đòi hỏi sự tối ưu hóa trên mọi lớp. Ngoài khả năng Azure áp dụng các nền tảng tính toán tăng tốc mới của NVIDIA sớm, lợi thế của Azure đến từ nền tảng xung quanh: lưu trữ Blob thông lượng cao, thiết kế vị trí gần và quy mô khu vực được định hình bởi các mẫu sản xuất thực tế, và các lớp điều phối như CycleCloud và AKS được tinh chỉnh để lập lịch có chi phí thấp ở quy mô cụm lớn.

Azure Boost và các công cụ offload khác loại bỏ các tắc nghẽn I/O, mạng và lưu trữ để các mô hình có thể mở rộng mượt mà. Lưu trữ nhanh hơn cung cấp năng lượng cho các cụm lớn hơn, mạng mạnh hơn duy trì chúng, và điều phối tối ưu hóa giữ cho hiệu suất đầu cuối ổn định. Các đổi mới nội bộ củng cố vòng lặp: Bộ trao đổi nhiệt làm mát bằng chất lỏng duy trì nhiệt độ chặt chẽ, silicon Azure Hardware Security Module (HSM) thực hiện công việc bảo mật và Azure Cobalt cung cấp hiệu suất và hiệu quả đặc biệt cho các tác vụ máy tính đa năng và các tác vụ liên quan đến AI. Cùng nhau, các tích hợp này đảm bảo toàn bộ hệ thống mở rộng hiệu quả, vì vậy các khoản đầu tư vào GPU mang lại giá trị tối đa.

Cách tiếp cận hệ thống này là những gì làm cho Azure sẵn sàng cho nền tảng Rubin. Chúng tôi đang cung cấp các hệ thống mới và thiết lập một nền tảng đầu cuối đã được định hình bởi các yêu cầu mà Rubin mang lại.

Vận hành nền tảng NVIDIA Rubin

NVIDIA Vera Rubin Superchips sẽ cung cấp hiệu suất suy luận NVFP4 50 PF trên mỗi chip và 3.6 EF NVFP4 trên mỗi rack, một bước nhảy vọt gấp 5 lần so với hệ thống rack NVIDIA GB200 NVL72. Azure đã tích hợp các giả định kiến trúc cốt lõi mà Rubin yêu cầu:

  • Tiến hóa NVIDIA NVLink: Fabric NVIDIA NVLink thế hệ thứ sáu dự kiến trong hệ thống Vera Rubin NVL72 sẽ đạt băng thông mở rộng quy mô ~260 TB/s và kiến trúc rack của Azure đã được thiết kế lại để hoạt động với những lợi thế về băng thông và cấu trúc liên kết đó.
  • Mạng quy mô lớn hiệu suất cao: Cơ sở hạ tầng AI Rubin dựa vào mạng NVIDIA ConnectX-9 1.600 Gb/s siêu nhanh, được cung cấp bởi cơ sở hạ tầng mạng của Azure, vốn được xây dựng chuyên dụng để hỗ trợ các khối lượng công việc AI quy mô lớn.
  • Lập kế hoạch nhiệt và mật độ HBM4/HBM4e: Gói bộ nhớ Rubin đòi hỏi các cửa sổ nhiệt chặt chẽ hơn và mật độ rack cao hơn; hệ thống làm mát, vỏ năng lượng và hình học rack của Azure đã được nâng cấp để xử lý các ràng buộc tương tự.
  • Mở rộng bộ nhớ dựa trên SOCAMM2: Superchips Rubin sử dụng kiến trúc mở rộng bộ nhớ mới; nền tảng của Azure đã tích hợp và xác thực các hành vi mở rộng bộ nhớ tương tự để giữ cho các mô hình được cung cấp ở quy mô lớn.
  • Mở rộng GPU kích thước đĩa và đóng gói nhiều chip: Rubin chuyển sang các footprint GPU lớn hơn nhiều và bố cục nhiều chip. Chuỗi cung ứng, thiết kế cơ khí và các lớp điều phối của Azure đã được điều chỉnh trước cho các đặc điểm vật lý và logic của việc mở rộng quy mô này.

Cách tiếp cận của Azure trong việc thiết kế các nền tảng tính toán tăng tốc thế hệ tiếp theo như Rubin đã được chứng minh qua nhiều năm, bao gồm các cột mốc quan trọng:

  • Vận hành các triển khai InfiniBand thương mại lớn nhất thế giới trên nhiều thế hệ GPU.
  • Xây dựng các lớp độ tin cậy và kỹ thuật quản lý tắc nghẽn giúp mở khóa việc sử dụng cụm cao hơn và kích thước công việc lớn hơn so với đối thủ cạnh tranh, điều này được phản ánh trong khả năng của chúng tôi xuất bản các chứng chỉ hiệu suất hàng đầu quy mô lớn trong ngành. (Ví dụ: các lần chạy MLPerf đa rack mà đối thủ cạnh tranh chưa bao giờ sao chép.)
  • Các trung tâm dữ liệu AI được thiết kế đồng thời với Grace Blackwell và Vera Rubin từ đầu để tối đa hóa hiệu suất và hiệu suất trên mỗi đô la ở cấp độ cụm.

Nguyên tắc thiết kế tạo nên sự khác biệt cho Azure

  • Kiến trúc trao đổi Pod: Để cho phép bảo trì nhanh chóng, các khay máy chủ GPU của Azure được thiết kế để có thể hoán đổi nhanh chóng mà không yêu cầu đấu dây lại nhiều, giúp cải thiện thời gian hoạt động.
  • Lớp trừu tượng hóa làm mát: Các thành phần đa chip, băng thông cao của Rubin yêu cầu khoảng không nhiệt phức tạp mà Fairwater đã đáp ứng, tránh các chu kỳ sửa đổi tốn kém.
  • Thiết kế năng lượng thế hệ tiếp theo: Nhu cầu về mật độ watt ngày càng tăng của Vera Rubin NVL72; thiết kế lại năng lượng nhiều năm của Azure (các sửa đổi vòng làm mát bằng chất lỏng, mở rộng quy mô CDU và các thanh bus cao ampe) đảm bảo khả năng triển khai ngay lập tức.
  • Tính mô-đun của siêu nhà máy AI: Microsoft, không giống như các nhà khai thác trung tâm dữ liệu khác, xây dựng các siêu máy tính theo khu vực thay vì các siêu địa điểm đơn lẻ, cho phép triển khai toàn cầu có thể dự đoán được các SKU mới.

Cách thiết kế đồng thời dẫn đến lợi ích cho người dùng

Nền tảng NVIDIA Rubin đánh dấu một bước tiến lớn trong tính toán tăng tốc và các trung tâm dữ liệu AI cũng như siêu nhà máy của Azure đã được thiết kế sẵn để tận dụng tối đa. Nhiều năm thiết kế đồng thời với NVIDIA trên các hệ thống kết nối, hệ thống bộ nhớ, nhiệt, đóng gói và kiến trúc quy mô rack có nghĩa là Rubin tích hợp trực tiếp vào nền tảng của Azure mà không cần làm lại. Các giả định cốt lõi của Rubin đã được phản ánh trong thiết kế mạng, năng lượng, làm mát, điều phối và trao đổi pod của chúng tôi. Sự liên kết này mang lại lợi ích tức thì cho khách hàng với việc triển khai nhanh hơn, mở rộng quy mô nhanh hơn và tác động nhanh hơn khi họ xây dựng kỷ nguyên AI quy mô lớn tiếp theo.


CES 2026 giới thiệu nền tảng NVIDIA Rubin, cùng với sự sẵn sàng đã được chứng minh của Azure cho việc triển khai.

Recommended for You

Cập nhật Azure cho đối tác- tháng 12 năm 2025

Cập nhật Azure cho đối tác- tháng 12 năm 2025

Các tổ chức dẫn đầu về AI coi đó là nền tảng. Họ suy nghĩ lại các quy trình và tích hợp các công nghệ mới ngay từ đầu để cải thiện hiệu quả.

Giới thiệu GPT-5.2 trong Microsoft Foundry- Tiêu chuẩn mới cho AI doanh nghiệp

Giới thiệu GPT-5.2 trong Microsoft Foundry- Tiêu chuẩn mới cho AI doanh nghiệp

Khám phá GPT‑5.2 trong Microsoft Foundry—tiêu chuẩn tiếp theo cho AI doanh nghiệp. Tìm hiểu cách các tính năng suy luận nâng cao, thực thi tác tử và sẵn sàng tuân thủ trao quyền cho các nhà phát triển và lãnh đạo kỹ thuật.