Vượt ra ngoài ranh giới- Tương lai của Azure Storage vào năm 2026

2025 là một năm bản lề trong Azure Storage và chúng ta đang hướng tới năm 2026 với trọng tâm rõ ràng là giúp khách hàng biến AI thành tác động thực sự.

  • 11 min read
Vượt ra ngoài ranh giới- Tương lai của Azure Storage vào năm 2026
2025 là một năm bản lề trong Azure Storage và chúng ta đang hướng tới năm 2026 với trọng tâm rõ ràng là giúp khách hàng biến AI thành tác động thực sự.

Azure Storage 2026: Sẵn sàng cho quy mô agentic và các ứng dụng Cloud-Native

Năm 2025 là một năm bản lề đối với Azure Storage và chúng ta bước vào năm 2026 với trọng tâm rõ ràng là giúp khách hàng biến AI thành tác động thực tế. Như đã nêu trong bài viết “Azure Storage innovations: Unlocking the future of data” vào tháng 12 năm ngoái, Azure Storage đang phát triển thành một nền tảng thông minh thống nhất, hỗ trợ toàn bộ vòng đời AI ở quy mô doanh nghiệp với hiệu suất mà các khối lượng công việc hiện đại yêu cầu.

Khi hướng tới năm 2026, các khoản đầu tư của chúng tôi trải dài toàn bộ vòng đời đó, vì AI đang trở thành nền tảng trong mọi ngành. Chúng tôi đang nâng cao hiệu suất lưu trữ cho việc đào tạo các mô hình tiên tiến, cung cấp các giải pháp chuyên dụng cho suy luận AI quy mô lớn và các ứng dụng agentic mới nổi, đồng thời trao quyền cho các ứng dụng cloud-native hoạt động ở quy mô agentic. Song song đó, chúng tôi đang đơn giản hóa việc áp dụng cho các khối lượng công việc quan trọng, giảm TCO và tăng cường hợp tác để cùng với khách hàng xây dựng các giải pháp được tối ưu hóa cho AI.

Chúng tôi biết ơn sự tin tưởng và hợp tác của khách hàng và đối tác, đồng thời rất hào hứng được cùng nhau định hình chương tiếp theo của Azure Storage trong năm tới.

Các khối lượng công việc AI trải dài từ đào tạo mô hình lớn, tập trung đến suy luận ở quy mô lớn, nơi các mô hình được áp dụng liên tục trên các sản phẩm, quy trình làm việc và ra quyết định trong thế giới thực. Đào tạo LLM tiếp tục chạy trên Azure, và chúng tôi đang đầu tư để đi trước đón đầu bằng cách mở rộng quy mô, cải thiện thông lượng và tối ưu hóa cách các tệp mô hình, checkpoint và tập dữ liệu đào tạo chảy qua bộ nhớ lưu trữ.

Các đổi mới đã giúp OpenAI hoạt động ở quy mô chưa từng có hiện đã có sẵn cho tất cả các doanh nghiệp. Blob scaled accounts cho phép lưu trữ mở rộng trên hàng trăm đơn vị tỷ lệ trong một khu vực, xử lý hàng triệu đối tượng cần thiết để cho phép dữ liệu doanh nghiệp được sử dụng làm tập dữ liệu đào tạo và tinh chỉnh cho AI ứng dụng. Sự hợp tác của chúng tôi với NVIDIA DGX trên Azure cho thấy quy mô dịch thành suy luận thực tế. DGX cloud được đồng thiết kế để chạy trên Azure, kết hợp tính toán tăng tốc với lưu trữ hiệu suất cao, Azure Managed Lustre (AMLFS), để hỗ trợ các ứng dụng nghiên cứu LLM, ô tô và robot. AMLFS cung cấp hiệu suất giá tốt nhất để giữ cho cụm GPU hoạt động liên tục. Chúng tôi gần đây đã phát hành bản xem trước hỗ trợ cho không gian tên 25 PiB và thông lượng lên tới 512 GBps, làm cho AMLFS trở thành triển khai Lustre được quản lý tốt nhất trong phân khúc trên Cloud.

Khi chúng tôi nhìn về phía trước, chúng tôi đang tăng cường tích hợp trên các framework AI phổ biến của bên thứ nhất và bên thứ ba như Microsoft Foundry, Ray, Anyscale và LangChain, cho phép kết nối liền mạch với Azure Storage ngay lập tức. Tích hợp Azure Blob Storage gốc trong Foundry của chúng tôi cho phép hợp nhất dữ liệu doanh nghiệp vào Foundry IQ, làm cho blob storage trở thành lớp nền tảng để xác định kiến thức doanh nghiệp, tinh chỉnh mô hình và phục vụ ngữ cảnh độ trễ thấp cho suy luận, tất cả đều nằm trong phạm vi kiểm soát bảo mật và quản trị của tenant.

Từ đào tạo đến suy luận quy mô đầy đủ, Azure Storage hỗ trợ toàn bộ vòng đời agent: từ phân phối các tệp mô hình lớn một cách hiệu quả, lưu trữ và truy xuất ngữ cảnh tồn tại lâu dài, đến phục vụ dữ liệu từ các kho vector RAG. Bằng cách tối ưu hóa cho từng mẫu từ đầu đến cuối, Azure Storage có các giải pháp hiệu suất cho mọi giai đoạn suy luận AI.

Khi suy luận trở thành khối lượng công việc AI chiếm ưu thế, các agent tự động đang định hình lại cách các ứng dụng cloud-native tương tác với dữ liệu. Không giống như các hệ thống do con người điều khiển với các mẫu truy vấn có thể dự đoán được, các agent hoạt động liên tục, đưa ra số lượng truy vấn gấp hàng nghìn lần so với người dùng truyền thống. Sự gia tăng về đồng thời này gây áp lực lên các lớp cơ sở dữ liệu và lưu trữ, buộc các doanh nghiệp phải suy nghĩ lại cách họ kiến trúc các ứng dụng cloud-native mới.

Azure Storage đang được xây dựng cùng với các lãnh đạo SaaS như ServiceNow, DatabricksElastic để tối ưu hóa cho quy mô agentic, tận dụng danh mục lưu trữ khối của chúng tôi. Hướng tới tương lai, Elastic SAN trở thành một khối xây dựng cốt lõi cho các khối lượng công việc cloud-native này, bắt đầu bằng việc chuyển đổi các giải pháp cơ sở dữ liệu của chính Microsoft. Nó cung cấp các nhóm lưu trữ khối được quản lý hoàn toàn để các khối lượng công việc khác nhau chia sẻ tài nguyên được cấp phép với các rào cản để lưu trữ dữ liệu đa người thuê. Chúng tôi đang đẩy ranh giới về đơn vị tỷ lệ tối đa để cho phép đóng gói dày đặc hơn và các khả năng cho các nhà cung cấp SaaS để quản lý các mẫu lưu lượng agentic.

Khi các khối lượng công việc cloud-native áp dụng Kubernetes để mở rộng quy mô nhanh chóng, chúng tôi đang đơn giản hóa việc phát triển các ứng dụng có trạng thái thông qua trình điều phối lưu trữ gốc Kubernetes của chúng tôi, Azure Container Storage (ACStor) cùng với các trình điều khiển CSI. Bản phát hành ACStor gần đây của chúng tôi báo hiệu hai thay đổi định hướng sẽ hướng dẫn các khoản đầu tư sắp tới: áp dụng mô hình điều phối Kubernetes để thực hiện điều phối phức tạp hơn và mở nguồn cơ sở mã để cộng tác và đổi mới với cộng đồng Kubernetes rộng lớn hơn.

Cùng nhau, những khoản đầu tư này thiết lập một nền tảng vững chắc cho thế hệ ứng dụng cloud-native tiếp theo, nơi lưu trữ phải mở rộng quy mô liền mạch và cung cấp hiệu quả cao để phục vụ như một nền tảng dữ liệu cho các hệ thống quy mô agentic.

Ngoài việc phát triển các khối lượng công việc AI, các doanh nghiệp tiếp tục phát triển các khối lượng công việc quan trọng của họ trên Azure.

SAP và Microsoft đang hợp tác để mở rộng hiệu suất cốt lõi của SAP đồng thời giới thiệu các agent do AI điều khiển như Joule, làm phong phú thêm Microsoft 365 Copilot với ngữ cảnh doanh nghiệp. Những tiến bộ mới nhất của Azure trong dòng M-series bổ sung thêm không gian mở rộng quy mô đáng kể cho SAP HANA, đẩy hiệu suất lưu trữ đĩa lên ~780k IOPS và thông lượng 16 GB/s. Đối với lưu trữ dùng chung, Azure NetApp Files (ANF) và Azure Premium Files cung cấp nền tảng thông lượng cao NFS/SMB mà các cảnh quan SAP dựa vào, đồng thời tối ưu hóa TCO với ANF Flexible Service Level và Azure Files Provisioned v2. Sắp tới, chúng tôi sẽ giới thiệu cấp dịch vụ lưu trữ Elastic ZRS trong ANF, mang lại khả năng sẵn sàng cao được dự phòng theo vùng và hiệu suất nhất quán thông qua sao chép đồng bộ trên các vùng khả dụng, tận dụng kiến trúc ZRS của Azure, mà không làm tăng thêm sự phức tạp trong vận hành.

Tương tự, Ultra Disks đã trở thành nền tảng cho các nền tảng như Aladdin của BlackRock, vốn phải phản ứng ngay lập tức với sự thay đổi của thị trường và duy trì hiệu suất cao dưới tải nặng. Với độ trễ trung bình dưới 500 micro giây, hỗ trợ 400K IOPS và thông lượng 10 GB/s, Ultra Disks cho phép tính toán rủi ro nhanh hơn, quản lý danh mục đầu tư linh hoạt hơn và hiệu suất mạnh mẽ trong những ngày giao dịch có khối lượng cao nhất của BlackRock. Khi kết hợp với Ebsv6 VMs, Ultra Disks có thể đạt 800K IOPS và 14 GB/s cho các khối lượng công việc quan trọng nhất. Và với việc cấp phép linh hoạt, khách hàng có thể điều chỉnh hiệu suất chính xác theo nhu cầu của họ đồng thời tối ưu hóa TCO.

Những khoản đầu tư kết hợp này mang lại cho các doanh nghiệp một nền tảng kiên cường hơn, có khả năng mở rộng và hiệu quả về chi phí hơn cho các khối lượng công việc quan trọng nhất của họ.

Sự bùng nổ AI toàn cầu đang gây áp lực lên lưới điện và chuỗi cung ứng phần cứng. Chi phí năng lượng tăng, ngân sách trung tâm dữ liệu eo hẹp và tình trạng thiếu HDD/SSD trên toàn ngành có nghĩa là các tổ chức không thể mở rộng cơ sở hạ tầng chỉ bằng cách thêm nhiều phần cứng hơn. Lưu trữ phải trở nên hiệu quả và thông minh hơn theo thiết kế.

Chúng tôi đang hợp lý hóa toàn bộ ngăn xếp để tối đa hóa hiệu suất phần cứng với chi phí hoạt động tối thiểu. Kết hợp với việc cân bằng tải thông minh và phân cấp chi phí hiệu quả, chúng tôi có vị thế độc đáo để giúp khách hàng mở rộng quy mô lưu trữ một cách bền vững ngay cả khi tính khả dụng của năng lượng và phần cứng trở thành những ràng buộc chiến lược. Với những đổi mới liên tục trên Bộ xử lý dữ liệu Azure Boost (DPU), chúng tôi mong đợi những bước nhảy vọt về tốc độ lưu trữ và nguồn cấp dữ liệu với mức tiêu thụ năng lượng trên mỗi đơn vị thấp hơn nữa.

Các đường ống AI có thể trải rộng trên các khu vực tại chỗ, các cụm GPU đám mây mới và đám mây, nhưng nhiều môi trường trong số này bị giới hạn bởi công suất năng lượng hoặc nguồn cung cấp lưu trữ. Khi những giới hạn này trở thành nút cổ chai, chúng tôi giúp dễ dàng chuyển các khối lượng công việc sang Azure. Chúng tôi đang đầu tư vào các tích hợp làm cho tập dữ liệu bên ngoài trở thành công dân hạng nhất trên Azure, cho phép truy cập liền mạch vào dữ liệu đào tạo, tinh chỉnh và suy luận mọi lúc mọi nơi. Khi bộ nhớ lưu trữ đám mây phát triển thành tập dữ liệu sẵn sàng cho AI, Azure Storage đang giới thiệu các trải nghiệm được tuyển chọn, được tối ưu hóa cho đường ống để đơn giản hóa cách khách hàng cung cấp dữ liệu cho các dịch vụ AI hạ nguồn.

Chúng tôi không thể làm điều này một mình. Azure Storage hợp tác chặt chẽ với các đối tác chiến lược để đẩy hiệu suất suy luận lên một tầm cao mới. Ngoài các khả năng tự xuất bản có sẵn trên Azure Marketplace, chúng tôi còn đi xa hơn bằng cách dành nguồn lực với chuyên môn để cùng nhau xây dựng các giải pháp với các đối tác để tạo ra các dịch vụ được tối ưu hóa cao và tích hợp sâu.

Trong năm 2026, bạn sẽ thấy nhiều giải pháp đồng kỹ thuật hơn như Commvault Cloud cho Azure, Dell PowerScale, Azure Native Qumulo, Pure Storage Cloud, Rubrik Cloud VaultVeeam Data Cloud. Chúng tôi sẽ tập trung vào các giải pháp hybrid với các đối tác như VAST DataKomprise để cho phép di chuyển dữ liệu mở khóa sức mạnh của các dịch vụ và cơ sở hạ tầng AI Azure—thúc đẩy các sáng kiến AI Agent và Ứng dụng có tác động của khách hàng.

Khi chúng ta tiến vào năm 2026, tầm nhìn của chúng tôi vẫn đơn giản: giúp mọi khách hàng khai thác nhiều giá trị hơn từ dữ liệu của họ với bộ nhớ lưu trữ nhanh hơn, thông minh hơn và được xây dựng cho tương lai. Dù là cung cấp năng lượng cho AI, mở rộng quy mô các ứng dụng cloud-native hay hỗ trợ các khối lượng công việc quan trọng, Azure Storage luôn sẵn sàng giúp bạn đổi mới một cách tự tin trong năm tới.

Recommended for You

ROI của AI trong sản xuất- Nơi việc áp dụng trở thành lợi thế

ROI của AI trong sản xuất- Nơi việc áp dụng trở thành lợi thế

Tìm hiểu cách AI công nghiệp đang định hình lại nền kinh tế sản xuất- ROI ở đâu là thực tế, điều gì đang thúc đẩy nó và bạn có thể thực hiện bước tiếp theo trong hành trình AI của mình như thế nào.

Lập kế hoạch trung tâm dữ liệu AI chiến lược của Microsoft cho phép triển khai NVIDIA Rubin liền mạch, quy mô lớn

Lập kế hoạch trung tâm dữ liệu AI chiến lược của Microsoft cho phép triển khai NVIDIA Rubin liền mạch, quy mô lớn

CES 2026 giới thiệu nền tảng NVIDIA Rubin, cùng với sự sẵn sàng đã được chứng minh của Azure cho việc triển khai.