Giải quyết tắc nghẽn lưu trữ AI và tăng tốc suy luận ở biên

Sự kiện VB

  • 5 min read
Giải quyết tắc nghẽn lưu trữ AI và tăng tốc suy luận ở biên
Sự kiện VB

Phá vỡ nút thắt lưu trữ của AI và tăng tốc suy luận ở biên

Khi các ứng dụng AI ngày càng lan rộng trong các hoạt động của doanh nghiệp, từ việc tăng cường chăm sóc bệnh nhân thông qua hình ảnh y tế tiên tiến đến cung cấp năng lượng cho các mô hình phát hiện gian lận phức tạp và thậm chí hỗ trợ bảo tồn động vật hoang dã, một nút thắt quan trọng thường xuất hiện: lưu trữ dữ liệu.

Trong sự kiện Transform 2025 của VentureBeat, Greg Matson, trưởng bộ phận sản phẩm và marketing của Solidigm và Roger Cummings, CEO của PEAK:AIO đã trao đổi với Michael Stewart, đối tác quản lý tại M12 về cách các đổi mới trong công nghệ lưu trữ cho phép các trường hợp sử dụng AI doanh nghiệp trong lĩnh vực chăm sóc sức khỏe.

Khung MONAI là một bước đột phá trong hình ảnh y tế, xây dựng nó nhanh hơn, an toàn hơn và bảo mật hơn. Những tiến bộ trong công nghệ lưu trữ là những gì cho phép các nhà nghiên cứu xây dựng dựa trên khung này, lặp lại và đổi mới nhanh chóng. PEAK:AIO đã hợp tác với Solidigm để tích hợp lưu trữ hiệu quả về năng lượng, hiệu suất và dung lượng cao, cho phép MONAI lưu trữ hơn hai triệu ảnh chụp CT toàn thân trên một nút duy nhất trong môi trường CNTT của họ.

“Khi cơ sở hạ tầng AI doanh nghiệp phát triển nhanh chóng, phần cứng lưu trữ ngày càng cần được điều chỉnh cho các trường hợp sử dụng cụ thể, tùy thuộc vào vị trí của chúng trong đường dẫn dữ liệu AI,” Matson nói. “Loại trường hợp sử dụng mà chúng tôi đã nói về với MONAI, một trường hợp sử dụng ở biên, cũng như việc cung cấp một cụm đào tạo, được phục vụ tốt bởi các giải pháp lưu trữ trạng thái rắn dung lượng rất cao, nhưng việc suy luận và đào tạo mô hình thực tế cần một cái gì đó khác. Đó là một yêu cầu rất cao về hiệu suất, I/O trên mỗi giây rất cao từ SSD. Đối với chúng tôi, RAG đang phân nhánh các loại sản phẩm mà chúng tôi tạo ra và các loại tích hợp mà chúng tôi phải thực hiện với phần mềm.”

Cải thiện suy luận AI ở biên

Để có hiệu suất cao nhất ở biên, điều quan trọng là phải thu nhỏ quy mô lưu trữ xuống một nút duy nhất, để đưa suy luận đến gần hơn với dữ liệu. Và điều quan trọng là loại bỏ các nút thắt bộ nhớ. Điều đó có thể được thực hiện bằng cách biến bộ nhớ thành một phần của cơ sở hạ tầng AI, để mở rộng nó cùng với dữ liệu và siêu dữ liệu. Sự gần gũi của dữ liệu với tính toán làm tăng đáng kể thời gian để hiểu sâu sắc.

“Bạn thấy tất cả các triển khai lớn, các trung tâm dữ liệu green field lớn cho AI, sử dụng các thiết kế phần cứng rất cụ thể để có thể đưa dữ liệu đến gần GPU nhất có thể,” Matson nói. “Họ đã xây dựng các trung tâm dữ liệu của mình với bộ nhớ trạng thái rắn dung lượng rất cao, để mang bộ nhớ cấp petabyte, rất dễ truy cập ở tốc độ rất cao, đến GPU. Giờ đây, công nghệ tương tự đang diễn ra trong một vũ trụ thu nhỏ ở biên và trong doanh nghiệp.”

Việc trở nên quan trọng đối với những người mua hệ thống AI là đảm bảo bạn khai thác được hiệu suất cao nhất từ hệ thống của mình bằng cách chạy nó trên tất cả các trạng thái rắn. Điều đó cho phép bạn mang một lượng lớn dữ liệu và cho phép sức mạnh xử lý đáng kinh ngạc trong một hệ thống nhỏ ở biên.

Tương lai của phần cứng AI

“Điều bắt buộc là chúng tôi phải cung cấp các giải pháp mở, có thể mở rộng và ở tốc độ bộ nhớ, sử dụng một số công nghệ mới nhất và tuyệt vời nhất hiện có để làm điều đó,” Cummings nói. “Đó là mục tiêu của chúng tôi với tư cách là một công ty, để cung cấp sự cởi mở, tốc độ và quy mô mà các tổ chức cần. Tôi nghĩ bạn sẽ thấy các nền kinh tế phù hợp với điều đó.”

Đối với đường dẫn dữ liệu đào tạo và suy luận tổng thể và trong chính suy luận, nhu cầu phần cứng sẽ tiếp tục tăng, cho dù đó là SSD tốc độ rất cao hay giải pháp dung lượng rất cao, tiết kiệm điện.

“Tôi muốn nói rằng nó sẽ tiến xa hơn nữa đến dung lượng rất cao, cho dù đó là SSD một petabyte trong một vài năm kể từ bây giờ chạy ở công suất rất thấp và về cơ bản có thể thay thế số lượng ổ cứng gấp bốn lần, hoặc một sản phẩm hiệu suất rất cao gần bằng tốc độ bộ nhớ,” Matson nói. “Bạn sẽ thấy rằng các nhà cung cấp GPU lớn đang xem xét cách xác định kiến trúc lưu trữ tiếp theo, để nó có thể giúp tăng cường, rất chặt chẽ, HBM trong hệ thống. Những gì từng là SSD đa năng trong điện toán đám mây hiện đang phân nhánh thành dung lượng và hiệu suất. Chúng tôi sẽ tiếp tục làm điều đó xa hơn nữa theo cả hai hướng trong 5 hoặc 10 năm tới.”

Recommended for You

Cách Capital One xây dựng quy trình AI đa tác tử sản xuất để hỗ trợ các trường hợp sử dụng doanh nghiệp

Cách Capital One xây dựng quy trình AI đa tác tử sản xuất để hỗ trợ các trường hợp sử dụng doanh nghiệp

Tìm hiểu cách Capital One tận dụng AI đa tác tử để nâng cao các ứng dụng doanh nghiệp trong thế giới thực.

Các doanh nghiệp ưu tiên AI- Trường hợp cấp thiết cho các nền tảng AI có thể mở rộng, được kết nối

Các doanh nghiệp ưu tiên AI- Trường hợp cấp thiết cho các nền tảng AI có thể mở rộng, được kết nối

Các doanh nghiệp ưu tiên AI- Trường hợp cấp thiết cho các nền tảng AI có thể mở rộng, được kết nối