Mistral AI ra mắt Devstral, mô hình đại lý SWE mã nguồn mở mạnh mẽ mới chạy trên máy tính xách tay

Mistral AI ra mắt Devstral, mô hình đại lý SWE mã nguồn mở mạnh mẽ mới chạy trên máy tính xách tay.

  • 9 min read
Mistral AI ra mắt Devstral, mô hình đại lý SWE mã nguồn mở mạnh mẽ mới chạy trên máy tính xách tay
Mistral AI ra mắt Devstral, mô hình đại lý SWE mã nguồn mở mạnh mẽ mới chạy trên máy tính xách tay.

Mistral AI ra mắt Devstral, mô hình agent SWE mã nguồn mở mạnh mẽ mới chạy trên máy tính xách tay

Mistral AI, nhà sản xuất mô hình AI người Pháp được tài trợ tốt, đã liên tục vượt trội so với trọng lượng của mình kể từ khi ra mắt mô hình nền tảng mã nguồn mở mạnh mẽ của riêng mình vào mùa thu năm 2023 — nhưng gần đây, hãng đã vấp phải một số chỉ trích từ các nhà phát triển trên X về việc phát hành mô hình ngôn ngữ lớn (LLM) độc quyền có tên Medium 3, mà một số người cho là đã phản bội cội nguồn và cam kết mã nguồn mở của hãng.

(Cần nhắc lại rằng các mô hình mã nguồn mở có thể được mọi người tự do lấy và điều chỉnh, trong khi các mô hình độc quyền phải trả tiền và các tùy chọn tùy chỉnh của chúng bị hạn chế hơn và do nhà sản xuất mô hình kiểm soát.)

Hôm nay, Mistral đã trở lại và tái cam kết với cộng đồng AI mã nguồn mở, và đặc biệt là phát triển phần mềm được hỗ trợ bởi AI, một cách mạnh mẽ. Công ty đã hợp tác với startup mã nguồn mở All Hands AI, những người tạo ra Open Devin để phát hành Devstral, một mô hình ngôn ngữ mã nguồn mở mới với 24 triệu tham số — nhỏ hơn nhiều so với nhiều đối thủ có các mô hình trị giá hàng tỷ đô la và do đó, đòi hỏi ít sức mạnh tính toán hơn, do đó nó có thể chạy trên máy tính xách tay — được xây dựng có mục đích để phát triển AI agentic.

Không giống như các LLM truyền thống được thiết kế để hoàn thành mã dạng ngắn hoặc tạo hàm riêng lẻ, Devstral được tối ưu hóa để hoạt động như một agent kỹ thuật phần mềm đầy đủ — có khả năng hiểu ngữ cảnh trên các tệp, điều hướng các cơ sở mã lớn và giải quyết các vấn đề trong thế giới thực.

Hiện mô hình này đã có sẵn miễn phí theo giấy phép Apache 2.0 cho phép, cho phép các nhà phát triển và tổ chức triển khai, sửa đổi và thương mại hóa nó mà không bị hạn chế.

Baptiste Rozière, nhà khoa học nghiên cứu tại Mistral AI cho biết: “Chúng tôi muốn phát hành một cái gì đó mở cho cộng đồng nhà phát triển và những người đam mê — một cái gì đó họ có thể chạy cục bộ, riêng tư và sửa đổi theo ý muốn. Nó được phát hành theo Apache 2.0, vì vậy mọi người về cơ bản có thể làm bất cứ điều gì họ muốn với nó.”

Dựa trên Codestral

Devstral đại diện cho bước tiếp theo trong danh mục mô hình tập trung vào mã ngày càng tăng của Mistral, sau thành công trước đó với dòng Codestral.

Lần đầu tiên ra mắt vào tháng 5 năm 2024, Codestral là bước đột phá ban đầu của Mistral vào các LLM mã hóa chuyên dụng. Đây là một mô hình 22 tỷ tham số được đào tạo để xử lý hơn 80 ngôn ngữ lập trình và được đánh giá cao về hiệu suất trong các tác vụ tạo và hoàn thành mã.

Sự phổ biến và sức mạnh kỹ thuật của mô hình này đã dẫn đến các lần lặp lại nhanh chóng, bao gồm việc ra mắt Codestral-Mamba — một phiên bản nâng cao được xây dựng trên kiến trúc Mamba — và gần đây nhất là Codestral 25.01, đã được các nhà phát triển plugin IDE và người dùng doanh nghiệp tìm kiếm các mô hình tần số cao, độ trễ thấp chấp nhận.

Động lực xung quanh Codestral đã giúp Mistral khẳng định mình là một người chơi quan trọng trong hệ sinh thái mô hình mã hóa và đặt nền tảng cho sự phát triển của Devstral — mở rộng từ việc hoàn thành nhanh chóng đến thực thi tác vụ agent đầy đủ.

Vượt trội hơn các mô hình lớn hơn về các tiêu chuẩn SWE hàng đầu

Devstral đạt được số điểm 46,8% trên điểm chuẩn SWE-Bench Verified, một tập dữ liệu gồm 500 sự cố GitHub thực tế được xác thực thủ công về tính chính xác.

Hiệu suất của Devstral trên SWE-bench so với các LLM khác

Điều này giúp nó vượt lên trên tất cả các mô hình mã nguồn mở đã phát hành trước đó và vượt lên trên một số mô hình đóng, bao gồm GPT-4.1-mini, mà nó vượt qua hơn 20 điểm phần trăm.

Rozière cho biết: “Hiện tại, đây là mô hình mở tốt nhất cho SWE-bench verified và cho các agent mã. Và nó cũng là một mô hình rất nhỏ — chỉ 24 tỷ tham số — mà bạn có thể chạy cục bộ, ngay cả trên MacBook.”

Sophia Yang, Tiến sĩ, Trưởng bộ phận Quan hệ nhà phát triển tại Mistral AI, đã viết trên mạng xã hội X: “So sánh Devstral với các mô hình đóng và mở được đánh giá theo bất kỳ dàn giáo nào — chúng tôi thấy rằng Devstral đạt được hiệu suất tốt hơn đáng kể so với một số giải pháp thay thế nguồn đóng. Ví dụ: Devstral vượt qua GPT-4.1-mini gần đây hơn 20%.”

Mô hình này được tinh chỉnh từ Mistral Small 3.1 bằng cách sử dụng các kỹ thuật học tăng cường và căn chỉnh an toàn.

Rozière cho biết: “Chúng tôi bắt đầu từ một mô hình cơ sở rất tốt với khả năng kiểm soát cây nhỏ của Mistral, vốn đã hoạt động tốt. Sau đó, chúng tôi chuyên môn hóa nó bằng cách sử dụng các kỹ thuật an toàn và học tăng cường để cải thiện hiệu suất của nó trên SWE-bench.”

Được xây dựng cho kỷ nguyên agentic

Devstral không chỉ là một mô hình tạo mã — nó được tối ưu hóa để tích hợp vào các khung agentic như OpenHands, SWE-Agent và OpenDevin.

Các dàn giáo này cho phép Devstral tương tác với các trường hợp thử nghiệm, điều hướng các tệp nguồn và thực hiện các tác vụ đa bước trên các dự án.

Rozière cho biết: “Chúng tôi đang phát hành nó với OpenDevin, một dàn giáo cho các agent mã. Chúng tôi xây dựng mô hình và họ xây dựng dàn giáo — một tập hợp các lời nhắc và công cụ mà mô hình có thể sử dụng, giống như một backend cho mô hình nhà phát triển.”

Để đảm bảo tính mạnh mẽ, mô hình đã được kiểm tra trên các kho lưu trữ đa dạng và quy trình làm việc nội bộ.

Rozière giải thích: “Chúng tôi rất cẩn thận để không khớp quá mức với SWE-bench. Chúng tôi chỉ đào tạo trên dữ liệu từ các kho lưu trữ không được sao chép từ bộ SWE-bench và xác thực mô hình trên các khung khác nhau.”

Ông nói thêm rằng Mistral đã tự thử nghiệm Devstral nội bộ để đảm bảo nó tổng quát hóa tốt cho các tác vụ mới, chưa từng thấy.

Triển khai hiệu quả với giấy phép mở cho phép — ngay cả đối với các dự án doanh nghiệp và thương mại

Kiến trúc 24B nhỏ gọn của Devstral giúp các nhà phát triển có thể chạy cục bộ một cách thiết thực, cho dù trên một GPU RTX 4090 duy nhất hay máy Mac có RAM 32GB. Điều này làm cho nó trở nên hấp dẫn đối với các trường hợp sử dụng nhạy cảm về quyền riêng tư và triển khai biên.

Rozière cho biết: “Mô hình này nhắm đến những người đam mê và những người quan tâm đến việc chạy một cái gì đó cục bộ và riêng tư — một cái gì đó họ có thể sử dụng ngay cả trên máy bay mà không cần internet”.

Ngoài hiệu suất và tính di động, giấy phép Apache 2.0 của nó còn mang đến một đề xuất hấp dẫn cho các ứng dụng thương mại. Giấy phép cho phép sử dụng, điều chỉnh và phân phối không hạn chế — ngay cả đối với các sản phẩm độc quyền — khiến Devstral trở thành một lựa chọn ít ma sát để doanh nghiệp chấp nhận.

Thông số kỹ thuật chi tiết và hướng dẫn sử dụng có sẵn trên thẻ mô hình Devstral-Small-2505 trên Hugging Face.

Mô hình này có cửa sổ ngữ cảnh 128.000 mã thông báo và sử dụng bộ mã hóa Tekken với từ vựng 131.000.

Nó hỗ trợ triển khai thông qua tất cả các nền tảng mã nguồn mở chính bao gồm Hugging Face, Ollama, Kaggle, LM Studio và Unsloth, đồng thời hoạt động tốt với các thư viện như vLLM, Transformers và Mistral Inference.

Có sẵn qua API hoặc cục bộ

Devstral có thể truy cập thông qua API Le Platforme (giao diện lập trình ứng dụng) của Mistral theo tên mô hình devstral-small-2505, với mức giá đặt ở mức 0,10 đô la cho mỗi một triệu mã thông báo đầu vào và 0,30 đô la cho mỗi một triệu mã thông báo đầu ra.

Đối với những người triển khai cục bộ, hỗ trợ cho các khung như OpenHands cho phép tích hợp với các cơ sở mã và quy trình làm việc agentic ngay lập tức.

Rozière chia sẻ cách anh kết hợp Devstral vào quy trình phát triển của riêng mình: “Tôi tự mình sử dụng nó. Bạn có thể yêu cầu nó thực hiện các tác vụ nhỏ, như cập nhật phiên bản của một gói hoặc sửa đổi một script mã hóa. Nó tìm đúng vị trí trong mã của bạn và thực hiện các thay đổi. Thật tuyệt khi sử dụng.”

Sắp có thêm

Mặc dù Devstral hiện đang được phát hành dưới dạng bản xem trước nghiên cứu, nhưng Mistral và All Hands AI đã làm việc trên một mô hình theo dõi lớn hơn với các khả năng mở rộng. Rozière lưu ý: “Sẽ luôn có một khoảng cách giữa các mô hình nhỏ hơn và lớn hơn, nhưng chúng tôi đã đi một chặng đường dài trong việc thu hẹp khoảng cách đó. Các mô hình này đã hoạt động rất mạnh, ngay cả so với một số đối thủ cạnh tranh lớn hơn.”

Với các tiêu chuẩn hiệu suất, giấy phép cho phép và thiết kế agentic của mình, Devstral tự định vị mình không chỉ là một công cụ tạo mã — mà còn là một mô hình nền tảng để xây dựng các hệ thống kỹ thuật phần mềm tự động.

Recommended for You

OpenAI cập nhật nhanh chóng API phản hồi mới của mình với hỗ trợ MCP, tạo ảnh gốc GPT-4o và nhiều tính năng dành cho doanh nghiệp

OpenAI cập nhật nhanh chóng API phản hồi mới của mình với hỗ trợ MCP, tạo ảnh gốc GPT-4o và nhiều tính năng dành cho doanh nghiệp

OpenAI cập nhật API phản hồi mới của mình với hỗ trợ MCP, tạo ảnh gốc GPT-4o và nhiều tính năng dành cho doanh nghiệp.

Giới thiệu Chương trình Khởi nghiệp Llama

Giới thiệu Chương trình Khởi nghiệp Llama

Chúng tôi vui mừng thông báo Chương trình Khởi nghiệp Llama, một sáng kiến mới để trao quyền cho các công ty khởi nghiệp giai đoạn đầu đổi mới và xây dựng các ứng dụng AI tạo sinh bằng Llama.