OpenAI quay trở lại nguồn gốc mã nguồn mở với các mô hình mới gpt-oss-120b và gpt-oss-20b
OpenAI tái khẳng định cam kết của mình với mã nguồn mở bằng cách phát hành các mô hình ngôn ngữ lớn mới.
- 20 min read
OpenAI trở lại nguồn gốc mã nguồn mở với các mô hình mới gpt-oss-120b và gpt-oss-20b
Các doanh nghiệp có thể sử dụng LLM OpenAI mạnh mẽ, gần như hàng đầu trên phần cứng của họ một cách hoàn toàn riêng tư và an toàn, mà không cần gửi dữ liệu lên đám mây.
Tín dụng: VentureBeat được tạo bằng ChatGPT
OpenAI đang trở lại nguồn gốc là một công ty AI mã nguồn mở với thông báo hôm nay và phát hành hai mô hình ngôn ngữ lớn (LLM) biên giới, mã nguồn mở mới: gpt-oss-120b và gpt-oss-20b.
Mô hình trước là mô hình 120 tỷ tham số như tên gọi của nó, có khả năng chạy trên một đơn vị xử lý đồ họa (GPU) Nvidia H100 duy nhất và mô hình sau chỉ có 20 tỷ, đủ nhỏ để chạy cục bộ trên máy tính xách tay hoặc máy tính để bàn của người tiêu dùng.
Cả hai đều là các mô hình ngôn ngữ chỉ dựa trên văn bản, có nghĩa là không giống như AI đa phương thức mà chúng ta đã có trong gần hai năm cho phép người dùng tải lên tệp và hình ảnh và để AI phân tích chúng, người dùng sẽ chỉ bị giới hạn ở việc nhập tin nhắn văn bản vào các mô hình và nhận lại văn bản.
Tuy nhiên, tất nhiên, chúng vẫn có thể viết mã và cung cấp các bài toán và số liệu, và về hiệu suất của chúng trên các tác vụ, chúng xếp hạng trên một số mô hình trả phí của OpenAI và phần lớn các đối thủ cạnh tranh trên toàn cầu.
Loạt tác động AI trở lại San Francisco - Ngày 5 tháng 8
Giai đoạn tiếp theo của AI đã ở đây - bạn đã sẵn sàng chưa? Hãy tham gia cùng các nhà lãnh đạo từ Block, GSK và SAP để có một cái nhìn độc đáo về cách các tác nhân tự trị đang định hình lại quy trình làm việc của doanh nghiệp - từ việc ra quyết định theo thời gian thực đến tự động hóa đầu cuối.
Đảm bảo vị trí của bạn ngay bây giờ - không gian có hạn: https://bit.ly/3GuuPLF
Chúng cũng có thể được kết nối với các công cụ bên ngoài bao gồm tìm kiếm trên web để thực hiện nghiên cứu thay mặt người dùng. Thông tin thêm về điều này bên dưới.
Quan trọng nhất: chúng miễn phí, chúng có sẵn cho các doanh nghiệp và nhà phát triển độc lập để tải xuống mã và sử dụng ngay bây giờ, sửa đổi theo nhu cầu của họ và có thể chạy cục bộ mà không cần kết nối web, đảm bảo tính riêng tư tối đa, không giống như các mô hình OpenAI hàng đầu khác và các mô hình từ các đối thủ cạnh tranh hàng đầu có trụ sở tại Hoa Kỳ là Google và Anthropic.
Các mô hình có thể được tải xuống ngay hôm nay với đầy đủ trọng số (các cài đặt hướng dẫn hành vi của chúng) trên cộng đồng chia sẻ mã AI Hugging Face và GitHub.
Điểm chuẩn cao
Theo OpenAI, gpt-oss-120b phù hợp hoặc vượt quá mô hình o4-mini độc quyền của mình về khả năng lý luận và các chuẩn sử dụng công cụ, bao gồm toán học cạnh tranh (AIME 2024 & 2025), giải quyết vấn đề chung (MMLU và HLE), đánh giá tác nhân (TauBench) và đánh giá cụ thể về sức khỏe (HealthBench). Mô hình gpt-oss-20b nhỏ hơn có thể so sánh với o3-mini và thậm chí vượt qua nó trong một số điểm chuẩn.
Các mô hình này đa ngôn ngữ và hoạt động tốt trên nhiều ngôn ngữ không phải tiếng Anh, mặc dù OpenAI từ chối chỉ định ngôn ngữ nào và số lượng ngôn ngữ.
Mặc dù các khả năng này có sẵn ngay lập tức, OpenAI lưu ý rằng tinh chỉnh cục bộ — chẳng hạn như sự hợp tác đang diễn ra với chính phủ Thụy Điển để tạo ra một phiên bản được tinh chỉnh trên ngôn ngữ của quốc gia — vẫn có thể cải thiện đáng kể hiệu suất cho các bối cảnh ngôn ngữ hoặc khu vực cụ thể.
Giấy phép có lợi thế lớn cho các doanh nghiệp và người dùng quan tâm đến quyền riêng tư
Nhưng tính năng lớn nhất là các điều khoản cấp phép cho cả hai: Apache 2.0, giống như làn sóng mô hình mã nguồn mở của Trung Quốc đã được phát hành trong vài tuần qua, và giấy phép thân thiện với doanh nghiệp hơn giấy phép Llama mở hơn phức tạp và sắc thái hơn của Meta, yêu cầu người dùng vận hành dịch vụ có hơn 700 triệu người dùng hoạt động hàng tháng phải có giấy phép trả phí để tiếp tục sử dụng gia đình LLM của công ty.
Ngược lại, dòng gpt-oss mới của OpenAI không đưa ra bất kỳ hạn chế nào như vậy. Phù hợp với các đối thủ cạnh tranh và đối tác Trung Quốc, bất kỳ người tiêu dùng, nhà phát triển, doanh nhân độc lập hoặc doanh nghiệp lớn nhỏ nào đều được trao quyền bởi giấy phép Apache 2.0 để có thể tải xuống các mô hình gpt-oss mới theo ý muốn, tinh chỉnh và thay đổi chúng để phù hợp với nhu cầu cụ thể của họ, đồng thời sử dụng chúng để tạo doanh thu hoặc vận hành các dịch vụ trả phí, tất cả mà không phải trả cho OpenAI một xu nào (hoặc bất cứ điều gì!).
Điều này cũng có nghĩa là các doanh nghiệp có thể sử dụng một mô hình OpenAI mạnh mẽ, gần như hàng đầu trên phần cứng của riêng họ một cách hoàn toàn riêng tư và an toàn, mà không cần gửi bất kỳ dữ liệu nào lên đám mây, trên các máy chủ web hoặc bất kỳ nơi nào khác. Đối với các ngành công nghiệp được quản lý chặt chẽ như tài chính, chăm sóc sức khỏe và dịch vụ pháp lý, chưa kể đến các tổ chức trong quân đội, tình báo và chính phủ, đây có thể là một yêu cầu.
Trước ngày hôm nay, bất kỳ ai sử dụng ChatGPT hoặc giao diện lập trình ứng dụng (API) của nó — dịch vụ hoạt động như một bảng chuyển mạch và cho phép các nhà phát triển phần mềm bên thứ ba kết nối các ứng dụng và dịch vụ của riêng họ với các mô hình độc quyền/trả phí của OpenAI như GPT-4o và o3 — đã gửi dữ liệu lên các máy chủ OpenAI về mặt kỹ thuật có thể bị các cơ quan chính phủ trát đòi và truy cập mà người dùng không hề hay biết. Điều đó vẫn đúng đối với bất kỳ ai sử dụng ChatGPT hoặc API trong tương lai, vì người đồng sáng lập và Giám đốc điều hành của OpenAI, Sam Altman, gần đây đã cảnh báo.
Và mặc dù việc chạy các mô hình gpt-oss mới cục bộ trên phần cứng của riêng người dùng, ngắt kết nối khỏi web sẽ cho phép tính riêng tư tối đa, nhưng ngay khi người dùng quyết định kết nối nó với tìm kiếm web bên ngoài hoặc các công cụ hỗ trợ web khác, một số rủi ro và vấn đề về quyền riêng tư tương tự sau đó sẽ phát sinh — thông qua bất kỳ dịch vụ web bên thứ ba nào mà người dùng hoặc nhà phát triển đã dựa vào khi kết nối các mô hình với các công cụ đó.
Mô hình ngôn ngữ mã nguồn mở OpenAI cuối cùng đã được phát hành hơn sáu năm trước
“Đây là lần đầu tiên chúng tôi phát hành một mô hình ngôn ngữ trọng lượng mở trong một thời gian dài… Chúng tôi xem đây là bổ sung cho các sản phẩm khác của chúng tôi”, người đồng sáng lập và chủ tịch OpenAI Greg Brockman cho biết trong một cuộc gọi video báo chí bị cấm vận với VentureBeat và các nhà báo khác đêm qua.
Lần cuối cùng OpenAI phát hành một mô hình ngôn ngữ mã nguồn mở hoàn toàn là GPT-2 vào năm 2019, hơn sáu năm trước và ba năm trước khi ChatGPT được phát hành.
Thực tế này đã gây ra sự phẫn nộ của — và dẫn đến một số vụ kiện từ — người đồng sáng lập và nhà tài trợ trước đây của OpenAI, Elon Musk, người đã trở thành đối thủ cạnh tranh, người mà cùng với nhiều nhà phê bình khác, đã dành vài năm qua để buộc tội OpenAI phản bội sứ mệnh và các nguyên tắc sáng lập của nó, và tên tuổi của nó bằng cách né tránh các bản phát hành AI mã nguồn mở để ủng hộ các mô hình độc quyền trả phí chỉ dành cho khách hàng của API của OpenAI hoặc người đăng ký ChatGPT trả phí (mặc dù có một cấp miễn phí cho phiên bản sau).
Người đồng sáng lập và Giám đốc điều hành của OpenAI, Sam Altman, đã bày tỏ sự hối tiếc về việc ở " phía sai của lịch sử" bằng cách không phát hành thêm AI mã nguồn mở sớm hơn trong một Reddit AMA (hỏi tôi bất cứ điều gì) Hỏi & Đáp với người dùng vào tháng Hai năm nay, và Altman đã cam kết phát hành một mô hình mã nguồn mở mới vào tháng Ba, nhưng cuối cùng công ty đã trì hoãn việc phát hành từ ngày dự kiến vào tháng Bảy cho đến bây giờ.
Bây giờ OpenAI đang quay trở lại mã nguồn mở, và câu hỏi là, tại sao?
Tại sao OpenAI lại phát hành một bộ mô hình mã nguồn mở miễn phí mà nó không kiếm được tiền từ đó?
Để diễn giải dòng đáng nhớ của nhân vật Jesse Plemons từ bộ phim Game Night: “Làm thế nào điều đó có thể có lợi cho OpenAI?”
Rốt cuộc, hoạt động kinh doanh cho các sản phẩm trả phí của OpenAI dường như đang bùng nổ.
Doanh thu đã tăng vọt cùng với sự mở rộng nhanh chóng của cơ sở người dùng ChatGPT, hiện ở mức 700 triệu người dùng hoạt động hàng tuần. Tính đến tháng 8 năm 2025, OpenAI báo cáo 13 tỷ đô la doanh thu định kỳ hàng năm,, tăng từ 10 tỷ đô la vào tháng 6. Sự tăng trưởng đó được thúc đẩy bởi sự gia tăng mạnh mẽ về số lượng khách hàng doanh nghiệp trả tiền — hiện là 5 triệu, tăng từ 3 triệu chỉ hai tháng trước — và sự tham gia hàng ngày tăng vọt, với hơn 3 tỷ tin nhắn người dùng được gửi mỗi ngày.
Động lực tài chính theo sau vòng tài trợ 8,3 tỷ đô la, định giá OpenAI ở mức 300 tỷ đô la và cung cấp nền tảng cho sự mở rộng cơ sở hạ tầng và tham vọng toàn cầu tích cực của công ty.
So sánh điều đó với doanh thu định kỳ hàng năm được báo cáo là 5 tỷ đô la của công ty khởi nghiệp AI đối thủ khép kín/độc quyền Anthropic, nhưng điều thú vị là, Anthropic được cho là kiếm được nhiều tiền hơn từ API của mình, 3,1 tỷ đô la doanh thu so với 2,9 tỷ đô la của OpenAI, theo The Information.
Vì vậy, với việc hoạt động kinh doanh AI trả phí đang hoạt động tốt, chiến lược kinh doanh đằng sau các dịch vụ mã nguồn mở này ít rõ ràng hơn — đặc biệt là vì các mô hình gpt-oss OpenAI mới gần như chắc chắn sẽ cắt giảm một số (có lẽ rất nhiều) việc sử dụng các mô hình trả phí của OpenAI. Tại sao lại quay lại cung cấp LLM mã nguồn mở ngay bây giờ khi có quá nhiều tiền đang đổ vào trả phí và không có khoản nào, do chính ý định của nó, sẽ trực tiếp hướng tới các mô hình mã nguồn mở?
Nói một cách đơn giản: bởi vì các đối thủ cạnh tranh mã nguồn mở, bắt đầu với việc phát hành DeepSeek R1 hiệu quả ấn tượng bởi bộ phận AI Trung Quốc có cùng tên vào tháng 1 năm 2025, đang cung cấp gần ngang bằng về các chuẩn hiệu suất so với các mô hình độc quyền trả phí, miễn phí, với ít hạn chế hơn (về cơ bản là không có) về việc triển khai cho các doanh nghiệp và người dùng cuối. Và ngày càng có nhiều doanh nghiệp đang áp dụng các mô hình mã nguồn mở này trong sản xuất.
Như các giám đốc điều hành và thành viên nhóm OpenAI đã tiết lộ cho VentureBeat và nhiều nhà báo khác trong một cuộc gọi video bị cấm vận đêm qua về các mô hình mới mà khi nói đến API của OpenAI, đa số khách hàng đang sử dụng kết hợp các mô hình OpenAI trả phí và các mô hình mã nguồn mở từ các nhà cung cấp khác. (Tôi đã hỏi, nhưng OpenAI từ chối chỉ định tỷ lệ phần trăm hoặc tổng số khách hàng API đang sử dụng các mô hình mã nguồn mở và mô hình nào).
Ít nhất là cho đến bây giờ. OpenAI rõ ràng hy vọng những dịch vụ gpt-oss mới này sẽ khiến nhiều người dùng chuyển từ các dịch vụ mã nguồn mở cạnh tranh và quay trở lại hệ sinh thái của OpenAI, ngay cả khi OpenAI không thấy bất kỳ doanh thu hoặc dữ liệu trực tiếp nào từ việc sử dụng đó.
Ở quy mô lớn hơn, dường như OpenAI muốn trở thành một dịch vụ AI toàn diện, toàn ngăn xếp, một cửa cho tất cả nhu cầu về trí tuệ máy móc của một doanh nghiệp, nhà phát triển độc lập hoặc người tiêu dùng thông thường — từ giao diện chatbot sạch sẽ đến API để xây dựng các dịch vụ và ứng dụng trên đầu trang đến các khung tác nhân để xây dựng các tác nhân AI thông qua API nói trên đến mô hình tạo hình ảnh (gpt-4o tạo hình ảnh gốc), mô hình video (Sora), mô hình phiên âm âm thanh (gpt-4o-transcribe), và bây giờ, các dịch vụ mã nguồn mở. Liệu một mô hình tạo nhạc và “mô hình thế giới” có thể ở xa phía sau không?
OpenAI tìm cách bao trùm thị trường AI, độc quyền và mã nguồn mở, ngay cả khi phiên bản sau không có giá trị gì về mặt đô la và xu trực tiếp thực tế.
Đào tạo và kiến trúc
Phản hồi từ các nhà phát triển đã trực tiếp ảnh hưởng đến thiết kế của gpt-oss. OpenAI cho biết yêu cầu hàng đầu là một giấy phép cho phép, điều này dẫn đến việc áp dụng Apache 2.0 cho cả hai mô hình. Cả hai mô hình đều sử dụng kiến trúc Mixture-of-Experts (MoE) với xương sống Transformer.
gpt-oss-120b lớn hơn kích hoạt 5,1 tỷ tham số trên mỗi mã thông báo (trong tổng số 117 tỷ), và gpt-oss-20b kích hoạt 3,6 tỷ (trong tổng số 21 tỷ).
Cả hai đều hỗ trợ độ dài ngữ cảnh 128.000 mã thông báo (khoảng 300-400 trang văn bản đáng giá của một cuốn tiểu thuyết mà người dùng có thể tải lên cùng một lúc) và sử dụng sự chú ý thưa thớt có băng tần cục bộ và sử dụng Nhúng vị trí quay để mã hóa.
Trình mã hóa thông báo — chương trình chuyển đổi các từ và các đoạn từ thành các mã thông báo số mà LLM có thể hiểu, được đặt tên là “o200k_harmony” — cũng đang được mở nguồn.
Các nhà phát triển có thể chọn giữa các cài đặt nỗ lực lý luận thấp, trung bình hoặc cao dựa trên nhu cầu về độ trễ và hiệu suất. Mặc dù các mô hình này có thể lý luận trên các tác vụ tác nhân phức tạp, OpenAI nhấn mạnh rằng chúng không được đào tạo với sự giám sát trực tiếp của các đầu ra CoT, để bảo toàn khả năng quan sát hành vi lý luận — một phương pháp mà OpenAI coi là quan trọng để giám sát an toàn.
Một yêu cầu phổ biến khác từ cộng đồng nhà phát triển của OpenAI là hỗ trợ mạnh mẽ cho việc gọi hàm, đặc biệt là cho khối lượng công việc của tác nhân, mà OpenAI tin rằng gpt-oss hiện đang cung cấp.
Các mô hình được thiết kế cho lý luận chuỗi tư duy, sử dụng công cụ và gọi hàm ít lần, và tương thích với API Phản hồi của OpenAI được giới thiệu vào tháng Ba, cho phép các nhà phát triển tăng cường ứng dụng của họ bằng cách kết nối LLM OpenAI mà họ chọn với ba công cụ tích hợp mạnh mẽ — tìm kiếm trên web, tìm kiếm tệp và sử dụng máy tính — trong một lệnh gọi API duy nhất.
Nhưng đối với các mô hình gpt-oss mới, khả năng sử dụng công cụ — bao gồm tìm kiếm trên web và thực thi mã — không bị ràng buộc với cơ sở hạ tầng của OpenAI. OpenAI cung cấp các lược đồ và ví dụ được sử dụng trong quá trình đào tạo, chẳng hạn như triển khai trình duyệt cơ bản bằng API Exa và trình thông dịch Python hoạt động trong vùng chứa Docker.
Tùy thuộc vào các nhà cung cấp suy luận hoặc nhà phát triển cá nhân để xác định cách các công cụ được triển khai. Ví dụ: các nhà cung cấp như vLLM cho phép người dùng định cấu hình máy chủ MCP (Model-Controller-Proxy) của riêng họ để chỉ định phần phụ trợ trình duyệt.
Mặc dù các mô hình này có thể lý luận trên các tác vụ tác nhân phức tạp, OpenAI nhấn mạnh rằng chúng không được đào tạo với sự giám sát trực tiếp của các đầu ra CoT, để bảo tồn khả năng quan sát hành vi lý luận — một phương pháp mà OpenAI coi là quan trọng để giám sát an toàn.
Đánh giá và biện pháp an toàn
OpenAI đã tiến hành đào tạo an toàn bằng cách sử dụng Khung chuẩn bị của mình, một tài liệu phác thảo các cam kết về thủ tục, tiêu chí đánh giá rủi ro, danh mục khả năng, ngưỡng, đánh giá và cơ chế quản trị mà OpenAI sử dụng để theo dõi, đánh giá và giảm thiểu rủi ro AI biên giới.
Chúng bao gồm lọc dữ liệu liên quan đến mối đe dọa hóa học, sinh học, phóng xạ và hạt nhân (CBRN) ra trong quá trình tiền đào tạo và áp dụng các phương pháp an toàn sau đào tạo nâng cao như căn chỉnh có chủ ý và hệ thống phân cấp hướng dẫn để thực thi hành vi từ chối trên các lời nhắc có hại.
Để kiểm tra khả năng sử dụng sai mục đích trong trường hợp xấu nhất, OpenAI đã tinh chỉnh một cách đối kháng gpt-oss-120b trên dữ liệu sinh học và an ninh mạng nhạy cảm bằng cách sử dụng ngăn xếp đào tạo RL nội bộ của mình. Các kịch bản tinh chỉnh độc hại (MFT) này — một trong những đánh giá tinh vi nhất thuộc loại này cho đến nay — bao gồm bật duyệt web và tắt hành vi từ chối, mô phỏng khả năng tấn công trong thế giới thực.
Các mô hình kết quả đã được đánh giá so với cả LLM mở và độc quyền, bao gồm DeepSeek R1-0528, Qwen 3 Thinking, Kimi K2 và o3 của OpenAI. Mặc dù được tăng cường khả năng truy cập vào các công cụ và đào tạo có mục tiêu, OpenAI nhận thấy rằng ngay cả các mô hình gpt-oss được tinh chỉnh cũng vẫn dưới ngưỡng khả năng “Cao” đối với các lĩnh vực rủi ro biên giới như rủi ro sinh học và an ninh mạng. Những kết luận này đã được xem xét bởi ba nhóm chuyên gia độc lập, có các khuyến nghị đã được đưa vào phương pháp luận cuối cùng.
Song song đó, OpenAI đã hợp tác với SecureBio để chạy các đánh giá bên ngoài trên các điểm chuẩn tập trung vào sinh học như Kiểm tra khả năng mầm bệnh ở người (HPCT), Kiểm tra khả năng sinh học phân tử (MBCT) và các kiểm tra khác. Kết quả cho thấy các mô hình được tinh chỉnh của gpt-oss hoạt động gần với mô hình o3 của OpenAI, mô hình này không được phân loại là biên giới cao theo định nghĩa an toàn của OpenAI.
Theo OpenAI, những phát hiện này đã đóng góp trực tiếp vào quyết định phát hành gpt-oss một cách công khai. Bản phát hành này cũng nhằm mục đích hỗ trợ nghiên cứu an toàn, đặc biệt là xung quanh việc theo dõi và kiểm soát các mô hình trọng lượng mở trong các lĩnh vực phức tạp.
Tính khả dụng và hỗ trợ hệ sinh thái
Các mô hình gpt-oss hiện có sẵn trên Hugging Face, với hỗ trợ dựng sẵn thông qua các nền tảng triển khai chính bao gồm Azure, AWS, Databricks, Cloudflare, Vercel, Together AI, OpenRouter và các nền tảng khác. Các đối tác phần cứng bao gồm NVIDIA, AMD và Cerebras, và Microsoft đang cung cấp các bản dựng được tối ưu hóa bằng GPU trên Windows thông qua ONNX Runtime.
OpenAI cũng đã công bố Thử thách Red Teaming trị giá 500.000 đô la được tổ chức trên Kaggle, mời các nhà nghiên cứu và nhà phát triển khám phá giới hạn của gpt-oss và xác định các con đường lạm dụng mới. Một báo cáo công khai và một bộ dữ liệu đánh giá mã nguồn mở sẽ được theo dõi, nhằm mục đích đẩy nhanh nghiên cứu an toàn mô hình mở trong cộng đồng AI.
Những người áp dụng sớm như AI Sweden, Orange và Snowflake đã hợp tác với OpenAI để khám phá các triển khai khác nhau, từ tinh chỉnh cục bộ đến các trường hợp sử dụng tại chỗ an toàn. OpenAI mô tả việc ra mắt này là một lời mời các nhà phát triển, doanh nghiệp và chính phủ chạy các mô hình ngôn ngữ hiện đại theo các điều khoản của riêng họ.
Mặc dù OpenAI chưa cam kết một nhịp điệu cố định cho các bản phát hành trọng lượng mở trong tương lai, nhưng nó báo hiệu rằng gpt-oss đại diện cho một sự mở rộng chiến lược trong phương pháp tiếp cận của nó — cân bằng giữa tính mở với các phương pháp luận an toàn được liên kết để định hình cách các mô hình lớn được chia sẻ và quản lý trong những năm tới.
Câu hỏi lớn: với rất nhiều sự cạnh tranh trong AI mã nguồn mở, liệu những nỗ lực của OpenAI có được đền đáp?
OpenAI tham gia lại thị trường mô hình mã nguồn mở trong thời điểm cạnh tranh nhất từ trước đến nay.
Đứng đầu bảng xếp hạng chuẩn AI công khai, các mô hình biên giới của Hoa Kỳ vẫn là độc quyền — OpenAI (GPT-4o/o3), Google (Gemini) và Anthropic (Claude).
Nhưng giờ đây, họ cạnh tranh trực tiếp với một làn sóng các đối thủ cạnh tranh trọng lượng mở. Từ Trung Quốc: DeepSeek-R1(mã nguồn mở, MIT) và DeepSeek-V3 (trọng lượng mở theo Giấy phép mô hình DeepSeek cho phép sử dụng thương mại); Qwen 3 của Alibaba(trọng lượng mở, Apache-2.0); Kimi K2 của MoonshotAI(trọng lượng mở; kho lưu trữ công khai và thẻ mô hình); và GLM-4.5 của Z.ai(cũng được cấp phép Apache 2.0).
Mistral của Châu Âu (Mixtral/Mistral, trọng lượng mở, Apache-2.0) neo giữ sự thúc đẩy của EU; Falcon 2/3 của UAE xuất bản trọng lượng mở theo giấy phép dựa trên Apache của TII. Trong trại trọng lượng mở của Hoa Kỳ, Llama 3.1 của Meta được vận chuyển theo giấy phép cộng đồng (có sẵn nguồn), Gemma của Google theo điều khoản Gemma (trọng lượng mở với các hạn chế sử dụng) và Phi-3.5 của Microsoft theo MIT.
Sự kéo của nhà phát triển phản ánh sự phân chia đó. Trên Hugging Face, Qwen2.5-7B-Instruct (trọng lượng mở, Apache-2.0) nằm gần đầu theo “lượt tải xuống tháng trước”, trong khi DeepSeek-R1 (MIT) và DeepSeek-V3 (trọng lượng mở được cấp phép mô hình) cũng đăng lực kéo lớn. Những người trung thành với trọng lượng mở Mistral-7B / Mixtral (Apache-2.0), Llama-3.1-8B/70B (giấy phép cộng đồng Meta), Gemma-2 (điều khoản Gemma), Phi-3.5 (MIT), GLM-4.5 (trọng lượng mở) và **Falco
Link bài viết gốc
- Tags:
- Ai
- 06 August 2025
- Venturebeat.com