Phép tính AI mới Lợi thế chi phí 80% của Google so với hệ sinh thái của OpenAI
Phép tính AI mới Lợi thế chi phí 80% của Google so với hệ sinh thái của OpenAI
- 14 min read
Tính toán AI mới: Lợi thế chi phí 80% của Google so với hệ sinh thái của OpenAI
Tốc độ đổi mới AI tạo sinh không có dấu hiệu chậm lại. Chỉ trong vài tuần qua, OpenAI đã tung ra các mô hình suy luận mạnh mẽ o3 và o4-mini, cùng với dòng GPT-4.1, trong khi Google đáp trả bằng Gemini 2.5 Flash, nhanh chóng lặp lại Gemini 2.5 Pro hàng đầu của mình được phát hành ngay trước đó. Đối với các nhà lãnh đạo kỹ thuật doanh nghiệp điều hướng bối cảnh chóng mặt này, việc chọn nền tảng AI phù hợp đòi hỏi phải xem xét vượt ra ngoài các tiêu chuẩn điểm chuẩn mô hình đang thay đổi nhanh chóng.
Mặc dù điểm chuẩn giữa các mô hình thu hút sự chú ý, nhưng quyết định của các nhà lãnh đạo kỹ thuật còn đi sâu hơn nhiều. Việc chọn một nền tảng AI là một cam kết đối với một hệ sinh thái, ảnh hưởng đến mọi thứ, từ chi phí tính toán cốt lõi và chiến lược phát triển tác nhân đến độ tin cậy của mô hình và tích hợp doanh nghiệp.
Nhưng có lẽ yếu tố khác biệt rõ rệt nhất, ẩn sâu bên dưới bề mặt nhưng có ý nghĩa sâu sắc về lâu dài, nằm ở tính kinh tế của phần cứng cung cấp năng lượng cho những gã khổng lồ AI này. Google có lợi thế chi phí rất lớn nhờ silicon tùy chỉnh của mình, có khả năng chạy khối lượng công việc AI của mình với chi phí chỉ bằng một phần chi phí mà OpenAI phải gánh chịu khi dựa vào GPU chiếm ưu thế trên thị trường (và có tỷ suất lợi nhuận cao) của Nvidia.
Phân tích này đi sâu hơn các điểm chuẩn để so sánh hệ sinh thái AI của Google và OpenAI/Microsoft trên các yếu tố quan trọng mà các doanh nghiệp phải xem xét ngày nay: sự khác biệt đáng kể về tính kinh tế tính toán, các chiến lược khác nhau để xây dựng các tác nhân AI, sự đánh đổi quan trọng về khả năng và độ tin cậy của mô hình, và thực tế về sự phù hợp và phân phối của doanh nghiệp.
1. Tính kinh tế tính toán: “Vũ khí bí mật” TPU của Google so với thuế Nvidia
Lợi thế quan trọng nhất, nhưng thường ít được thảo luận nhất mà Google nắm giữ là “vũ khí bí mật” của nó: khoản đầu tư kéo dài hàng thập kỷ vào các Đơn vị xử lý tensor (TPU) tùy chỉnh. OpenAI và thị trường rộng lớn hơn phụ thuộc rất nhiều vào các GPU mạnh mẽ nhưng đắt tiền của Nvidia (như H100 và A100). Mặt khác, Google tự thiết kế và triển khai các TPU của riêng mình, như thế hệ Ironwood mới được công bố gần đây, cho khối lượng công việc AI cốt lõi của mình. Điều này bao gồm đào tạo và phục vụ các mô hình Gemini.
Tại sao điều này lại quan trọng? Nó tạo ra một sự khác biệt rất lớn về chi phí.
GPU Nvidia có tỷ suất lợi nhuận gộp đáng kinh ngạc, được các nhà phân tích ước tính là trong khoảng 80% cho các chip trung tâm dữ liệu như H100 và GPU B100 sắp tới. Điều này có nghĩa là OpenAI (thông qua Microsoft Azure) phải trả một khoản phí bảo hiểm lớn - “thuế Nvidia” - cho sức mạnh tính toán của mình. Google, bằng cách tự sản xuất TPU, có hiệu quả bỏ qua mức tăng giá này.
Trong khi sản xuất GPU có thể tốn của Nvidia từ 3.000 đến 5.000 đô la, thì các siêu công ty tỷ đô như Microsoft (cung cấp cho OpenAI) trả hơn 20.000 đến 35.000 đô la cho mỗi đơn vị với số lượng lớn, theo các báo cáo. Các cuộc trò chuyện và phân tích trong ngành cho thấy rằng Google có thể thu được sức mạnh tính toán AI của mình với chi phí bằng khoảng 20% chi phí mà những người mua GPU Nvidia cao cấp phải chịu. Mặc dù các con số chính xác là bí mật nội bộ, nhưng hàm ý là lợi thế hiệu quả chi phí gấp 4-6 lần trên mỗi đơn vị tính toán cho Google ở cấp độ phần cứng.
Lợi thế cấu trúc này được phản ánh trong giá API. So sánh các mô hình hàng đầu, o3 của OpenAI đắt hơn khoảng 8 lần đối với các mã thông báo đầu vào và đắt hơn 4 lần đối với các mã thông báo đầu ra so với Gemini 2.5 Pro của Google (đối với độ dài ngữ cảnh tiêu chuẩn).
Sự khác biệt về chi phí này không phải là lý thuyết suông; nó có những ý nghĩa chiến lược sâu sắc. Google có thể duy trì giá thấp hơn và cung cấp “trí thông minh trên mỗi đô la” tốt hơn, mang lại cho các doanh nghiệp Tổng chi phí sở hữu (TCO) dài hạn có thể dự đoán được hơn - và đó chính xác là những gì nó đang làm ngay bây giờ trong thực tế.
Trong khi đó, chi phí của OpenAI vốn gắn liền với sức mạnh định giá của Nvidia và các điều khoản trong thỏa thuận Azure của nó. Thật vậy, chi phí tính toán chiếm khoảng 55-60% tổng chi phí hoạt động 9 tỷ đô la của OpenAI vào năm 2024, theo một số báo cáo và dự kiến sẽ vượt quá 80% vào năm 2025 khi chúng mở rộng quy mô. Mặc dù tăng trưởng doanh thu dự kiến của OpenAI là rất lớn - có khả năng đạt 125 tỷ đô la vào năm 2029 theo dự báo nội bộ được báo cáo - nhưng việc quản lý chi tiêu tính toán này vẫn là một thách thức quan trọng, thúc đẩy việc theo đuổi silicon tùy chỉnh của họ.
2. Khung tác nhân: Cách tiếp cận hệ sinh thái mở của Google so với cách tiếp cận tích hợp của OpenAI
Ngoài phần cứng, hai gã khổng lồ đang theo đuổi các chiến lược khác nhau để xây dựng và triển khai các tác nhân AI sẵn sàng tự động hóa quy trình làm việc của doanh nghiệp.
Google đang nỗ lực rõ ràng để có khả năng tương tác và một hệ sinh thái mở hơn. Tại Cloud Next hai tuần trước, họ đã công bố giao thức Tác nhân-với-Tác nhân (A2A), được thiết kế để cho phép các tác nhân được xây dựng trên các nền tảng khác nhau giao tiếp, cùng với Bộ phát triển tác nhân (ADK) và trung tâm Agentspace để khám phá và quản lý các tác nhân. Mặc dù việc áp dụng A2A phải đối mặt với những trở ngại - những người chơi quan trọng như Anthropic chưa ký hợp đồng (VentureBeat đã liên hệ với Anthropic về điều này, nhưng Anthropic từ chối bình luận) - và một số nhà phát triển tranh luận về sự cần thiết của nó cùng với Giao thức ngữ cảnh mô hình (MCP) hiện có của Anthropic. Ý định của Google là rõ ràng: thúc đẩy một thị trường tác nhân đa nhà cung cấp, có khả năng được lưu trữ trong Agent Garden của mình hoặc thông qua một Cửa hàng ứng dụng tác nhân được đồn đại.
Ngược lại, OpenAI dường như tập trung vào việc tạo ra các tác nhân sử dụng công cụ mạnh mẽ được tích hợp chặt chẽ trong ngăn xếp của riêng mình. Mô hình o3 mới minh họa điều này, có khả năng thực hiện hàng trăm lệnh gọi công cụ trong một chuỗi lý luận duy nhất. Các nhà phát triển tận dụng API phản hồi và SDK tác nhân, cùng với các công cụ như Codex CLI mới, để xây dựng các tác nhân phức tạp hoạt động trong ranh giới tin cậy của OpenAI/Azure. Mặc dù các khung như Autogen của Microsoft cung cấp một số tính linh hoạt, nhưng chiến lược cốt lõi của OpenAI dường như ít tập trung vào giao tiếp đa nền tảng hơn và tập trung nhiều hơn vào việc tối đa hóa khả năng của tác nhân theo chiều dọc trong môi trường được kiểm soát của mình.
- Kết luận của doanh nghiệp: Các công ty ưu tiên tính linh hoạt và khả năng kết hợp các tác nhân từ nhiều nhà cung cấp khác nhau (ví dụ: cắm một tác nhân Salesforce vào Vertex AI) có thể thấy cách tiếp cận mở của Google hấp dẫn. Những người đầu tư sâu vào hệ sinh thái Azure/Microsoft hoặc thích một ngăn xếp tác nhân được quản lý theo chiều dọc, hiệu suất cao hơn có thể nghiêng về OpenAI.
3. Khả năng của mô hình: tính tương đương, hiệu suất và các điểm khó khăn
Chu kỳ phát hành không ngừng có nghĩa là vị trí dẫn đầu mô hình là phù du. Trong khi o3 của OpenAI hiện vượt trội hơn Gemini 2.5 Pro trên một số điểm chuẩn mã hóa như SWE-Bench đã được xác minh và Aider, thì Gemini 2.5 Pro phù hợp hoặc dẫn đầu trên các điểm chuẩn khác như GPQA và AIME. Gemini 2.5 Pro cũng là người dẫn đầu chung trên Bảng xếp hạng LLM Arena. Tuy nhiên, đối với nhiều trường hợp sử dụng của doanh nghiệp, các mô hình đã đạt đến sự tương đương sơ bộ về các khả năng cốt lõi.
Sự khác biệt thực sự nằm ở sự đánh đổi khác biệt của chúng:
-
Ngữ cảnh so với Độ sâu lý luận: Gemini 2.5 Pro tự hào có một cửa sổ ngữ cảnh khổng lồ 1 triệu mã thông báo (với kế hoạch 2M), lý tưởng để xử lý các cơ sở mã hoặc bộ tài liệu lớn. O3 của OpenAI cung cấp cửa sổ 200k nhưng nhấn mạnh vào lý luận sâu sắc, được hỗ trợ bởi công cụ trong một lượt duy nhất, được kích hoạt bởi phương pháp học tăng cường của nó.
-
Độ tin cậy so với Rủi ro: Điều này đang nổi lên như một yếu tố khác biệt quan trọng. Trong khi o3 thể hiện khả năng lý luận ấn tượng, thẻ mô hình riêng của OpenAI cho 03 tiết lộ rằng nó tạo ra ảo giác nhiều hơn đáng kể (gấp 2 lần tỷ lệ o1 trên PersonQA). Một số phân tích cho thấy điều này có thể bắt nguồn từ các cơ chế lý luận và sử dụng công cụ phức tạp của nó. Gemini 2.5 Pro, mặc dù đôi khi bị coi là ít đổi mới hơn về cấu trúc đầu ra, nhưng thường được người dùng mô tả là đáng tin cậy và có thể dự đoán hơn cho các tác vụ của doanh nghiệp. Các doanh nghiệp phải cân nhắc các khả năng tiên tiến của o3 so với rủi ro ảo giác được ghi nhận này.
-
Kết luận của doanh nghiệp: Mô hình “tốt nhất” phụ thuộc vào nhiệm vụ. Để phân tích một lượng lớn ngữ cảnh hoặc ưu tiên các đầu ra có thể dự đoán được, Gemini 2.5 Pro có lợi thế hơn. Đối với các nhiệm vụ đòi hỏi lý luận đa công cụ sâu sắc nhất, trong đó rủi ro ảo giác có thể được quản lý cẩn thận, o3 là một đối thủ mạnh. Như Sam Witteveen đã lưu ý trong podcast chuyên sâu của chúng tôi về vấn đề này, việc kiểm tra nghiêm ngặt trong các trường hợp sử dụng cụ thể của doanh nghiệp là rất cần thiết.
4. Phù hợp và phân phối của doanh nghiệp: chiều sâu tích hợp so với phạm vi tiếp cận thị trường
Cuối cùng, việc áp dụng thường phụ thuộc vào mức độ dễ dàng của một nền tảng phù hợp với cơ sở hạ tầng và quy trình làm việc hiện có của một doanh nghiệp.
Sức mạnh của Google nằm ở sự tích hợp sâu sắc cho khách hàng Google Cloud và Workspace hiện tại. Các mô hình Gemini, Vertex AI, Agentspace và các công cụ như BigQuery được thiết kế để hoạt động liền mạch với nhau, cung cấp một mặt phẳng điều khiển thống nhất, quản trị dữ liệu và có khả năng thời gian có giá trị nhanh hơn cho các công ty đã đầu tư vào hệ sinh thái của Google. Google đang tích cực thu hút các doanh nghiệp lớn, giới thiệu các triển khai với các công ty như Wendy’s, Wayfair và Wells Fargo.
OpenAI, thông qua Microsoft, tự hào có phạm vi tiếp cận và khả năng tiếp cận thị trường vô song. Cơ sở người dùng khổng lồ của ChatGPT (~ 800M MAU) tạo ra sự quen thuộc rộng rãi. Quan trọng hơn, Microsoft đang tích cực nhúng các mô hình OpenAI (bao gồm cả dòng o mới nhất) vào Microsoft 365 Copilot và các dịch vụ Azure phổ biến của mình, giúp các khả năng AI mạnh mẽ có sẵn cho hàng trăm triệu người dùng doanh nghiệp, thường là trong các công cụ họ đã sử dụng hàng ngày. Đối với các tổ chức đã được tiêu chuẩn hóa trên Azure và Microsoft 365, việc áp dụng OpenAI có thể là một phần mở rộng tự nhiên hơn. Hơn nữa, việc sử dụng rộng rãi API OpenAI bởi các nhà phát triển có nghĩa là nhiều lời nhắc và quy trình làm việc của doanh nghiệp đã được tối ưu hóa cho các mô hình OpenAI.
- Quyết định chiến lược: Sự lựa chọn thường quy về mối quan hệ nhà cung cấp hiện có. Google cung cấp một câu chuyện tích hợp hấp dẫn cho khách hàng hiện tại của mình. OpenAI, được cung cấp bởi công cụ phân phối của Microsoft, cung cấp khả năng tiếp cận rộng rãi và có khả năng áp dụng dễ dàng hơn cho số lượng lớn các doanh nghiệp tập trung vào Microsoft.
Google so với OpenAI/Microsoft có sự đánh đổi cho các doanh nghiệp
Cuộc chiến nền tảng AI tạo sinh giữa Google và OpenAI/Microsoft đã vượt xa các so sánh mô hình đơn giản. Mặc dù cả hai đều cung cấp các khả năng hiện đại, nhưng chúng đại diện cho các cược chiến lược khác nhau và đưa ra những lợi thế và sự đánh đổi khác biệt cho doanh nghiệp.
Các doanh nghiệp phải cân nhắc các cách tiếp cận khác nhau đối với khung tác nhân, sự đánh đổi sắc thái giữa các khả năng của mô hình như độ dài ngữ cảnh so với lý luận tiên tiến và tính thực tế của tích hợp doanh nghiệp và phạm vi tiếp cận phân phối.
Tuy nhiên, bao trùm tất cả các yếu tố này là thực tế khắc nghiệt của chi phí tính toán, nổi lên như có lẽ là yếu tố khác biệt dài hạn quan trọng và xác định nhất, đặc biệt nếu OpenAI không quản lý để giải quyết nó một cách nhanh chóng. Chiến lược TPU tích hợp theo chiều dọc của Google, cho phép nó có khả năng bỏ qua “Thuế Nvidia” ~ 80% được nhúng trong giá GPU vốn đang đè nặng lên OpenAI, đại diện cho một lợi thế kinh tế cơ bản, có khả năng là một lợi thế thay đổi cuộc chơi.
Đây không chỉ là một sự khác biệt nhỏ về giá; nó ảnh hưởng đến mọi thứ, từ khả năng chi trả API và khả năng dự đoán TCO dài hạn đến khả năng mở rộng quy mô đơn thuần của các triển khai AI. Khi khối lượng công việc AI tăng theo cấp số nhân, nền tảng có động cơ kinh tế bền vững hơn - được thúc đẩy bởi hiệu quả chi phí phần cứng - sẽ có một lợi thế chiến lược mạnh mẽ. Google đang tận dụng lợi thế này đồng thời thúc đẩy một tầm nhìn mở cho khả năng tương tác của tác nhân.
OpenAI, được hỗ trợ bởi quy mô của Microsoft, chống lại bằng các mô hình sử dụng công cụ tích hợp sâu và phạm vi tiếp cận thị trường vô song, mặc dù vẫn còn những câu hỏi về cấu trúc chi phí và độ tin cậy của mô hình.
Để đưa ra lựa chọn đúng đắn, các nhà lãnh đạo kỹ thuật doanh nghiệp phải xem xét các tiêu chuẩn điểm chuẩn và đánh giá các hệ sinh thái này dựa trên các tác động TCO dài hạn, cách tiếp cận ưa thích của họ đối với chiến lược và tính mở của tác nhân, khả năng chịu đựng rủi ro độ tin cậy của mô hình so với sức mạnh lý luận thô, ngăn xếp công nghệ hiện có của họ và nhu cầu ứng dụng cụ thể của họ.
Link bài viết gốc
- Tags:
- Ai
- 26 April 2025
- Venturebeat.com