Từ 'đuổi kịp' đến 'bắt kịp chúng tôi' Cách Google âm thầm dẫn đầu trong lĩnh vực AI doanh nghiệp
- 31 min read
Từ “đuổi kịp” đến “đuổi chúng tôi”: Cách Google lặng lẽ dẫn đầu trong lĩnh vực AI doanh nghiệp
Google đã vượt lên dẫn đầu trong cuộc đua AI doanh nghiệp sau những vấp ngã bị cho là. VentureBeat trình bày chi tiết về các mô hình Gemini, lợi thế TPU và hệ sinh thái đại lý thúc đẩy sự thay đổi của nó.
Chỉ một năm trước, câu chuyện xung quanh Google và AI doanh nghiệp có vẻ như bị mắc kẹt. Mặc dù đã phát minh ra các công nghệ cốt lõi như Transformer, nhưng gã khổng lồ công nghệ dường như luôn ở thế bất lợi, bị lu mờ bởi thành công lan truyền của OpenAI, khả năng viết mã của Anthropic và sự thúc đẩy doanh nghiệp mạnh mẽ của Microsoft.
Nhưng hãy chứng kiến cảnh tượng tại Google Cloud Next 2025 ở Las Vegas tuần trước: Một Google tự tin, được trang bị các mô hình hàng đầu về điểm chuẩn, cơ sở hạ tầng đáng gờm và chiến lược doanh nghiệp gắn kết, tuyên bố một sự thay đổi đáng kinh ngạc. Trong một cuộc họp kín của các nhà phân tích với các giám đốc điều hành cấp cao của Google, một nhà phân tích đã tóm tắt nó. Ông nói, đây có cảm giác như thời điểm Google chuyển từ “đuổi kịp thành đuổi chúng tôi”.
Tình cảm này rằng Google không chỉ bắt kịp mà thậm chí còn vượt qua OpenAI và Microsoft trong cuộc đua AI doanh nghiệp đã chiếm ưu thế trong suốt sự kiện. Và nó không chỉ là sự cường điệu về tiếp thị của Google. Bằng chứng cho thấy Google đã tận dụng năm vừa qua để thực hiện tập trung và chuyên sâu, chuyển đổi tài sản công nghệ của mình thành một nền tảng hiệu quả, tích hợp, nhanh chóng chiếm được cảm tình của những người ra quyết định của doanh nghiệp. Từ việc tự hào có các mô hình AI mạnh mẽ nhất thế giới chạy trên silicon tùy chỉnh siêu hiệu quả, đến một hệ sinh thái đang phát triển mạnh mẽ gồm các tác nhân AI được thiết kế cho các vấn đề kinh doanh thực tế, Google đang đưa ra một lập luận hấp dẫn rằng nó chưa bao giờ thực sự bị mất - mà những vấp ngã của nó đã che giấu một giai đoạn phát triển sâu sắc, nền tảng.
Giờ đây, với việc ngăn xếp tích hợp của mình hoạt động hết công suất, Google dường như đã sẵn sàng để dẫn đầu giai đoạn tiếp theo của cuộc cách mạng AI doanh nghiệp. Và trong các cuộc phỏng vấn của tôi với một số giám đốc điều hành của Google tại Next, họ nói rằng Google có những lợi thế về cơ sở hạ tầng và tích hợp mô hình mà các đối thủ cạnh tranh như OpenAI, Microsoft hoặc AWS sẽ khó có thể sao chép.
Cái bóng của sự nghi ngờ: thừa nhận quá khứ gần đây
Không thể đánh giá cao động lực hiện tại mà không thừa nhận quá khứ gần đây. Google là nơi ra đời của kiến trúc Transformer, vốn đã châm ngòi cho cuộc cách mạng hiện đại trong các mô hình ngôn ngữ lớn (LLM). Google cũng bắt đầu đầu tư vào phần cứng AI chuyên dụng (TPU), hiện đang thúc đẩy hiệu quả hàng đầu trong ngành, cách đây một thập kỷ. Tuy nhiên, cách đây hai năm rưỡi, nó không thể giải thích được khi thấy mình đang ở thế phòng thủ.
ChatGPT của OpenAI đã thu hút trí tưởng tượng của công chúng và sự quan tâm của doanh nghiệp với tốc độ chóng mặt và trở thành ứng dụng phát triển nhanh nhất trong lịch sử. Các đối thủ cạnh tranh như Anthropic đã tạo ra các thị trường ngách trong các lĩnh vực như viết mã.
Các bước công khai của Google đôi khi có vẻ như ngập ngừng hoặc sai sót. Các sai sót trong bản trình diễn Bard khét tiếng vào năm 2023 và tranh cãi sau đó về trình tạo hình ảnh của nó tạo ra những mô tả không chính xác về mặt lịch sử đã nuôi dưỡng một câu chuyện về một công ty có khả năng bị cản trở bởi bộ máy quan liêu nội bộ hoặc sửa chữa quá mức về sự liên kết. Có cảm giác như Google đã bị lạc: Những vấp ngã về AI dường như phù hợp với một mô hình, lần đầu tiên được thể hiện bởi sự chậm trễ ban đầu của Google trong cuộc cạnh tranh trên đám mây, nơi nó vẫn là công ty đứng thứ ba về thị phần sau Amazon và Microsoft. CTO của Google Cloud, Will Grannis, thừa nhận những câu hỏi ban đầu về việc liệu Google Cloud có ủng hộ lâu dài hay không. Ông nhớ lại mọi người đã hỏi ông: “Nó thậm chí có phải là một điều có thật không?”. Câu hỏi vẫn còn đó: Liệu Google có thể chuyển đổi sự xuất sắc trong nghiên cứu và quy mô cơ sở hạ tầng không thể phủ nhận của mình thành sự thống trị AI doanh nghiệp hay không?
Sự thay đổi: một quyết định có ý thức để dẫn đầu
Tuy nhiên, đằng sau hậu trường, một sự thay đổi đang diễn ra, được xúc tác bởi một quyết định có ý thức ở cấp cao nhất để đòi lại vị trí lãnh đạo. Mat Velloso, Phó chủ tịch sản phẩm cho Nền tảng nhà phát triển AI của Google DeepMind, đã mô tả việc cảm nhận một thời điểm quan trọng khi gia nhập Google vào tháng 2 năm 2024, sau khi rời Microsoft. “Khi tôi đến Google, tôi đã nói chuyện với Sundar [Pichai], tôi đã nói chuyện với một số nhà lãnh đạo ở đây và tôi cảm thấy như đó là thời điểm họ quyết định, được rồi, [AI tạo sinh] này là một điều mà ngành rõ ràng quan tâm. Hãy biến nó thành hiện thực,” Velloso chia sẻ trong một cuộc phỏng vấn với VentureBeat trong Next tuần trước.
Sự thúc đẩy mới này không bị cản trở bởi một “cuộc chảy máu chất xám” đáng sợ mà một số người ngoài cuộc cảm thấy đang làm cạn kiệt Google. Trên thực tế, công ty đã lặng lẽ tăng gấp đôi việc thực hiện vào đầu năm 2024 - một năm được đánh dấu bằng việc thuê nhân viên tích cực, thống nhất nội bộ và lực kéo khách hàng. Trong khi các đối thủ cạnh tranh thực hiện những đợt thuê nhân viên ồn ào, Google vẫn giữ được ban lãnh đạo AI cốt lõi của mình, bao gồm Giám đốc điều hành DeepMind Demis Hassabis và Giám đốc điều hành Google Cloud Thomas Kurian, mang lại sự ổn định và chuyên môn sâu rộng.
Hơn nữa, tài năng bắt đầu đổ về sứ mệnh tập trung của Google. Ví dụ: Logan Kilpatrick đã trở lại Google từ OpenAI, bị thu hút bởi cơ hội xây dựng AI nền tảng trong công ty, tạo ra nó. Anh tham gia Velloso trong cái mà anh mô tả là “trải nghiệm từ không đến một”, được giao nhiệm vụ xây dựng lực kéo nhà phát triển cho Gemini từ đầu. Kilpatrick nhớ lại điểm khởi đầu: “Nó giống như đội là tôi vào ngày đầu tiên… chúng tôi thực sự không có người dùng nào trên nền tảng này, chúng tôi không có doanh thu. Không ai quan tâm đến Gemini vào thời điểm này”. Những người quen thuộc với động lực nội bộ cũng ghi công cho những nhà lãnh đạo như Josh Woodward, người đã giúp khởi động AI Studio và hiện dẫn dắt Gemini App và Labs. Gần đây hơn, Noam Shazeer, một đồng tác giả quan trọng của bài báo gốc “Attention Is All You Need” Transformer trong nhiệm kỳ đầu tiên của mình tại Google, đã trở lại công ty vào cuối năm 2024 với tư cách là đồng trưởng kỹ thuật cho dự án Gemini quan trọng.
Nỗ lực phối hợp này, kết hợp những đợt thuê nhân viên này, những đột phá trong nghiên cứu, những cải tiến đối với công nghệ cơ sở dữ liệu của nó và một sự tập trung vào doanh nghiệp sắc bén hơn nói chung, đã bắt đầu mang lại kết quả. Những tiến bộ tích lũy này, kết hợp với cái mà CTO Will Grannis gọi là “hàng trăm” yếu tố nền tảng “tinh chỉnh”, đã tạo tiền đề cho các thông báo tại Next ‘25 và củng cố câu chuyện trở lại của Google.
Trụ cột 1: Gemini 2.5 và kỷ nguyên của các mô hình tư duy
Đúng là một câu thần chú hàng đầu của doanh nghiệp đã trở thành “nó không chỉ là về mô hình”. Xét cho cùng, khoảng cách hiệu suất giữa các mô hình hàng đầu đã thu hẹp đáng kể và những người trong cuộc công nghệ thừa nhận rằng trí thông minh thực sự đến từ công nghệ được đóng gói xung quanh mô hình, chứ không chỉ bản thân mô hình - ví dụ: các công nghệ đại lý cho phép một mô hình sử dụng các công cụ và khám phá web xung quanh nó.
Mặc dù vậy, sở hữu LLM hoạt động tốt nhất một cách rõ ràng là một kỳ tích quan trọng - và một trình xác thực mạnh mẽ, một dấu hiệu cho thấy công ty sở hữu mô hình có những thứ như nghiên cứu vượt trội và kiến trúc công nghệ cơ bản hiệu quả nhất. Với việc phát hành Gemini 2.5 Pro chỉ vài tuần trước Next ‘25, Google đã dứt khoát nắm lấy chiếc áo choàng đó. Nó nhanh chóng đứng đầu bảng xếp hạng Chatbot Arena độc lập, vượt trội đáng kể ngay cả so với biến thể GPT-4o mới nhất của OpenAI và đạt điểm cao trong các điểm chuẩn lý luận nổi tiếng khó khăn như Humanity’s Last Exam. Như Pichai đã tuyên bố trong bài phát biểu quan trọng, “Đây là mô hình AI thông minh nhất của chúng tôi từ trước đến nay. Và nó là mô hình tốt nhất trên thế giới.” Ông đã Tweet riêng rằng mô hình này đã thúc đẩy mức tăng 80% trong việc sử dụng Gemini trong vòng một tháng.
Lần đầu tiên, nhu cầu về Gemini của Google rất cao. Như tôi đã trình bày chi tiết trước đây, ngoài trí thông minh thô của Gemini 2.5 Pro, điều gây ấn tượng với tôi là lý luận có thể chứng minh của nó. Google đã thiết kế một khả năng “tư duy”, cho phép mô hình thực hiện lý luận đa bước, lập kế hoạch và thậm chí tự phản ánh trước khi hoàn thiện phản hồi. Chuỗi suy nghĩ (CoT) có cấu trúc, mạch lạc - sử dụng các bước được đánh số và các dấu đầu dòng phụ - tránh được bản chất lan man hoặc mờ đục của đầu ra từ các mô hình khác từ DeepSeek hoặc OpenAI. Đối với các nhóm kỹ thuật đánh giá đầu ra cho các nhiệm vụ quan trọng, tính minh bạch này cho phép xác nhận, sửa chữa và chuyển hướng với độ tin cậy chưa từng có.
Nhưng quan trọng hơn đối với người dùng doanh nghiệp, Gemini 2.5 Pro cũng thu hẹp đáng kể khoảng cách trong việc viết mã, một trong những lĩnh vực ứng dụng lớn nhất cho AI tạo sinh. Trong một cuộc phỏng vấn với VentureBeat, CTO Fiona Tan, CTO của nhà bán lẻ hàng đầu Wayfair, cho biết sau các thử nghiệm ban đầu, công ty nhận thấy nó “bước lên khá nhiều” và giờ “khá tương đương” với Claude 3.7 Sonnet của Anthropic, trước đây là lựa chọn ưu tiên cho nhiều nhà phát triển.
Google cũng đã thêm một cửa sổ ngữ cảnh khổng lồ 1 triệu mã thông báo vào mô hình, cho phép lý luận trên toàn bộ cơ sở mã hoặc tài liệu dài, vượt xa khả năng của các mô hình OpenAI hoặc Anthropic. (OpenAI đã trả lời trong tuần này với các mô hình có cửa sổ ngữ cảnh lớn tương tự, mặc dù các điểm chuẩn cho thấy Gemini 2.5 Pro vẫn giữ được lợi thế trong lý luận tổng thể). Lợi thế này cho phép các tác vụ kỹ thuật phần mềm phức tạp, đa tệp.
Bổ sung cho Pro là Gemini 2.5 Flash, được công bố tại Next ‘25 và được phát hành chỉ ngày hôm qua. Ngoài ra, một mô hình “tư duy”, Flash được tối ưu hóa cho độ trễ thấp và hiệu quả chi phí. Bạn có thể kiểm soát mức độ lý luận của mô hình và cân bằng hiệu suất với ngân sách của mình. Cách tiếp cận theo cấp bậc này tiếp tục phản ánh chiến lược “trí thông minh trên mỗi đô la” mà các giám đốc điều hành của Google ủng hộ.
Velloso đã hiển thị một biểu đồ cho thấy rằng trên toàn bộ phổ trí thông minh, các mô hình của Google mang lại giá trị tốt nhất. “Nếu chúng ta có cuộc trò chuyện này một năm trước… Tôi sẽ không có gì để cho bạn xem,” Velloso thừa nhận, làm nổi bật sự thay đổi nhanh chóng. “Và bây giờ, giống như, trên toàn hội đồng quản trị, chúng tôi là, nếu bạn đang tìm kiếm bất kỳ mô hình nào, bất kỳ kích thước nào, giống như, nếu bạn không phải là Google, bạn đang mất tiền.” Các biểu đồ tương tự đã được cập nhật để tính đến các bản phát hành mô hình mới nhất của OpenAI trong tuần này, tất cả đều cho thấy cùng một điều: Các mô hình của Google cung cấp trí thông minh tốt nhất trên mỗi đô la. Xem bên dưới:
Đối với bất kỳ mức giá nào, các mô hình của Google cung cấp nhiều trí thông minh hơn các mô hình khác, khoảng 90% thời gian. Nguồn: Pierre Bongrand.
Tan của Wayfair cho biết cô cũng quan sát thấy những cải tiến đầy hứa hẹn về độ trễ với 2.5 Pro: “Gemini 2.5 đã quay lại nhanh hơn”, khiến nó khả thi cho “nhiều loại khả năng hướng đến khách hàng hơn”, cô nói, một điều mà cô nói chưa từng xảy ra trước đây với các mô hình khác. Gemini có thể trở thành mô hình đầu tiên Wayfair sử dụng cho các tương tác với khách hàng này, cô nói.
Khả năng của gia đình Gemini mở rộng sang đa phương thức, tích hợp liền mạch với các mô hình hàng đầu khác của Google như Imagen 3 (tạo hình ảnh), Veo 2 (tạo video), Chirp 3 (âm thanh) và Lyria mới được công bố (văn bản thành nhạc), tất cả đều có thể truy cập thông qua nền tảng của Google cho người dùng Doanh nghiệp, Vertex. Google là công ty duy nhất cung cấp các mô hình truyền thông tạo sinh của riêng mình trên tất cả các phương thức trên nền tảng của mình. Microsoft, AWS và OpenAI phải hợp tác với các công ty khác để làm điều này.
Trụ cột 2: Năng lực cơ sở hạ tầng - động cơ bên dưới nắp ca-pô
Khả năng lặp lại nhanh chóng và phục vụ hiệu quả các mô hình mạnh mẽ này bắt nguồn từ cơ sở hạ tầng có thể nói là vô song của Google, được trau dồi trong nhiều thập kỷ chạy các dịch vụ quy mô hành tinh. Trọng tâm của điều này là Bộ xử lý Tensor (TPU).
Tại Next ‘25, Google đã tiết lộ Ironwood, TPU thế hệ thứ bảy của mình, được thiết kế rõ ràng cho nhu cầu suy luận và “mô hình tư duy”. Quy mô là rất lớn, phù hợp với khối lượng công việc AI khắt khe: Các nhóm Ironwood chứa hơn 9.000 chip được làm mát bằng chất lỏng, cung cấp sức mạnh tính toán được tuyên bố là 42,5 exaflop. Amin Vahdat, Phó chủ tịch của Google về Hệ thống ML, cho biết trên sân khấu tại Next rằng con số này “gấp hơn 24 lần” sức mạnh tính toán của siêu máy tính số 1 hiện tại trên thế giới.
Google tuyên bố rằng Ironwood cung cấp hiệu suất/watt gấp 2 lần so với Trillium, thế hệ TPU trước đó. Điều này rất quan trọng vì khách hàng doanh nghiệp ngày càng nói rằng chi phí năng lượng và tính khả dụng hạn chế việc triển khai AI quy mô lớn.
CTO của Google Cloud, Will Grannis, nhấn mạnh tính nhất quán của tiến trình này. Năm này qua năm khác, Google đang thực hiện các cải tiến gấp 10 lần, 8 lần, 9 lần, 10 lần trong bộ xử lý của mình, ông nói với VentureBeat trong một cuộc phỏng vấn, tạo ra cái mà ông gọi là “luật Moore siêu phàm” cho các bộ tăng tốc AI. Ông cho biết khách hàng đang mua lộ trình của Google, không chỉ công nghệ của nó.
Vị thế của Google đã thúc đẩy khoản đầu tư TPU bền vững này. Nó cần cung cấp năng lượng hiệu quả cho các dịch vụ khổng lồ như Tìm kiếm, YouTube và Gmail cho hơn 2 tỷ người dùng. Điều này đòi hỏi phải phát triển phần cứng tùy chỉnh, được tối ưu hóa từ lâu trước sự bùng nổ AI tạo sinh hiện tại. Mặc dù Meta hoạt động ở quy mô tiêu dùng tương tự, nhưng các đối thủ cạnh tranh khác thiếu động lực nội bộ cụ thể này cho sự phát triển phần cứng AI tích hợp theo chiều dọc, kéo dài cả thập kỷ.
Giờ đây, những khoản đầu tư TPU này đang được đền đáp vì chúng đang thúc đẩy hiệu quả không chỉ cho các ứng dụng của riêng Google, mà chúng còn cho phép Google cung cấp Gemini cho những người dùng khác với trí thông minh trên mỗi đô la tốt hơn, mọi thứ đều bình đẳng.
Bạn hỏi tại sao các đối thủ cạnh tranh của Google không thể mua bộ xử lý hiệu quả từ Nvidia? Đúng là bộ xử lý GPU của Nvidia thống trị quá trình đào tạo trước của LLM. Nhưng nhu cầu thị trường đã đẩy giá của những GPU này lên cao và Nvidia tự hưởng một phần lợi nhuận lành mạnh. Điều này chuyển chi phí đáng kể cho người dùng chip của nó. Và ngoài ra, trong khi đào tạo trước đã thống trị việc sử dụng chip AI cho đến nay, điều này đang thay đổi khi các doanh nghiệp thực sự triển khai các ứng dụng này. Đây là nơi “suy luận” xuất hiện và ở đây, TPU được coi là hiệu quả hơn GPU cho khối lượng công việc ở quy mô lớn.
Khi bạn hỏi các giám đốc điều hành của Google về lợi thế công nghệ chính của họ trong AI đến từ đâu, họ thường quay trở lại TPU là quan trọng nhất. Mark Lohmeyer, Phó chủ tịch điều hành cơ sở hạ tầng điện toán của Google, đã nói một cách dứt khoát: TPU “chắc chắn là một phần khác biệt cao trong những gì chúng tôi làm… OpenAI, họ không có những khả năng đó”.
Điều quan trọng là Google trình bày TPU không phải là riêng biệt, mà là một phần của kiến trúc AI doanh nghiệp rộng lớn hơn, phức tạp hơn. Đối với những người trong cuộc kỹ thuật, người ta hiểu rằng hiệu suất hàng đầu phụ thuộc vào việc tích hợp những đột phá công nghệ ngày càng chuyên biệt. Nhiều bản cập nhật đã được trình bày chi tiết tại Next. Vahdat mô tả đây là một “hệ thống siêu máy tính”, tích hợp phần cứng (TPU, GPU Nvidia mới nhất như Blackwell và Vera Rubin sắp tới, bộ nhớ tiên tiến như Hyperdisk Exapools, Anywhere Cache và Rapid Storage) với một ngăn xếp phần mềm thống nhất. Phần mềm này bao gồm Cluster Director để quản lý bộ tăng tốc, Pathways (thời gian chạy phân tán của Gemini, hiện có sẵn cho khách hàng) và mang các tối ưu hóa như vLLM đến TPU, cho phép di chuyển khối lượng công việc dễ dàng hơn cho những người trước đây trên ngăn xếp Nvidia/PyTorch. Vahdat lập luận rằng hệ thống tích hợp này là lý do tại sao Gemini 2.0 Flash đạt được trí thông minh trên mỗi đô la cao hơn 24 lần so với GPT-4o.
Google cũng đang mở rộng phạm vi cơ sở hạ tầng vật lý của mình. Cloud WAN cung cấp mạng cáp quang riêng có độ trễ thấp dài 2 triệu dặm của Google cho các doanh nghiệp, hứa hẹn hiệu suất nhanh hơn tới 40% và tổng chi phí sở hữu (TCO) thấp hơn 40% so với mạng do khách hàng quản lý.
Hơn nữa, Google Distributed Cloud (GDC) cho phép phần cứng Gemini và Nvidia (thông qua quan hệ đối tác với Dell) chạy trong các môi trường có chủ quyền, tại chỗ hoặc thậm chí bị ngắt kết nối - một khả năng mà Giám đốc điều hành Nvidia Jensen Huang ca ngợi là “cực kỳ khổng lồ” để đưa AI hiện đại vào các ngành và quốc gia được quản lý. Tại Next, Huang gọi cơ sở hạ tầng của Google là tốt nhất trên thế giới: “Không có công ty nào giỏi hơn ở mọi lớp điện toán so với Google và Google Cloud,” ông nói.
Trụ cột 3: Ngăn xếp đầy đủ tích hợp - kết nối các dấu chấm
Lợi thế chiến lược của Google tăng lên khi xem xét cách các mô hình và thành phần cơ sở hạ tầng này được dệt thành một nền tảng gắn kết. Không giống như các đối thủ cạnh tranh, thường dựa vào quan hệ đối tác để lấp đầy khoảng trống, Google kiểm soát gần như mọi lớp, cho phép tích hợp chặt chẽ hơn và chu kỳ đổi mới nhanh hơn.
Vậy tại sao sự tích hợp này lại quan trọng, nếu một đối thủ cạnh tranh như Microsoft có thể chỉ cần hợp tác với OpenAI để phù hợp với bề rộng cơ sở hạ tầng với sức mạnh mô hình LLM? Những người Google mà tôi đã nói chuyện cho biết điều đó tạo ra một sự khác biệt lớn và họ đã đưa ra những giai thoại để chứng minh điều đó.
Lấy ví dụ về sự cải thiện đáng kể của cơ sở dữ liệu doanh nghiệp BigQuery của Google. Cơ sở dữ liệu hiện cung cấp một đồ thị tri thức cho phép LLM tìm kiếm dữ liệu hiệu quả hơn nhiều và hiện tự hào có số lượng khách hàng gấp hơn năm lần so với các đối thủ cạnh tranh như Snowflake và Databricks, VentureBeat đã báo cáo ngày hôm qua. Yasmeen Ahmad, Trưởng phòng Sản phẩm Phân tích Dữ liệu tại Google Cloud, cho biết những cải tiến lớn chỉ có thể thực hiện được vì các nhóm dữ liệu của Google đã làm việc chặt chẽ với nhóm DeepMind. Họ đã giải quyết các trường hợp sử dụng khó giải quyết và điều này dẫn đến cơ sở dữ liệu cung cấp độ chính xác cao hơn 50% dựa trên các truy vấn phổ biến, ít nhất là theo thử nghiệm nội bộ của Google, trong việc lấy đúng dữ liệu so với các đối thủ cạnh tranh gần nhất, Ahmad nói với VentureBeat trong một cuộc phỏng vấn. Ahmad cho biết loại tích hợp sâu rộng trên toàn ngăn xếp này là cách Google đã “vượt bậc” ngành công nghiệp.
Sự gắn kết nội bộ này trái ngược hoàn toàn với động lực “bạn bè-kẻ thù” tại Microsoft. Trong khi Microsoft hợp tác với OpenAI để phân phối các mô hình của mình trên đám mây Azure, thì Microsoft cũng đang xây dựng các mô hình của riêng mình. Mat Velloso, giám đốc điều hành của Google, người hiện đang dẫn dắt chương trình nhà phát triển AI, đã rời Microsoft sau khi thất vọng vì cố gắng điều chỉnh các kế hoạch Copilot của Windows với các dịch vụ mô hình của OpenAI. “Làm thế nào bạn có thể chia sẻ kế hoạch sản phẩm của mình với một công ty khác thực sự cạnh tranh với bạn… Toàn bộ điều này là một sự mâu thuẫn,” anh nhớ lại. “Ở đây tôi ngồi cạnh những người đang xây dựng các mô hình.”
Sự tích hợp này nói lên điều mà các nhà lãnh đạo Google coi là lợi thế cốt lõi của họ: khả năng độc đáo của nó để kết nối chuyên môn sâu rộng trên toàn bộ phổ, từ nghiên cứu nền tảng và xây dựng mô hình đến thiết kế cơ sở hạ tầng và triển khai ứng dụng “quy mô hành tinh”.
Vertex AI đóng vai trò là hệ thần kinh trung ương cho các nỗ lực AI doanh nghiệp của Google. Và sự tích hợp vượt xa các dịch vụ của riêng Google. Model Garden của Vertex cung cấp hơn 200 mô hình được tuyển chọn, bao gồm Google’s, Meta’s Llama 4 và nhiều tùy chọn nguồn mở. Vertex cung cấp các công cụ để điều chỉnh, đánh giá (bao gồm AI-powered Evals, mà Grannis nhấn mạnh là một bộ tăng tốc chính), triển khai và giám sát. Khả năng nền tảng của nó tận dụng các cơ sở dữ liệu AI sẵn sàng bên trong cùng với khả năng tương thích với các cơ sở dữ liệu vectơ bên ngoài. Thêm vào đó, các dịch vụ mới của Google để kết nối các mô hình với Google Search, công cụ tìm kiếm tốt nhất trên thế giới.
Sự tích hợp mở rộng sang Google Workspace. Các tính năng mới được công bố tại Next ‘25, như “Help Me Analyze” trong Trang tính (có, Trang tính hiện có công thức “=AI”), Tổng quan về âm thanh trong Tài liệu và Luồng Workspace, tiếp tục nhúng khả năng của Gemini vào quy trình làm việc hàng ngày, tạo ra một vòng phản hồi mạnh mẽ để Google sử dụng để cải thiện trải nghiệm.
Trong khi thúc đẩy ngăn xếp tích hợp của mình, Google cũng ủng hộ tính cởi mở ở những nơi nó phục vụ hệ sinh thái. Sau khi thúc đẩy việc áp dụng Kubernetes, nó hiện đang quảng bá JAX cho các khung AI và hiện là các giao thức mở để liên lạc giữa các tác nhân (A2A) cùng với sự hỗ trợ cho các tiêu chuẩn hiện có (MCP). Google cũng đang cung cấp hàng trăm trình kết nối đến các nền tảng bên ngoài từ bên trong Agentspace, giao diện thống nhất mới của Google để nhân viên tìm và sử dụng các tác nhân. Khái niệm trung tâm này rất hấp dẫn. Bản trình diễn bài phát biểu quan trọng của Agentspace minh họa điều này. Google cung cấp cho người dùng các tác nhân được xây dựng sẵn hoặc nhân viên hoặc nhà phát triển có thể tự xây dựng bằng các khả năng AI không cần mã. Hoặc họ có thể kéo các tác nhân từ bên ngoài thông qua các trình kết nối A2A. Nó tích hợp vào trình duyệt Chrome để truy cập liền mạch.
Trụ cột 4: Tập trung vào giá trị doanh nghiệp và hệ sinh thái tác nhân
Có lẽ sự thay đổi quan trọng nhất là sự tập trung sắc bén hơn của Google vào việc giải quyết các vấn đề doanh nghiệp cụ thể, đặc biệt thông qua lăng kính của các tác nhân AI. Thomas Kurian, Giám đốc điều hành của Google Cloud, đã vạch ra ba lý do khách hàng chọn Google: nền tảng được tối ưu hóa AI, phương pháp đa đám mây mở cho phép kết nối với CNTT hiện có và sự tập trung sẵn sàng cho doanh nghiệp vào bảo mật, chủ quyền và tuân thủ.
Các tác nhân là chìa khóa cho chiến lược này. Bên cạnh AgentSpace, điều này cũng bao gồm:
Các khối xây dựng: Bộ công cụ phát triển tác nhân (ADK) nguồn mở, được công bố tại Next, đã nhận được sự quan tâm đáng kể từ các nhà phát triển. ADK đơn giản hóa việc tạo ra các hệ thống đa tác nhân, trong khi giao thức Agent2Agent (A2A) được đề xuất nhằm đảm bảo khả năng tương tác, cho phép các tác nhân được xây dựng bằng các công cụ khác nhau (Gemini ADK, LangGraph, CrewAI, v.v.) cộng tác. Grannis của Google cho biết rằng A2A dự đoán các thách thức về quy mô và bảo mật của một tương lai với hàng trăm nghìn tác nhân tương tác tiềm năng.
Giao thức A2A này thực sự quan trọng. Trong một cuộc phỏng vấn nền với VentureBeat tuần này, CISO của một nhà bán lẻ lớn ở Hoa Kỳ, người đã yêu cầu ẩn danh vì sự nhạy cảm xung quanh các vấn đề bảo mật. Nhưng họ cho biết giao thức A2A rất hữu ích vì nhà bán lẻ đang tìm kiếm một giải pháp để phân biệt giữa người thật và bot đang sử dụng các tác nhân để mua sản phẩm. Nhà bán lẻ này muốn tránh bán cho bot đầu cơ và với A2A, việc thương lượng với các tác nhân để xác minh danh tính chủ sở hữu của họ dễ dàng hơn.
Các tác nhân được xây dựng cho mục đích cụ thể: Google giới thiệu các tác nhân chuyên gia được tích hợp vào Agentspace (như NotebookLM, Idea Generation, Deep Research) và làm nổi bật năm danh mục chính đang thu hút lực kéo: Tác nhân khách hàng (cung cấp năng lượng cho các công cụ như Reddit Answers, trợ lý hỗ trợ của Verizon, Wendy’s drive-thru), Tác nhân sáng tạo (được sử dụng bởi WPP, Brandtech, Sphere), Tác nhân dữ liệu (thúc đẩy thông tin chi tiết tại Mattel, Spotify, Bayer), Tác nhân viết mã (Gemini Code Assist) và Tác nhân bảo mật (được tích hợp vào nền tảng Google Unified Security mới).
Chiến lược đại lý toàn diện này dường như đang gây được tiếng vang. Các cuộc trò chuyện với các giám đốc điều hành tại ba doanh nghiệp lớn khác trong tuần qua, cũng nói một cách ẩn danh do sự nhạy cảm cạnh tranh, lặp lại sự nhiệt tình này đối với chiến lược đại lý của Google. Giám đốc điều hành Francis DeSouza của Google Cloud đã xác nhận trong một cuộc phỏng vấn: “Mọi cuộc trò chuyện đều bao gồm AI. Cụ thể, mọi cuộc trò chuyện đều bao gồm các tác nhân.”
Kevin Laughridge, một giám đốc điều hành tại Deloitte, một người dùng lớn các sản phẩm AI của Google và là nhà phân phối chúng cho các công ty khác, đã mô tả thị trường tác nhân là một “cuộc tranh giành đất đai” nơi các động thái ban đầu của Google với các giao thức và nền tảng tích hợp của nó mang lại những lợi thế đáng kể. Laughridge nói trong một cuộc phỏng vấn: “Bất kỳ ai ra ngoài trước và có được nhiều tác nhân nhất thực sự mang lại giá trị - là người sẽ thắng trong cuộc đua này”. Ông cho biết tiến trình của Google là “đáng kinh ngạc”, lưu ý rằng các tác nhân tùy chỉnh mà Deloitte đã xây dựng chỉ một năm trước giờ có thể được sao chép “khỏi hộp” bằng Agentspace. Deloitte đang xây dựng 100 tác nhân trên nền tảng, nhắm mục tiêu vào các chức năng văn phòng giữa như tài chính, rủi ro và kỹ thuật, ông nói.
Các điểm chứng minh khách hàng đang tăng lên. Tại Next, Google đã trích dẫn “hơn 500 khách hàng đang sản xuất” với AI tạo sinh, tăng từ chỉ “hàng tá nguyên mẫu” một năm trước. Nếu Microsoft được coi là đi trước một năm, thì điều đó dường như không còn hiển nhiên như vậy nữa. Với cuộc chiến PR từ tất cả các bên, thật khó để nói ai thực sự chiến thắng ngay bây giờ một cách dứt khoát. Các số liệu khác nhau. Con số 500 của Google không thể so sánh trực tiếp với 400 nghiên cứu điển hình mà Microsoft quảng bá (và Microsoft, để đáp lại, đã nói với VentureBeat tại thời điểm in rằng họ có kế hoạch cập nhật số lượng công khai này lên 600 trong thời gian ngắn, nhấn mạnh hoạt động tiếp thị mạnh mẽ). Và nếu việc phân phối AI của Google thông qua các ứng dụng của nó là đáng kể, thì việc phân phối Copilot của Microsoft thông qua dịch vụ 365 của nó cũng ấn tượng không kém. Cả hai hiện đang tiếp cận hàng triệu nhà phát triển thông qua API.
[Lưu ý của biên tập viên: Hiểu cách các doanh nghiệp đang điều hướng “cuộc tranh giành đất đai của các tác nhân” này và triển khai thành công các giải pháp AI phức tạp này sẽ là trọng tâm của các cuộc thảo luận tại sự kiện Transform của VentureBeat vào ngày 24-25 tháng 6 tới tại San Francisco.]
Nhưng có rất nhiều ví dụ về lực kéo của Google:
- Wendy’s: Triển khai hệ thống lái xe AI đến hàng nghìn địa điểm chỉ trong một năm, cải thiện trải nghiệm của nhân viên và độ chính xác của đơn hàng. CTO của Google Cloud, Will Grannis, lưu ý rằng hệ thống AI có khả năng hiểu tiếng lóng và lọc tiếng ồn xung quanh, giảm đáng kể căng thẳng của các tương tác trực tiếp với khách hàng. Điều đó giải phóng nhân viên để tập trung vào việc chuẩn bị và chất lượng thực phẩm — một sự thay đổi mà Grannis gọi là “một ví dụ tuyệt vời về việc AI hợp lý hóa các hoạt động trong thế giới thực.”
- Salesforce: Công bố một sự mở rộng lớn, cho phép nền tảng của nó chạy trên Google Cloud lần đầu tiên (ngoài AWS), trích dẫn khả năng của Google giúp họ “đổi mới và tối ưu hóa.”
- Honeywell & Intuit: Các công ty trước đây liên kết chặt chẽ với Microsoft và AWS, tương ứng, hiện đang hợp tác với Google Cloud trong các sáng kiến AI.
- Các ngân hàng lớn (Deutsche Bank, Wells Fargo): Tận dụng các tác nhân và Gemini để nghiên cứu, phân tích và hiện đại hóa dịch vụ khách hàng.
- Các nhà bán lẻ (Walmart, Mercado Libre, Lowe’s): Sử dụng tìm kiếm, tác nhân và nền tảng dữ liệu.
Lực kéo doanh nghiệp này thúc đẩy sự tăng trưởng chung của Google Cloud, vượt trội so với AWS và Azure trong ba quý vừa qua. Google Cloud đạt tốc độ chạy hàng năm là 44 tỷ đô la vào năm 2024, tăng từ chỉ 5 tỷ đô la vào năm 2018.
Điều hướng các vùng nước cạnh tranh
Sự thăng tiến của Google không có nghĩa là các đối thủ cạnh tranh đang đứng yên. Việc OpenAI phát hành nhanh chóng trong tuần này GPT-4.1 (tập trung vào viết mã và ngữ cảnh dài) và chuỗi o (lý luận đa phương thức, sử dụng công cụ) chứng minh sự đổi mới liên tục của OpenAI. Hơn nữa, bản cập nhật tính năng tạo hình ảnh mới của OpenAI trong GPT-4o đã thúc đẩy sự tăng trưởng lớn chỉ trong tháng qua, giúp ChatGPT đạt 800 triệu người dùng. Microsoft tiếp tục tận dụng dấu chân doanh nghiệp rộng lớn và quan hệ đối tác OpenAI, trong khi Anthropic vẫn là một đối thủ mạnh, đặc biệt trong các ứng dụng viết mã và an toàn.
Tuy nhiên, không thể phủ nhận rằng câu chuyện của Google đã được cải thiện đáng kể. Chỉ một năm trước, Google được xem là một đối thủ cạnh tranh chậm chạp, ngập ngừng, vụng về, có lẽ sắp bỏ lỡ cơ hội dẫn đầu AI. Thay vào đó, ngăn xếp tích hợp độc đáo và sự kiên định của công ty đã tiết lộ một điều gì đó khác: Google sở hữu các khả năng đẳng cấp thế giới trên toàn bộ phổ - từ thiết kế chip (TPU) và cơ sở hạ tầng toàn cầu đến nghiên cứu mô hình nền tảng (DeepMind), phát triển ứng dụng (Workspace, Search, YouTube) và dịch vụ đám mây doanh nghiệp (Vertex AI, BigQuery, Agentspace). DeSouza tuyên bố thẳng thừng: “Chúng tôi là hyperscaler duy nhất đang tham gia cuộc trò chuyện về mô hình nền tảng”. Quyền sở hữu đầu cuối này cho phép các tối ưu hóa (như “trí thông minh trên mỗi đô la”) và độ sâu tích hợp mà các mô hình dựa trên quan hệ đối tác phải vật lộn để phù hợp. Các đối thủ cạnh tranh thường cần phải kết hợp các phần rời rạc với nhau, có khả năng tạo ra ma sát hoặc giới hạn tốc độ đổi mới.
Thời điểm của Google là bây giờ
Trong khi cuộc đua AI vẫn năng động, Google đã tập hợp tất cả các mảnh này vào thời điểm chính xác mà thị trường yêu cầu chúng. Như Laughridge của Deloitte đã nói, Google đã đạt đến một điểm mà khả năng của nó phù hợp hoàn hảo “nơi thị trường yêu cầu nó”. Nếu bạn đang chờ Google chứng minh bản thân trong AI doanh nghiệp, bạn có thể đã bỏ lỡ khoảnh khắc - nó đã có rồi. Công ty đã phát minh ra nhiều công nghệ cốt lõi cung cấp sức mạnh cho cuộc cách mạng này dường như cuối cùng đã bắt kịp - và hơn thế nữa, giờ đây nó đang đặt ra tốc độ mà các đối thủ cạnh tranh cần phải phù hợp.
Trong video bên dưới, được ghi lại ngay sau Next, chuyên gia AI Sam Witteveen và tôi phân tích bối cảnh hiện tại và các xu hướng mới nổi, và lý do tại sao hệ sinh thái AI của Google cảm thấy rất mạnh mẽ: `
Link bài báo gốc
- Tags:
- Ai
- April 18, 2025
- Venturebeat.com