Một tuyên bố từ Dario Amodei về cam kết của Anthropic đối với sự lãnh đạo AI của Mỹ

Dario Amodei, Giám đốc điều hành của Anthropic, chia sẻ tầm nhìn và cam kết của công ty đối với việc thúc đẩy sự đổi mới và lãnh đạo trong lĩnh vực trí tuệ nhân tạo tại Hoa Kỳ.

  • 10 min read
Một tuyên bố từ Dario Amodei về cam kết của Anthropic đối với sự lãnh đạo AI của Mỹ
Dario Amodei, Giám đốc điều hành của Anthropic, chia sẻ tầm nhìn và cam kết của công ty đối với việc thúc đẩy sự đổi mới và lãnh đạo trong lĩnh vực trí tuệ nhân tạo tại Hoa Kỳ.

Tuyên bố từ Dario Amodei về cam kết của Anthropic đối với vai trò dẫn đầu về AI của Mỹ

Tuyên bố từ CEO Anthropic, Dario Amodei, về cam kết của Anthropic trong việc thúc đẩy vai trò dẫn đầu của Mỹ trong việc xây dựng AI mạnh mẽ và có lợi.

Anthropic được xây dựng dựa trên một nguyên tắc đơn giản: AI nên là động lực cho tiến bộ của con người, không phải hiểm họa. Điều đó có nghĩa là tạo ra các sản phẩm thực sự hữu ích, thẳng thắn nói về rủi ro và lợi ích, và hợp tác với bất kỳ ai nghiêm túc trong việc làm cho điều này đúng đắn. Tôi hoàn toàn đồng ý với những bình luận gần đây của Phó Tổng thống JD Vance về AI – đặc biệt là quan điểm của ông rằng chúng ta cần tối đa hóa các ứng dụng giúp ích cho con người, như những đột phá trong y học và phòng ngừa bệnh tật, đồng thời giảm thiểu các ứng dụng có hại. Quan điểm này vừa khôn ngoan vừa là điều mà công chúng mong muốn một cách áp đảo.

Anthropic là công ty phần mềm phát triển nhanh nhất trong lịch sử, với doanh thu tăng từ mức chạy hàng năm 1 tỷ USD lên 7 tỷ USD trong chín tháng qua, và chúng tôi đã làm được điều này trong khi triển khai AI một cách thận trọng và có trách nhiệm. Có những sản phẩm chúng tôi sẽ không tạo ra và những rủi ro chúng tôi sẽ không chấp nhận, ngay cả khi chúng mang lại lợi nhuận.

Quan điểm lâu dài của chúng tôi là việc quản lý tác động xã hội của AI nên là vấn đề của chính sách thay vì chính trị. Tôi hoàn toàn tin rằng Anthropic, chính quyền và các nhà lãnh đạo thuộc mọi phe phái chính trị đều mong muốn cùng một điều: đảm bảo rằng công nghệ AI mạnh mẽ mang lại lợi ích cho người dân Mỹ và Mỹ tiếp tục duy trì và củng cố vị trí dẫn đầu trong phát triển AI.

Mặc dù chúng tôi có thành tích thường xuyên và minh bạch trong việc truyền đạt các quan điểm của mình, gần đây đã có sự gia tăng các tuyên bố không chính xác về lập trường chính sách của Anthropic. Một số tuyên bố quan trọng đến mức cần phải làm rõ sự thật.

Sự phù hợp của chúng tôi với chính quyền Trump về các lĩnh vực chính sách AI

  • Chúng tôi hợp tác trực tiếp với chính phủ liên bang theo nhiều cách. Vào tháng 7, Bộ Quốc phòng đã trao cho Anthropic một thỏa thuận hai năm trị giá 200 triệu USD để tạo mẫu các khả năng AI tiên tiến nhằm thúc đẩy an ninh quốc gia. Chúng tôi đã hợp tác với Tổng cục Dịch vụ Công cộng (GSA) để cung cấp Claude cho Doanh nghiệp và Claude cho Chính phủ với giá 1 USD trên toàn chính phủ liên bang. Và Claude đang được triển khai trên các mạng bí mật thông qua các đối tác như Palantir và tại Phòng thí nghiệm Quốc gia Lawrence Livermore.

  • Anthropic đã công khai ca ngợi Kế hoạch Hành động AI của Tổng thống Trump. Chúng tôi đã ủng hộ các nỗ lực của Tổng thống nhằm mở rộng cung cấp năng lượng tại Hoa Kỳ để giành chiến thắng trong cuộc đua AI, và tôi đã cá nhân tham dự một hội nghị thượng đỉnh về AI và năng lượng ở Pennsylvania với Tổng thống Trump, nơi ông và tôi đã có một cuộc trò chuyện tốt đẹp về vai trò dẫn đầu của Hoa Kỳ trong AI. Giám đốc Sản phẩm của Anthropic đã tham dự một sự kiện tại Nhà Trắng, nơi chúng tôi cam kết đẩy nhanh các ứng dụng AI trong lĩnh vực chăm sóc sức khỏe, và Trưởng phòng Quan hệ Đối ngoại của chúng tôi đã tham dự sự kiện Lực lượng Đặc nhiệm về Giáo dục AI của Nhà Trắng để hỗ trợ nỗ lực của họ trong việc nâng cao khả năng hiểu biết về AI cho giáo viên.

  • Mọi công ty AI lớn đều tuyển dụng các chuyên gia chính sách từ cả hai đảng và các chính quyền gần đây – Anthropic cũng không ngoại lệ. Chúng tôi đã thuê cả đảng viên Cộng hòa và Dân chủ, và xây dựng một hội đồng tư vấn bao gồm các cựu quan chức cấp cao của chính quyền Trump. Anthropic đưa ra quyết định tuyển dụng dựa trên chuyên môn, sự chính trực và năng lực của ứng viên, chứ không phải dựa trên liên kết chính trị của họ.

  • Chúng tôi (và nhiều tổ chức khác) đã không đồng ý với một đề xuất sửa đổi duy nhất trong Dự luật “One Big Beautiful Bill”: lệnh cấm 10 năm đối với các luật AI cấp tiểu bang, điều này lẽ ra sẽ ngăn chặn mọi hành động mà không có giải pháp thay thế ở cấp liên bang. Điều khoản cụ thể đó đã bị bỏ phiếu bác bỏ bởi cả đảng viên Cộng hòa và Dân chủ với tỷ lệ 99-1 tại Thượng viện. Lập trường lâu dài của chúng tôi là một cách tiếp cận liên bang thống nhất sẽ tốt hơn so với một hệ thống luật pháp chắp vá của các tiểu bang. Tôi đã đề xuất một tiêu chuẩn như vậy nhiều tháng trước và chúng tôi sẵn sàng hợp tác với cả hai đảng để thực hiện điều đó.

Sở thích của chúng tôi đối với một tiêu chuẩn AI quốc gia

  • Trong khi chúng tôi tiếp tục vận động cho tiêu chuẩn liên bang đó, AI đang phát triển nhanh đến mức chúng tôi không thể chờ đợi Quốc hội hành động. Do đó, chúng tôi đã ủng hộ một dự luật được thiết kế cẩn thận ở California, nơi đặt trụ sở của hầu hết các phòng thí nghiệm AI hàng đầu của Mỹ, bao gồm cả Anthropic. Dự luật này, SB 53, yêu cầu các nhà phát triển AI lớn nhất công khai các quy trình an toàn mô hình tiên tiến của họ và được viết để miễn trừ bất kỳ công ty nào có doanh thu gộp hàng năm dưới 500 triệu USD – do đó chỉ áp dụng cho các công ty AI lớn nhất. Anthropic đã ủng hộ việc miễn trừ này để bảo vệ các công ty khởi nghiệp và thực sự đã đề xuất một phiên bản ban đầu của nó.

  • Một số người đã gợi ý rằng chúng tôi quan tâm đến việc gây hại cho hệ sinh thái khởi nghiệp. Các công ty khởi nghiệp là một trong những khách hàng quan trọng nhất của chúng tôi. Chúng tôi hợp tác với hàng chục nghìn công ty khởi nghiệp và hàng trăm vườn ươm cùng các quỹ đầu tư mạo hiểm. Claude đang hỗ trợ một thế hệ hoàn toàn mới các công ty gốc AI. Việc gây tổn hại cho hệ sinh thái đó không có ý nghĩa đối với chúng tôi.

  • Tôi đã nghe những lập luận cho rằng quy định AI của tiểu bang có thể làm chậm ngành công nghiệp AI của Mỹ và trao ưu thế cho Trung Quốc. Nhưng rủi ro thực sự đối với vai trò dẫn đầu về AI của Mỹ không phải là một luật tiểu bang duy nhất chỉ áp dụng cho các công ty lớn nhất – đó là việc lấp đầy các trung tâm dữ liệu của PRC bằng các chip của Hoa Kỳ mà họ không thể tự sản xuất. Chúng tôi đồng ý với các nhà lãnh đạo như Thượng nghị sĩ Tom CottonJosh Hawley rằng điều này sẽ chỉ giúp Đảng Cộng sản Trung Quốc giành chiến thắng trong cuộc đua đến ranh giới AI. Chúng tôi là công ty AI tiên phong duy nhất hạn chế bán dịch vụ AI cho các công ty do PRC kiểm soát, từ bỏ doanh thu ngắn hạn đáng kể để ngăn chặn việc cung cấp năng lượng cho các nền tảng và ứng dụng AI có thể hỗ trợ các dịch vụ quân sự và tình báo của Đảng Cộng sản Trung Quốc.

Tiến bộ của chúng tôi trong một thách thức toàn ngành AI: thiên vị mô hình

  • Một số người đã tuyên bố rằng các mô hình của Anthropic có sự thiên vị chính trị độc nhất. Điều này không chỉ vô căn cứ mà còn trái ngược trực tiếp với dữ liệu. Một nghiên cứu vào tháng 1 từ Viện Manhattan, một tổ chức tư vấn bảo thủ, đã phát hiện ra rằng mô hình chính của Anthropic (tại thời điểm đó, Claude Sonnet 3.5) ít thiên vị chính trị hơn so với các mô hình từ hầu hết các nhà cung cấp lớn khác. Dữ liệu từ một nghiên cứu của Stanford vào tháng 5, về nhận thức của người dùng về sự thiên vị trong các mô hình AI, cho thấy không có lý do gì để chỉ đích danh Anthropic: nhiều mô hình từ các nhà cung cấp khác được đánh giá là thiên vị hơn. Các thẻ hệ thống cho các mô hình mới nhất của chúng tôi, Sonnet 4.5Haiku 4.5, cho thấy chúng tôi đang có những tiến bộ nhanh chóng hướng tới mục tiêu trung lập chính trị của mình.

  • Nhìn chung, không có mô hình AI nào, từ bất kỳ nhà cung cấp nào, hoàn toàn cân bằng về mặt chính trị trong mọi phản hồi. Các mô hình học hỏi từ dữ liệu đào tạo theo những cách chưa được hiểu rõ, và các nhà phát triển không bao giờ hoàn toàn kiểm soát được kết quả của họ. Bất kỳ ai cũng có thể chọn lọc các kết quả từ bất kỳ mô hình nào để làm cho nó có vẻ thiên vị theo một hướng nhất định.

Anthropic cam kết tham gia một cách xây dựng vào các vấn đề chính sách công. Khi chúng tôi đồng ý, chúng tôi nói ra. Khi chúng tôi không đồng ý, chúng tôi đề xuất một giải pháp thay thế để xem xét. Chúng tôi làm điều này bởi vì chúng tôi là một tập đoàn lợi ích công cộng với sứ mệnh đảm bảo rằng AI mang lại lợi ích cho mọi người, và bởi vì chúng tôi muốn duy trì vai trò dẫn đầu của Mỹ trong lĩnh vực AI. Một lần nữa, chúng tôi tin rằng chúng tôi chia sẻ những mục tiêu đó với chính quyền Trump, cả hai viện Quốc hội, và công chúng. Chúng tôi sẽ tiếp tục thẳng thắn và chân thành, và sẽ bảo vệ các chính sách mà chúng tôi tin là đúng đắn. Những gì đang bị đe dọa với công nghệ này là quá lớn để chúng tôi làm khác đi.

Trong những phát biểu gần đây của mình, Phó Tổng thống cũng nói về AI, “Nó tốt hay xấu, hay nó sẽ giúp ích cho chúng ta hay làm hại chúng ta? Câu trả lời có lẽ là cả hai, và chúng ta nên cố gắng tối đa hóa càng nhiều điều tốt và giảm thiểu càng nhiều điều xấu.” Điều đó hoàn toàn phản ánh quan điểm của chúng tôi. Chúng tôi sẵn sàng hợp tác thiện chí với bất kỳ ai, thuộc bất kỳ phe phái chính trị nào, để biến tầm nhìn đó thành hiện thực.

Recommended for You

Anthropic Ký cam kết của Nhà Trắng với Thanh niên Hoa Kỳ- Đầu tư vào Giáo dục AI

Anthropic Ký cam kết của Nhà Trắng với Thanh niên Hoa Kỳ- Đầu tư vào Giáo dục AI

Anthropic tham gia cùng Nhà Trắng và các tổ chức khác trong cam kết đầu tư vào giáo dục AI cho giới trẻ Mỹ, thúc đẩy tương lai của lực lượng lao động.

Anthropic bổ nhiệm Guillaume Princen làm Trưởng bộ phận EMEA và công bố hơn 100 vị trí mới trong khu vực

Anthropic bổ nhiệm Guillaume Princen làm Trưởng bộ phận EMEA và công bố hơn 100 vị trí mới trong khu vực

Anthropic chào đón Guillaume Princen đảm nhận vai trò Trưởng bộ phận EMEA, đồng thời công bố kế hoạch tuyển dụng mở rộng trong khu vực.