Anthropic đang ủng hộ dự luật SB 53

Thông báo về việc Anthropic ủng hộ dự luật SB 53.

  • 6 min read
Anthropic đang ủng hộ dự luật SB 53
Thông báo về việc Anthropic ủng hộ dự luật SB 53.

Anthropic ủng hộ dự luật SB 53

Anthropic ủng hộ SB 53, dự luật của California điều chỉnh các hệ thống AI mạnh mẽ được xây dựng bởi các nhà phát triển AI tiên tiến như Anthropic. Chúng tôi đã từ lâu ủng hộ việc điều chỉnh AI một cách cẩn trọng và sự ủng hộ của chúng tôi đối với dự luật này được đưa ra sau khi xem xét kỹ lưỡng những bài học kinh nghiệm từ nỗ lực điều chỉnh AI trước đây của California (SB 1047). Mặc dù chúng tôi tin rằng an toàn AI tiên tiến tốt nhất nên được giải quyết ở cấp liên bang thay vì một mớ hỗn độn các quy định của tiểu bang, nhưng những tiến bộ mạnh mẽ của AI sẽ không chờ đợi sự đồng thuận ở Washington.

Thống đốc Newsom đã thành lập Nhóm Công tác Chính sách Chung của California — một nhóm các học giả và chuyên gia trong ngành — để đưa ra các khuyến nghị về quản trị AI. Nhóm công tác đã ủng hộ cách tiếp cận “tin tưởng nhưng cần xác minh”, và SB 53 của Thượng nghị sĩ Scott Wiener thực hiện nguyên tắc này thông qua các yêu cầu công khai chứ không phải các nhiệm vụ kỹ thuật mang tính quy định gây khó khăn cho các nỗ lực năm ngoái.

Những gì SB 53 đạt được

SB 53 sẽ yêu cầu các công ty lớn phát triển các hệ thống AI mạnh mẽ nhất phải:

  • Phát triển và công bố các khung an toàn, mô tả cách họ quản lý, đánh giá và giảm thiểu rủi ro thảm khốc — những rủi ro có thể dự đoán được và góp phần đáng kể vào một vụ tai nạn hàng loạt hoặc thiệt hại tài chính lớn.
  • Phát hành báo cáo minh bạch công khai tóm tắt đánh giá rủi ro thảm khốc của họ và các bước được thực hiện để đáp ứng các khung tương ứng trước khi triển khai các mô hình mới mạnh mẽ.
  • Báo cáo các sự cố an toàn quan trọng cho tiểu bang trong vòng 15 ngày, và thậm chí công khai các tóm tắt về bất kỳ đánh giá nào về khả năng rủi ro thảm khốc từ việc sử dụng các mô hình được triển khai nội bộ.
  • Cung cấp sự bảo vệ người tố cáo rõ ràng bao gồm các vi phạm các yêu cầu này cũng như các mối nguy hiểm cụ thể và đáng kể đối với sức khỏe/an toàn cộng đồng do rủi ro thảm khốc.
  • Chịu trách nhiệm trước công chúng về các cam kết được đưa ra trong khung của họ hoặc phải đối mặt với các hình phạt tiền tệ.

Những yêu cầu này sẽ chính thức hóa các thực tiễn mà Anthropic và nhiều công ty AI tiên tiến khác đã thực hiện. Tại Anthropic, chúng tôi công bố Chính sách mở rộng có trách nhiệm của chúng tôi, mô tả chi tiết cách chúng tôi đánh giá và giảm thiểu rủi ro khi các mô hình của chúng tôi trở nên mạnh mẽ hơn. Chúng tôi phát hành thẻ hệ thống toàn diện ghi lại khả năng và hạn chế của mô hình. Các phòng thí nghiệm tiên tiến khác (Google DeepMind, OpenAI, Microsoft) đã áp dụng các phương pháp tương tự trong khi cạnh tranh mạnh mẽ ở lĩnh vực tiên tiến. Hiện tại, tất cả các mô hình được đề cập sẽ bị ràng buộc về mặt pháp lý theo tiêu chuẩn này. Dự luật cũng tập trung thích hợp vào các công ty lớn phát triển các hệ thống AI mạnh mẽ nhất, đồng thời cung cấp các ngoại lệ cho các công ty khởi nghiệp và các công ty nhỏ có ít khả năng phát triển các mô hình mạnh mẽ và không nên chịu gánh nặng quản lý không cần thiết.

Các yêu cầu minh bạch của SB 53 sẽ có tác động quan trọng đến an toàn AI tiên tiến. Nếu không có nó, các phòng thí nghiệm có các mô hình ngày càng mạnh mẽ có thể phải đối mặt với những động cơ ngày càng tăng để giảm bớt các chương trình an toàn và công khai của chính họ để cạnh tranh. Nhưng với SB 53, các nhà phát triển có thể cạnh tranh trong khi đảm bảo họ vẫn minh bạch về khả năng AI gây ra rủi ro cho an toàn công cộng, tạo ra một sân chơi bình đẳng nơi việc công khai là bắt buộc, không phải tùy chọn.

Nhìn về phía trước

SB 53 cung cấp một nền tảng pháp lý vững chắc, nhưng chúng ta có thể và nên xây dựng dựa trên tiến bộ này trong các lĩnh vực sau đây và chúng tôi mong muốn được hợp tác với các nhà hoạch định chính sách để làm như vậy:

  • Hiện tại, dự luật quyết định hệ thống AI nào cần điều chỉnh dựa trên lượng năng lượng tính toán (FLOPS) được sử dụng để đào tạo chúng. Ngưỡng hiện tại (10^26 FLOPS) là một điểm xuất phát chấp nhận được nhưng luôn có rủi ro là một số mô hình mạnh mẽ có thể không được bao gồm.
  • Tương tự, các nhà phát triển nên được yêu cầu cung cấp thêm chi tiết về các bài kiểm tra, đánh giá và biện pháp giảm thiểu mà họ thực hiện. Khi chúng tôi chia sẻ nghiên cứu an toàn, ghi lại thử nghiệm nhóm đỏ của mình và giải thích các quyết định triển khai của mình — như chúng tôi đã làm cùng với các bên liên quan trong ngành thông qua Diễn đàn Mô hình Tiên tiến — điều đó sẽ củng cố chứ không làm suy yếu công việc của chúng tôi.
  • Cuối cùng, các quy định cần phải phát triển khi công nghệ AI tiến bộ. Cơ quan quản lý nên có khả năng cập nhật các quy tắc khi cần thiết để bắt kịp với những phát triển mới và duy trì sự cân bằng đúng đắn giữa an toàn và đổi mới.

Chúng tôi khen ngợi Thượng nghị sĩ Wiener và Thống đốc Newsom về vai trò lãnh đạo của họ trong việc quản trị AI có trách nhiệm. Vấn đề không phải là liệu chúng ta có cần quản trị AI hay không — mà là liệu chúng ta sẽ phát triển nó một cách chu đáo ngày hôm nay hay phản ứng một cách bị động vào ngày mai. SB 53 cung cấp một con đường vững chắc hướng tới điều trước đây. Chúng tôi khuyến khích California thông qua nó và chúng tôi mong muốn được hợp tác với các nhà hoạch định chính sách ở Washington và trên toàn thế giới để phát triển các phương pháp toàn diện bảo vệ lợi ích công cộng đồng thời duy trì vị thế lãnh đạo AI của Mỹ.

(Lưu ý: Hình ảnh và các liên kết được giữ nguyên trong bản dịch.)

Recommended for You

Giới thiệu Hội đồng Tư vấn An ninh Quốc gia và Khu vực Công Anthropic

Giới thiệu Hội đồng Tư vấn An ninh Quốc gia và Khu vực Công Anthropic

Bài viết này giới thiệu Hội đồng Tư vấn An ninh Quốc gia và Khu vực Công Anthropic.

Phát hiện và chống lại việc sử dụng AI sai mục đích- Tháng 8 năm 2025

Phát hiện và chống lại việc sử dụng AI sai mục đích- Tháng 8 năm 2025

Bài viết này thảo luận về việc phát hiện và chống lại việc sử dụng AI sai mục đích.