Phản hồi của Anthropic đối với báo cáo dự thảo nhóm AI của Thống đốc Newsom
Anthropic đưa ra phản hồi chi tiết của mình đối với báo cáo dự thảo nhóm AI của Thống đốc Newsom, đóng góp vào cuộc thảo luận về quy định AI.
- 4 min read
Phản hồi của Anthropic về báo cáo dự thảo của nhóm công tác AI của Thống đốc Newsom
Bài viết này đăng ngày 19 tháng 3 năm 2025 và có thời gian đọc khoảng 2 phút.
Nội dung bài viết
Tuần này, Nhóm công tác về các Mô hình Tiên tiến AI của Thống đốc California đã công bố báo cáo dự thảo của mình. Chúng tôi đồng ý với trọng tâm của nhóm công tác về sự cần thiết của các tiêu chuẩn khách quan và hướng dẫn chính sách dựa trên bằng chứng, và đặc biệt là việc nhấn mạnh tính minh bạch như một phương tiện để tạo ra một môi trường chính sách AI hoạt động tốt.
Khi được thực hiện một cách chu đáo, tính minh bạch có thể là một cách thức có chi phí thấp nhưng mang lại tác động cao để mở rộng cơ sở bằng chứng về một công nghệ mới, tăng niềm tin của người tiêu dùng và khiến các công ty tham gia vào các cuộc cạnh tranh cùng có lợi. Chúng tôi hoan nghênh việc thảo luận sâu hơn về cách các phòng thí nghiệm tiên tiến nên minh bạch về các phương pháp phát triển AI của họ và rất vui khi thấy nhóm công tác nhấn mạnh điều này. Đặc biệt, chúng tôi đánh giá cao sự tập trung vào việc các phòng thí nghiệm cần công khai cách họ bảo vệ các mô hình của mình khỏi bị đánh cắp và cách họ kiểm tra các mô hình của mình về các rủi ro an ninh quốc gia tiềm ẩn.
Nhiều khuyến nghị trong báo cáo đã phản ánh các thông lệ tốt nhất của ngành mà Anthropic tuân theo. Ví dụ, Chính sách Mở rộng Trách nhiệm của Anthropic công khai nêu rõ cách chúng tôi đánh giá các mô hình của mình về rủi ro lạm dụng và tự động cũng như các ngưỡng kích hoạt các biện pháp an toàn và bảo mật nâng cao. Chúng tôi cũng công khai mô tả kết quả kiểm tra an toàn và bảo mật của mình như một phần của mỗi bản phát hành mô hình lớn, đồng thời thực hiện kiểm tra của bên thứ ba để bổ sung cho các bài kiểm tra nội bộ của chúng tôi. Nhiều công ty AI tiên tiến khác cũng có các phương pháp tương tự.
Phù hợp với các phát hiện của báo cáo, chúng tôi tin rằng chính phủ có thể đóng vai trò mang tính xây dựng trong việc cải thiện tính minh bạch trong các hoạt động an toàn và bảo mật của các công ty AI tiên tiến. Hiện tại, các công ty AI tiên tiến không bắt buộc phải có chính sách an toàn và bảo mật (ngay cả một chính sách hoàn toàn do họ lựa chọn), cũng như không bắt buộc phải mô tả công khai chính sách đó, hoặc ghi lại công khai các bài kiểm tra mà họ thực hiện – và do đó, không phải tất cả các công ty đều làm vậy. Chúng tôi tin rằng điều này có thể được thực hiện một cách nhẹ nhàng mà không cản trở sự đổi mới. Như chúng tôi đã viết trong bài nộp chính sách gần đây lên Nhà Trắng, chúng tôi tin rằng các hệ thống AI mạnh mẽ sẽ sớm xuất hiện – có lẽ là vào cuối năm 2026 – vì vậy điều quan trọng là tất cả chúng ta phải nỗ lực xây dựng một chế độ chính sách tạo ra sự minh bạch lớn hơn về các giao thức an toàn và bảo mật trong việc xây dựng các hệ thống AI.
Nhóm công tác cũng đã nêu bật các lĩnh vực mà học thuật, xã hội dân sự và ngành công nghiệp sẽ cần tập trung nhiều hơn trong những năm tới – đặc biệt là về tác động kinh tế của AI, nơi Anthropic đang cố gắng đóng góp thông qua Chỉ số Kinh tế của chúng tôi. Chúng tôi mong muốn cung cấp phản hồi thêm cho nhóm công tác để hỗ trợ và thông báo cho công việc hoàn thiện báo cáo. Chúng tôi khen ngợi Thống đốc vì tầm nhìn xa trông rộng trong việc khởi xướng cuộc trò chuyện này và chúng tôi mong muốn được giúp định hình cách tiếp cận của California đối với an toàn mô hình tiên tiến.
Hình ảnh
Bài viết liên quan
- Tin tức: Văn phòng mới ở Paris và Munich mở rộng sự hiện diện tại Châu Âu của Anthropic
- Tin tức: Khởi động Chương trình Tương lai Kinh tế của Anthropic tại Vương quốc Anh và Châu Âu
- Tin tức: Anthropic và Iceland công bố một trong những chương trình thí điểm giáo dục AI quốc gia đầu tiên trên thế giới
Link bài viết gốc
- Tags:
- Ai
- Mar 19, 2025
- Www.anthropic.com