Một công cụ chính sách AI cho ngày hôm nay- Đầu tư đầy tham vọng vào NIST

Anthropic kêu gọi đầu tư đầy tham vọng vào NIST để phát triển các công cụ và tiêu chuẩn chính sách AI mạnh mẽ, thúc đẩy sự phát triển có trách nhiệm.

  • 8 min read
Anthropic kêu gọi đầu tư đầy tham vọng vào NIST để phát triển các công cụ và tiêu chuẩn chính sách AI mạnh mẽ, thúc đẩy sự phát triển có trách nhiệm.

Một Công cụ Chính sách AI Cho Ngày Nay: Đầu tư Tham vọng vào NIST

Chúng tôi tin rằng chính sách trí tuệ nhân tạo (AI) hợp lý đòi hỏi, trong số những thứ khác, khả năng mô tả và định lượng chính xác các khả năng và rủi ro của hệ thống AI. Khả năng này vừa là yếu tố hỗ trợ, vừa là điều kiện tiên quyết để có các quy định hiệu quả, vì các công cụ đo lường cho phép chúng ta đánh giá khách quan các hệ thống và đảm bảo chúng đáp ứng các ngưỡng an toàn phù hợp. Trong bài đăng này, chúng tôi đề xuất một biện pháp chính sách về cách thực hiện điều này: tài trợ mạnh mẽ cho Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) để hỗ trợ các nỗ lực đo lường và tiêu chuẩn hóa AI của NIST.

Chúng tôi rất vui mừng trước sự ủng hộ lưỡng đảng trong việc duy trì vai trò dẫn đầu của Mỹ trong việc phát triển các công nghệ quan trọng, như đã thể hiện trong phiên điều trần ngân sách ngày 18 tháng 4 về Yêu cầu Ngân sách Tài khóa năm 2024 cho Bộ Thương mại (và theo đó là NIST). Chúng tôi nghĩ rằng một trong những cách tốt nhất để sử dụng sự hỗ trợ đó là tăng ngân sách liên bang cho NIST để cơ quan này có thể thực hiện tốt công việc thúc đẩy đổi mới công nghệ an toàn.

Trong bài đăng này, chúng tôi sẽ đưa ra cái nhìn tổng quan về lý do chúng tôi nghĩ vậy, đồng thời chia sẻ một đề xuất chính sách về cách một chương trình tài trợ đầy tham vọng cho NIST có thể trông như thế nào trong thực tế. Đề xuất này có thể được thực hiện ngay lập tức và được xây dựng dựa trên nền tảng vững chắc của các công việc hiện có tại cơ quan; chúng tôi xem đây là một sự bổ sung cho một loạt các đòn bẩy chính sách để quản trị AI mạnh mẽ hơn.

Bối cảnh

Trong vài năm qua, chúng ta đã chứng kiến sự tiến bộ công nghệ nhanh chóng trong các tác vụ mà hệ thống AI có thể thực hiện, và sự gia tăng đáng kể số lượng sản phẩm tích hợp AI được triển khai công khai. Các nhà nghiên cứu cũng đã phát hiện ra rằng các hệ thống này thể hiện cả những khả năng và rủi ro đáng kể, một số có thể xuất hiện đột ngột thông qua việc đào tạo các mô hình quy mô lớn hơn, và một số khác chỉ được phát hiện sau khi triển khai. Để giải quyết vấn đề này, nhiều ý tưởng đã được đưa ra về cách tốt nhất để quản lý cả việc phát triển và sử dụng hệ thống AI.

Đã có những lời kêu gọi thành lập các cơ quan liên bang mới để điều chỉnh AI, các đề xuất lập pháp đa quốc gia để bắt buộc các yêu cầu tuân thủ, và thậm chí cả những lời kêu gọi từ các nhà nghiên cứu về việc tạm thời “tạm dừng” phát triển AI. Mặc dù tất cả các ý tưởng này đều có những phẩm chất đáng khen ngợi, chúng tôi tin rằng còn có một ý tưởng đơn giản, “sẵn sàng để triển khai” mà các nhà hoạch định chính sách tại Hoa Kỳ có thể xem xét, ít được chú ý hơn: tăng ngân sách cho NIST để xây dựng và tinh chỉnh các biện pháp đảm bảo AI.

NIST đã làm việc chăm chỉ trong nhiều năm về khoa học đo lường hệ thống AI và phát triển các tiêu chuẩn kỹ thuật liên quan. Một số điểm nổi bật trong công việc của NIST trong lĩnh vực này bao gồm Kiểm tra Nhà cung cấp Nhận dạng Khuôn mặtKhung Quản lý Rủi ro AI. Các nhà nghiên cứu AI cũng rất quen thuộc với MNIST, một bộ dữ liệu nhận dạng chữ viết tay đã thúc đẩy sự tiến bộ trong thị giác máy tính vào những năm 1990 và dựa trên cơ sở dữ liệu của NIST về các ký tự và số viết tay.

Mặc dù nghệ thuật đo lường có vẻ khô khan hoặc có thể không quan trọng, chúng tôi tin rằng nó rất quan trọng và cấp thiết để giúp xã hội hiểu rõ hơn về những tiến bộ và những hạn chế tiềm ẩn của các hệ thống AI ngày càng có năng lực. Như chúng tôi đã thảo luận trong nghiên cứu của mình, các hệ thống AI mở có thể hoạt động theo những cách không thể đoán trước – chúng ta không thể dự đoán trước tất cả các rủi ro tiềm ẩn trong quá trình phát triển. Ngay cả khi chúng ta có thể, lĩnh vực này thiếu các phương pháp được chấp nhận rộng rãi để đo lường và đánh giá toàn diện những rủi ro đó.

Đầu tư vào An toàn và Đổi mới

Biểu đồ minh họa mức tài trợ cho các chương trình liên quan đến AI tại NIST Mức tài trợ (tính bằng triệu USD) cho các chương trình liên quan đến AI tại NIST từ năm 2020-2024. Đường chấm đen biểu thị đề xuất của Anthropic về mức tăng 15 triệu USD so với năm tài chính 2023 (bao gồm mức tăng 5 triệu USD mà NIST yêu cầu).

Khả năng đánh giá hiệu quả các hệ thống AI về cả hiệu suất và rủi ro là tiền đề cho các quy định AI thông minh – cuối cùng, rất khó để quản lý những gì bạn không thể đo lường. NIST có hơn một thế kỷ kinh nghiệm xây dựng cơ sở hạ tầng đo lường, và do đó là nơi thích hợp để tiếp tục công việc này trong lĩnh vực AI. Ngoài việc thông báo cho các quy định thông minh hơn, công việc này có thể giúp xã hội vạch ra một lộ trình an toàn và hiệu quả hơn cho sự phát triển AI trong tương lai bằng cách:

  • Nâng cao sự an toàn của hệ thống AI thông qua kiểm tra nghiêm ngặt để xác định và giảm thiểu rủi ro trước khi chúng phát sinh trong môi trường công cộng.
  • Tăng cường niềm tin của công chúng rằng các hệ thống mà họ tương tác đã được xác nhận bởi một nguồn độc lập, bên thứ ba.
  • Cung cấp cho chính phủ sự tin tưởng rằng các hệ thống tiên tiến là an toàn cho công chúng.
  • Thúc đẩy đổi mới khi các nhà phát triển AI nỗ lực xây dựng công nghệ tốt hơn và thúc đẩy giới hạn hiện tại của khoa học kỹ thuật.
  • Tạo ra một thị trường cho chứng nhận hệ thống và các ưu đãi tích cực cho các nhà phát triển tham gia.

Chúng tôi chắc chắn không coi việc phát triển các kỹ thuật đo lường và tiêu chuẩn kỹ thuật là giải pháp cho mọi rủi ro tiềm ẩn của hệ thống AI, nhưng chúng tôi xem đó là một cách tiếp cận thực tế mà chúng ta có thể hành động ngay hôm nay. Tương tự như suy nghĩ của chúng tôi về an toàn kỹ thuật AI, chúng tôi tin vào một “cách tiếp cận danh mục” đối với quản trị AI, có thể nâng cao sự an toàn của hệ thống AI khi nhiều công cụ được kết hợp. Các hình thức đánh giá hệ thống nghiêm ngặt có thể bổ sung cho các đề xuất khác, từ kiểm soát nội bộ mạnh mẽ và các biện pháp quản trị cho các phòng thí nghiệm phát triển, đến kiểm toán thường xuyên bởi các tổ chức độc lập, đến các khuôn khổ pháp lý và quy định dựa trên lợi ích công cộng.

Đề xuất này dựa trên những nỗ lực vận động trước đây của chúng tôi về một NIST được tài trợ tốt hơn, bao gồm cả lời khai của chúng tôi trước Ủy ban Thương mại, Khoa học và Giao thông Vận tải của Thượng viện Hoa Kỳ, cũng như ý kiến chính thức của chúng tôi để phản hồi các yêu cầu cung cấp thông tin của chính phủ.

Bài đăng blog này theo sau một bản ghi nhớ chính sách mà chúng tôi đã viết, xem xét các mô hình tài trợ trong quá khứ và một số đề xuất cụ thể về những gì NIST có thể xây dựng với nguồn tài trợ bổ sung. Khi Quốc hội xem xét các khoản phân bổ cho năm tài chính 2024, chúng tôi kêu gọi họ xem xét cấp thêm kinh phí cho NIST.

Xem bản ghi nhớ tại đây.

Recommended for You

Anthropic Ký cam kết của Nhà Trắng với Thanh niên Hoa Kỳ- Đầu tư vào Giáo dục AI

Anthropic Ký cam kết của Nhà Trắng với Thanh niên Hoa Kỳ- Đầu tư vào Giáo dục AI

Anthropic tham gia cùng Nhà Trắng và các tổ chức khác trong cam kết đầu tư vào giáo dục AI cho giới trẻ Mỹ, thúc đẩy tương lai của lực lượng lao động.

Anthropic bổ nhiệm Guillaume Princen làm Trưởng bộ phận EMEA và công bố hơn 100 vị trí mới trong khu vực

Anthropic bổ nhiệm Guillaume Princen làm Trưởng bộ phận EMEA và công bố hơn 100 vị trí mới trong khu vực

Anthropic chào đón Guillaume Princen đảm nhận vai trò Trưởng bộ phận EMEA, đồng thời công bố kế hoạch tuyển dụng mở rộng trong khu vực.