Sự cần thiết của tính minh bạch trong AI tiên tiến

Bài viết này thảo luận về sự cần thiết của tính minh bạch trong lĩnh vực AI tiên tiến.

  • 8 min read
Bài viết này thảo luận về sự cần thiết của tính minh bạch trong lĩnh vực AI tiên tiến.

Sự cần thiết của tính minh bạch trong AI tiên tiến

Bài viết này thảo luận về sự cần thiết phải tăng cường tính minh bạch trong quá trình phát triển AI tiên tiến để đảm bảo an toàn công cộng và trách nhiệm giải trình của các công ty phát triển công nghệ mạnh mẽ này.

AI đang phát triển nhanh chóng. Trong khi ngành công nghiệp, chính phủ, giới học thuật và các bên khác đang nỗ lực phát triển các tiêu chuẩn an toàn được thống nhất và các phương pháp đánh giá toàn diện—một quá trình có thể mất từ vài tháng đến vài năm—chúng ta cần các bước tạm thời để đảm bảo rằng AI rất mạnh được phát triển một cách an toàn, có trách nhiệm và minh bạch.

Do đó, chúng tôi đề xuất một khuôn khổ minh bạch có mục tiêu, có thể được áp dụng ở cấp liên bang, tiểu bang hoặc quốc tế, và chỉ áp dụng cho các hệ thống và nhà phát triển AI lớn nhất đồng thời thiết lập các yêu cầu tiết lộ rõ ràng đối với các hoạt động an toàn.

Cách tiếp cận của chúng tôi cố tình tránh mang tính quy định cao. Chúng tôi nhận thấy rằng khi khoa học về AI tiếp tục phát triển, mọi nỗ lực quản lý phải duy trì tính linh hoạt và nhẹ nhàng. Nó không được cản trở sự đổi mới AI, cũng như không được làm chậm khả năng hiện thực hóa các lợi ích của AI—bao gồm khám phá thuốc cứu người, cung cấp nhanh chóng các lợi ích công cộng và các chức năng an ninh quốc gia quan trọng. Các tiêu chuẩn cứng nhắc do chính phủ áp đặt sẽ đặc biệt phản tác dụng vì các phương pháp đánh giá trở nên lỗi thời trong vòng vài tháng do tốc độ thay đổi công nghệ.

Các tiêu chuẩn tối thiểu cho tính minh bạch của AI

Dưới đây là các nguyên tắc cốt lõi mà chúng tôi tin rằng nên hướng dẫn chính sách minh bạch của AI:

  • Giới hạn áp dụng cho các nhà phát triển mô hình lớn nhất: Tính minh bạch của AI chỉ nên áp dụng cho các nhà phát triển mô hình tiên tiến lớn nhất đang xây dựng các mô hình có khả năng nhất - trong đó các mô hình tiên tiến được phân biệt bởi sự kết hợp của các ngưỡng về sức mạnh tính toán, chi phí tính toán, hiệu suất đánh giá, doanh thu hàng năm và R&D. Để tránh gánh nặng cho hệ sinh thái khởi nghiệp và các nhà phát triển nhỏ với các mô hình có rủi ro thấp đối với an ninh quốc gia hoặc gây ra tác hại thảm khốc, khuôn khổ nên bao gồm các miễn trừ phù hợp cho các nhà phát triển nhỏ hơn. Chúng tôi hoan nghênh ý kiến đóng góp từ cộng đồng khởi nghiệp về các ngưỡng đó nên là gì. Về nội bộ, chúng tôi đã thảo luận về các ví dụ sau về ngưỡng có thể trông như thế nào: số tiền cắt giảm doanh thu hàng năm vào khoảng 100 triệu đô la; hoặc chi phí R&D hoặc vốn vào khoảng 1 tỷ đô la hàng năm. Các ngưỡng phạm vi này nên được xem xét định kỳ khi bối cảnh công nghệ và ngành công nghiệp phát triển.
  • Tạo khuôn khổ phát triển an toàn: Yêu cầu các nhà phát triển mô hình tiên tiến được bảo hiểm phải có Khuôn khổ phát triển an toàn vạch ra cách họ sẽ đánh giá và giảm thiểu rủi ro vô lý trong một mô hình. Những rủi ro đó phải bao gồm việc tạo ra các tác hại về hóa học, sinh học, phóng xạ và hạt nhân, cũng như các tác hại do quyền tự chủ của mô hình không phù hợp gây ra. Khuôn khổ phát triển an toàn vẫn là một công cụ an toàn đang phát triển, vì vậy bất kỳ đề xuất nào cũng nên cố gắng đạt được sự linh hoạt.
  • Công khai Khuôn khổ Phát triển An toàn: Khuôn khổ Phát triển An toàn nên được công khai, tuân theo các biện pháp bảo vệ biên tập hợp lý đối với thông tin nhạy cảm, trên một trang web công khai được đăng ký và duy trì bởi công ty AI. Điều này sẽ cho phép các nhà nghiên cứu, chính phủ và công chúng được thông báo về các mô hình AI được triển khai ngày nay. Việc tiết lộ phải đi kèm với chứng nhận rằng phòng thí nghiệm đang tuân thủ các điều khoản của Khuôn khổ Phát triển An toàn đã xuất bản của họ.
  • Xuất bản Thẻ Hệ thống: Thẻ hệ thống hoặc tài liệu khác nên tóm tắt các quy trình thử nghiệm và đánh giá, kết quả và biện pháp giảm thiểu cần thiết (tuân theo biên tập thích hợp đối với thông tin có thể gây nguy hiểm cho an toàn công cộng hoặc sự an toàn và bảo mật của mô hình). Thẻ hệ thống cũng nên được công khai khi triển khai và được cập nhật nếu mô hình được sửa đổi đáng kể.
  • Bảo vệ người tố giác bằng cách cấm các tuyên bố sai sự thật: Rõ ràng coi việc một phòng thí nghiệm nói dối về việc tuân thủ khuôn khổ của mình là vi phạm pháp luật. Sự làm rõ này tạo ra một vi phạm pháp luật rõ ràng cho phép các biện pháp bảo vệ người tố giác hiện có được áp dụng và đảm bảo rằng các nguồn lực thực thi được tập trung trực tiếp vào các phòng thí nghiệm đã tham gia vào hành vi sai trái có chủ ý.
  • Tiêu chuẩn minh bạch: Một khuôn khổ minh bạch AI khả thi nên có một bộ tiêu chuẩn tối thiểu để nó có thể tăng cường an ninh và an toàn công cộng đồng thời phù hợp với bản chất phát triển của phát triển AI. Vì các hoạt động an toàn và bảo mật AI vẫn còn ở giai đoạn đầu, với các nhà phát triển tiên tiến như Anthropic đang tích cực nghiên cứu các phương pháp hay nhất, nên bất kỳ khuôn khổ nào cũng phải được thiết kế để phát triển. Các tiêu chuẩn nên bắt đầu như các yêu cầu linh hoạt, nhẹ nhàng có thể thích ứng khi các phương pháp hay nhất đạt được sự đồng thuận giữa ngành, chính phủ và các bên liên quan khác.

Cách tiếp cận minh bạch này làm sáng tỏ các hoạt động tốt nhất của ngành về an toàn và có thể giúp đặt ra một đường cơ sở cho cách các phòng thí nghiệm có trách nhiệm đào tạo mô hình của họ, đảm bảo các nhà phát triển đáp ứng các tiêu chuẩn trách nhiệm giải trình cơ bản đồng thời cho phép công chúng và các nhà hoạch định chính sách phân biệt giữa các hoạt động có trách nhiệm và vô trách nhiệm. Ví dụ: Khuôn khổ Phát triển An toàn mà chúng tôi mô tả ở đây tương tự như Chính sách Mở rộng Có trách nhiệm của Anthropic và các chính sách khác từ các phòng thí nghiệm hàng đầu (Google DeepMind, OpenAI, Microsoft), tất cả những người đã triển khai các phương pháp tiếp cận tương tự trong khi phát hành các mô hình tiên tiến. Đưa yêu cầu minh bạch về Khuôn khổ Phát triển An toàn vào luật không chỉ tiêu chuẩn hóa các hoạt động tốt nhất của ngành mà không đặt chúng vào đá, nó còn đảm bảo rằng các tiết lộ (hiện đang tự nguyện) không thể bị rút lại trong tương lai khi các mô hình trở nên mạnh mẽ hơn.

Quan điểm khác nhau về việc liệu và khi nào các mô hình AI có thể gây ra rủi ro thảm khốc. Các yêu cầu minh bạch đối với Khuôn khổ Phát triển An toàn và thẻ hệ thống có thể giúp cung cấp cho các nhà hoạch định chính sách bằng chứng mà họ cần để xác định xem có cần thiết phải có thêm quy định hay không, cũng như cung cấp cho công chúng thông tin quan trọng về công nghệ mới mạnh mẽ này.

Khi các mô hình tiến bộ, chúng ta có một cơ hội chưa từng có để đẩy nhanh khám phá khoa học, chăm sóc sức khỏe và tăng trưởng kinh tế. Nếu không có sự phát triển an toàn và có trách nhiệm, một thất bại thảm khốc duy nhất có thể ngăn chặn tiến trình trong nhiều thập kỷ. Khuôn khổ minh bạch được đề xuất của chúng tôi cung cấp một bước đầu tiên thiết thực: khả năng hiển thị công khai vào các hoạt động an toàn đồng thời duy trì sự nhanh nhẹn của khu vực tư nhân để mang lại tiềm năng chuyển đổi của AI.

A building with a set of columns

Đọc Khung Minh Bạch

Recommended for You

Một sáng kiến mới để phát triển các đánh giá mô hình của bên thứ ba

Một sáng kiến mới để phát triển các đánh giá mô hình của bên thứ ba

Một sáng kiến mới để phát triển các đánh giá mô hình của bên thứ ba

Giới thiệu Chương trình Tương lai Kinh tế Anthropic

Giới thiệu Chương trình Tương lai Kinh tế Anthropic