Nguyên tắc về an toàn trẻ em
Anthropic tái khẳng định cam kết của mình đối với sự an toàn của trẻ em, nêu bật các nguyên tắc và biện pháp mà công ty tuân thủ.
- 4 min read
Cam kết về các nguyên tắc an toàn cho trẻ em
Cùng với các công ty AI hàng đầu khác, chúng tôi cam kết triển khai các biện pháp an toàn nghiêm ngặt cho trẻ em trong quá trình phát triển, triển khai và bảo trì các công nghệ AI tạo sinh. Sáng kiến mới này, do Thorn, một tổ chức phi lợi nhuận chuyên bảo vệ trẻ em khỏi lạm dụng tình dục, và All Tech Is Human, một tổ chức chuyên giải quyết các vấn đề phức tạp của công nghệ và xã hội, dẫn đầu, nhằm giảm thiểu rủi ro mà AI tạo sinh gây ra cho trẻ em.
Cam kết này đánh dấu một bước tiến quan trọng trong việc ngăn chặn việc lạm dụng công nghệ AI để tạo hoặc phát tán tài liệu lạm dụng tình dục trẻ em (AIG-CSAM) và các hình thức gây hại tình dục khác đối với trẻ em.
Là một tổ chức tập trung vào an toàn, chúng tôi đã ưu tiên triển khai các chính sách nghiêm ngặt, tiến hành thử nghiệm chuyên sâu và hợp tác với các chuyên gia bên ngoài để đảm bảo mô hình của chúng tôi an toàn. Chính sách của Anthropic nghiêm cấm nội dung mô tả, khuyến khích, hỗ trợ hoặc phân phối bất kỳ hình thức bóc lột hoặc lạm dụng tình dục trẻ em nào. Nếu chúng tôi phát hiện tài liệu này, chúng tôi sẽ báo cáo cho Trung tâm Quốc gia về Trẻ em Mất tích & Bị Bóc lột (NCMEC). Cần lưu ý rằng tại thời điểm này, các mô hình của chúng tôi không có đầu ra đa phương thức, mặc dù chúng có khả năng xử lý hình ảnh.
Là một phần của nỗ lực Thiết kế An toàn này, Anthropic cam kết tuân thủ các nguyên tắc Thiết kế An toàn. Để đảm bảo hành động hữu hình, Anthropic cũng cam kết thực hiện các biện pháp giảm thiểu sau đây, bắt nguồn từ các nguyên tắc. Chúng tôi đang làm việc để đạt được các mục tiêu sau:
Phát triển
- Nguồn dữ liệu đào tạo có trách nhiệm: tránh đưa dữ liệu có rủi ro đã biết – như được xác định bởi các chuyên gia có liên quan – chứa CSAM và CSEM vào quá trình đào tạo.
- Phát hiện, loại bỏ và báo cáo CSAM và CSEM khỏi dữ liệu đào tạo của chúng tôi khi nhập.
- Tiến hành thử nghiệm chuyên sâu, bao gồm kiểm tra căng thẳng có cấu trúc, có khả năng mở rộng và nhất quán đối với các mô hình của chúng tôi về AIG-CSAM và CSEM.
- Xác định các chính sách cụ thể về dữ liệu đào tạo và phát triển mô hình.
- Cấm khách hàng sử dụng mô hình của chúng tôi để gây hại tình dục cho trẻ em.
Triển khai
- Phát hiện nội dung lạm dụng (CSAM, AIG-CSAM và CSEM) trong đầu vào và đầu ra.
- Bao gồm tùy chọn báo cáo, phản hồi hoặc gắn cờ của người dùng.
- Bao gồm một cơ chế thực thi.
- Bao gồm thông điệp phòng ngừa về việc lôi kéo CSAM bằng các công cụ có sẵn.
- Kết hợp triển khai theo giai đoạn, theo dõi việc lạm dụng ở các giai đoạn đầu trước khi ra mắt rộng rãi.
- Kết hợp một phần an toàn cho trẻ em vào thẻ mô hình của chúng tôi.
Bảo trì
- Khi báo cáo cho NCMEC, sử dụng Chú thích Tệp AI Tạo sinh.
- Phát hiện, báo cáo, loại bỏ và ngăn chặn CSAM, AIG-CSAM và CSEM.
- Đầu tư vào các công cụ để bảo vệ nội dung khỏi sự thao túng do AI tạo ra.
- Duy trì chất lượng của các biện pháp giảm thiểu của chúng tôi.
- Không cho phép sử dụng AI tạo sinh để lừa dối người khác với mục đích gây hại tình dục cho trẻ em.
- Tận dụng khả năng Tình báo Mã nguồn mở (OSINT) để hiểu cách nền tảng, sản phẩm và mô hình của chúng tôi có thể bị các tác nhân xấu lạm dụng.
Thông tin chi tiết hơn về các nguyên tắc mà chúng tôi và các tổ chức khác đã ký có thể được tìm thấy trong tài liệu trắng: Safety by Design for Generative AI: Preventing Child Sexual Abuse.
Link bài viết gốc
- Tags:
- Ai
- Apr 23, 2024
- Www.anthropic.com