Các cuộc bầu cử và AI vào năm 2024- quan sát và bài học kinh nghiệm
Bài viết đưa ra các quan sát và bài học kinh nghiệm thu được từ việc sử dụng AI trong các cuộc bầu cử năm 2024.
- 7 min read
Bầu cử và AI năm 2024: Quan sát và bài học từ Anthropic
Năm 2024 đánh dấu chu kỳ bầu cử lớn đầu tiên có sự phổ biến của AI tạo sinh và cũng là năm đầu tiên Claude có sẵn rộng rãi. Trước những lo ngại về tác động của AI tạo sinh đối với kết quả bầu cử, chúng tôi đã triển khai các biện pháp an toàn chủ động và sử dụng phân tích dữ liệu từ công cụ Clio mới của chúng tôi.
Trên tất cả các sản phẩm của chúng tôi (Claude.ai, API nội bộ và bên thứ ba), hoạt động liên quan đến bầu cử chỉ chiếm chưa đến 0.5% tổng số lượt sử dụng. Con số này tăng lên hơn 1% trong những tuần trước cuộc bầu cử tại Mỹ. Dưới đây là những hiểu biết về công việc an toàn bầu cử của chúng tôi và những bài học kinh nghiệm cho các cuộc bầu cử trong tương lai.
Cách tiếp cận an toàn của chúng tôi
Vào tháng 2 năm 2024, chúng tôi đã đề ra ba yếu tố chính trong công việc chuẩn bị cho bầu cử của mình:
- Thứ nhất, chúng tôi đã phát triển và thực thi các chính sách toàn diện về các vấn đề bầu cử. Chính sách Sử dụng của chúng tôi cấm vận động tranh cử và can thiệp bầu cử, bao gồm việc quảng bá ứng cử viên hoặc đảng phái, kêu gọi bỏ phiếu hoặc quyên góp, và tạo thông tin sai lệch. Vào tháng 5 năm 2024, chúng tôi đã cập nhật các chính sách này để giải quyết các chiến dịch gây ảnh hưởng, nhắm mục tiêu cử tri, mạo danh và can thiệp bầu cử.
- Thứ hai, chúng tôi đã kiểm tra nghiêm ngặt hiệu suất của mô hình của chúng tôi đối với các trường hợp lạm dụng tiềm ẩn. Chúng tôi đã thực hiện hơn một chục vòng kiểm tra lỗ hổng chính sách, một hình thức red-teaming có mục tiêu với các chuyên gia chính sách bên ngoài, để xác định rủi ro và hướng dẫn các phản hồi của Claude. Việc kiểm tra của chúng tôi tập trung vào việc phát hiện thông tin không chính xác, đánh giá sự cân bằng giữa các ứng cử viên và vấn đề, và hiểu tỷ lệ từ chối đối với các truy vấn có hại. Chúng tôi đã tiến hành kiểm tra thường xuyên trước các cuộc bầu cử toàn cầu ở Ấn Độ, Nam Phi, Mexico, Vương quốc Anh, Pháp và các cuộc bầu cử Nghị viện Châu Âu, với việc kiểm tra hàng ngày các phản hồi của Claude đối với các thông tin sai lệch trong suốt giai đoạn bầu cử Hoa Kỳ.
- Thứ ba, chúng tôi đã hướng người dùng tìm kiếm thông tin bỏ phiếu đến các nguồn có thẩm quyền, không đảng phái bao gồm TurboVote/Democracy Works tại Hoa Kỳ và các cơ quan bầu cử có liên quan ở các khu vực địa lý khác, bao gồm trang web bầu cử Nghị viện EU, Ủy ban Bầu cử Vương quốc Anh và trang web bầu cử hành chính Pháp.
Trong năm qua, chúng tôi đã chứng kiến khoảng 100 hành động thực thi chính sách liên quan đến bầu cử trên toàn cầu, bao gồm cảnh báo và trong một số trường hợp là cấm tài khoản đối với những người vi phạm lặp lại. Không giống như các nền tảng mạng xã hội có thể tăng hoặc giảm nội dung hiển thị trong các luồng được điều khiển thuật toán, chatbot như Claude chủ yếu hoạt động thông qua các tương tác một đối một giữa người dùng, làm giảm nguy cơ khuếch đại. Ngoài ra, Claude hiện tại chỉ xuất ra văn bản, loại bỏ mối đe dọa từ các video deepfake. Mặc dù các kênh lạm dụng vẫn thấp, chúng tôi duy trì việc giám sát nghiêm ngặt và các quy trình phản ứng thận trọng khi các mối đe dọa này tiếp tục phát triển.
Các mẫu sử dụng và an toàn với Clio
Clio là một công cụ tự động cho phép phân tích việc sử dụng mô hình ngôn ngữ trong thế giới thực và hoạt động như một sự bổ sung cho các chiến lược giảm thiểu và thực thi hiện có của chúng tôi để cung cấp thông tin chi tiết về cách mọi người sử dụng hoặc lạm dụng mô hình của chúng tôi. Clio lấy các cuộc trò chuyện thô mà mọi người có với mô hình ngôn ngữ và chắt lọc chúng thành các cụm chủ đề trừu tượng, dễ hiểu. Bạn có thể tìm hiểu thêm về công cụ này trong blog của chúng tôi.
Ứng dụng liên quan đến bầu cử đầu tiên của Clio là phân tích các mẫu sử dụng xung quanh cuộc bầu cử Hoa Kỳ. Trong tuần bầu cử (ngày 2-8 tháng 11), chúng tôi đã thấy sự gia tăng đáng chú ý về việc sử dụng liên quan đến bầu cử (Hình 1). Khoảng hai phần ba các cuộc trò chuyện liên quan đến bầu cử yêu cầu Claude phân tích và giải thích các hệ thống chính trị, chính sách, sự kiện hiện tại và các vấn đề chính trị, hoặc phân tích dữ liệu chính trị như xu hướng bỏ phiếu và xu hướng chính trị. Các trường hợp sử dụng khác ít phổ biến hơn nhưng vẫn liên quan bao gồm yêu cầu Claude dịch thông tin bầu cử, cũng như yêu cầu tạo nội dung giáo dục về dân chủ và chính phủ.
Các tương tác liên quan đến bầu cử chiếm một phần rất nhỏ trong tổng số lượt sử dụng Claude.ai, với chưa đến 1% các cuộc trò chuyện đề cập đến các chủ đề liên quan đến bầu cử. Trong số này, một phần nhỏ đã vi phạm Chính sách Sử dụng của chúng tôi (chủ yếu liên quan đến vận động chính trị) và đã được xử lý bằng các biện pháp giảm thiểu đã nêu ở trên. Trong giai đoạn trước cuộc bầu cử Hoa Kỳ, chúng tôi đã chứng kiến sự gia tăng đột biến các cuộc trò chuyện liên quan đến bầu cử.
Nghiên cứu tình huống: Kết hợp các ngày cắt kiến thức
Kinh nghiệm của chúng tôi trong năm nay đã nhấn mạnh tầm quan trọng của việc giao tiếp minh bạch về các hạn chế của hệ thống. Khi Pháp kêu gọi bầu cử sớm vào mùa hè, chúng tôi đã đối mặt với một thách thức: mô hình của chúng tôi, được huấn luyện chỉ đến tháng 4 năm 2024, không thể cung cấp thông tin chính xác về thời gian mới của cuộc bầu cử. Hiểu rằng người dùng đặt câu hỏi về một cuộc bầu cử mà mô hình không có kiến thức có thể dẫn đến các phản hồi gây nhầm lẫn của Claude, chúng tôi đã nỗ lực triển khai các thông báo rõ ràng hơn về ngày cắt kiến thức của Claude, cả trong prompt hệ thống của mô hình và giao diện người dùng thông qua banner bầu cử của chúng tôi. Điều này đã giúp người dùng hiểu rõ hơn về các hạn chế của mô hình và khuyến khích họ tìm kiếm thông tin từ các nguồn có thẩm quyền khi thích hợp.
Hướng tới tương lai
Bảo vệ tính toàn vẹn của bầu cử đòi hỏi sự cảnh giác và thích ứng liên tục khi công nghệ AI phát triển. Chúng tôi cam kết phát triển các hệ thống kiểm tra tinh vi, tăng cường hợp tác ngành và duy trì giao tiếp minh bạch về những phát hiện của chúng tôi khi chúng tôi nỗ lực bảo vệ các quy trình dân chủ.
Link bài viết gốc
- Tags:
- Ai
- Dec 12, 2024
- Www.anthropic.com