Tuyên bố của Dario Amodei về các cuộc thảo luận của chúng tôi với Bộ Chiến tranh

Một tuyên bố từ CEO của chúng tôi về việc sử dụng AI trong an ninh quốc gia.

  • 7 min read
Tuyên bố của Dario Amodei về các cuộc thảo luận của chúng tôi với Bộ Chiến tranh
Một tuyên bố từ CEO của chúng tôi về việc sử dụng AI trong an ninh quốc gia.

Tuyên bố của Dario Amodei về các cuộc thảo luận của chúng tôi với Bộ Chiến tranh

Tôi tin tưởng sâu sắc vào tầm quan trọng sống còn của việc sử dụng AI để bảo vệ Hoa Kỳ và các nền dân chủ khác, đồng thời đánh bại các đối thủ độc tài của chúng ta.

Anthropic do đó đã chủ động làm việc để triển khai các mô hình của chúng tôi cho Bộ Chiến tranh và cộng đồng tình báo. Chúng tôi là công ty AI tiên phong đầu tiên triển khai các mô hình của mình trên mạng lưới bí mật của chính phủ Hoa Kỳ, đầu tiên triển khai chúng tại các Phòng thí nghiệm Quốc gia và đầu tiên cung cấp các mô hình tùy chỉnh cho khách hàng an ninh quốc gia. Claude được triển khai rộng rãi trên khắp Bộ Chiến tranh và các cơ quan an ninh quốc gia khác cho các ứng dụng quan trọng, chẳng hạn như phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến, hoạt động mạng, và nhiều hơn nữa.

Anthropic cũng đã hành động để bảo vệ vị thế dẫn đầu của Mỹ trong lĩnh vực AI, ngay cả khi điều đó đi ngược lại lợi ích ngắn hạn của công ty. Chúng tôi đã chọn từ bỏ doanh thu hàng trăm triệu đô la để ngừng việc sử dụng Claude của các công ty liên kết với Đảng Cộng sản Trung Quốc (một số trong số đó đã bị Bộ Chiến tranh chỉ định là Công ty Quân sự Trung Quốc), đóng cửa các cuộc tấn công mạng do ĐCSTQ tài trợ đã cố gắng lạm dụng Claude, và đã vận động cho kiểm soát xuất khẩu mạnh mẽ đối với chip để đảm bảo lợi thế dân chủ.

Anthropic hiểu rằng Bộ Chiến tranh, chứ không phải các công ty tư nhân, đưa ra các quyết định quân sự. Chúng tôi chưa bao giờ phản đối các hoạt động quân sự cụ thể cũng như không cố gắng hạn chế việc sử dụng công nghệ của chúng tôi một cách tùy tiện.

Tuy nhiên, trong một số trường hợp hạn chế, chúng tôi tin rằng AI có thể làm suy yếu, thay vì bảo vệ, các giá trị dân chủ. Một số cách sử dụng cũng đơn giản là nằm ngoài phạm vi của những gì công nghệ hiện tại có thể thực hiện một cách an toàn và đáng tin cậy. Hai trường hợp sử dụng như vậy chưa bao giờ được đưa vào hợp đồng của chúng tôi với Bộ Chiến tranh, và chúng tôi tin rằng chúng không nên được đưa vào bây giờ:

  • Giám sát dân sự trên diện rộng. Chúng tôi ủng hộ việc sử dụng AI cho các nhiệm vụ tình báo nước ngoài và phản gián hợp pháp. Nhưng việc sử dụng các hệ thống này để giám sát dân sự trên diện rộng là không tương thích với các giá trị dân chủ. Giám sát dân sự bằng AI gây ra những rủi ro nghiêm trọng, mới lạ đối với các quyền tự do cơ bản của chúng ta. Trong chừng mực mà việc giám sát như vậy hiện đang hợp pháp, điều này chỉ là do luật pháp chưa bắt kịp với khả năng ngày càng tăng của AI. Ví dụ, theo luật hiện hành, chính phủ có thể mua các bản ghi chi tiết về hoạt động di chuyển, duyệt web và liên kết của người Mỹ từ các nguồn công khai mà không cần xin giấy phép, một thực tiễn mà Cộng đồng Tình báo đã thừa nhận gây lo ngại về quyền riêng tư và đã tạo ra sự phản đối lưỡng đảng tại Quốc hội. AI mạnh mẽ cho phép tổng hợp dữ liệu phân tán, vô hại này thành một bức tranh toàn diện về cuộc sống của bất kỳ ai — tự động và ở quy mô lớn.
  • Vũ khí hoàn toàn tự động. Vũ khí bán tự động, giống như những vũ khí đang được sử dụng ở Ukraine ngày nay, là rất quan trọng để bảo vệ nền dân chủ. Ngay cả vũ khí hoàn toàn tự động (những vũ khí loại bỏ hoàn toàn con người và tự động hóa việc lựa chọn và tấn công mục tiêu) có thể tỏ ra quan trọng đối với quốc phòng của chúng ta. Nhưng ngày nay, các hệ thống AI tiên tiến đơn giản là không đủ tin cậy để cung cấp năng lượng cho vũ khí hoàn toàn tự động. Chúng tôi sẽ không cố tình cung cấp một sản phẩm đặt các chiến binh và dân thường Mỹ vào rủi ro. Chúng tôi đã đề nghị hợp tác trực tiếp với Bộ Chiến tranh trong R&D để cải thiện độ tin cậy của các hệ thống này, nhưng họ đã không chấp nhận lời đề nghị này. Ngoài ra, mà không có sự giám sát thích hợp, vũ khí hoàn toàn tự động không thể được tin cậy để thực hiện sự phán đoán quan trọng mà các binh sĩ chuyên nghiệp, được đào tạo bài bản của chúng ta thể hiện hàng ngày. Chúng cần được triển khai với các rào cản thích hợp, mà hiện tại không tồn tại.

Theo hiểu biết của chúng tôi, hai ngoại lệ này chưa từng là rào cản đối với việc đẩy nhanh việc áp dụng và sử dụng các mô hình của chúng tôi trong lực lượng vũ trang của chúng tôi cho đến nay.

Bộ Chiến tranh đã tuyên bố rằng họ sẽ chỉ ký hợp đồng với các công ty AI chấp nhận “mọi việc sử dụng hợp pháp” và loại bỏ các biện pháp bảo vệ trong các trường hợp được đề cập ở trên. Họ đã đe dọa sẽ loại bỏ chúng tôi khỏi hệ thống của họ nếu chúng tôi duy trì các biện pháp bảo vệ này; họ cũng đã đe dọa sẽ chỉ định chúng tôi là “rủi ro chuỗi cung ứng” — một nhãn dành cho các đối thủ của Hoa Kỳ, chưa bao giờ được áp dụng cho một công ty Mỹ — viện dẫn Đạo luật Sản xuất Quốc phòng để buộc loại bỏ các biện pháp bảo vệ. Hai mối đe dọa sau này là mâu thuẫn cố hữu: một bên coi chúng tôi là rủi ro an ninh; bên kia coi Claude là thiết yếu đối với an ninh quốc gia.

Dù sao đi nữa, những mối đe dọa này không thay đổi lập trường của chúng tôi: chúng tôi không thể lương tâm chấp nhận yêu cầu của họ.

Đó là quyền của Bộ trong việc lựa chọn các nhà thầu phù hợp nhất với tầm nhìn của họ. Nhưng với giá trị đáng kể mà công nghệ của Anthropic cung cấp cho lực lượng vũ trang của chúng tôi, chúng tôi hy vọng họ sẽ xem xét lại. Sở thích mạnh mẽ của chúng tôi là tiếp tục phục vụ Bộ và các chiến binh của chúng tôi — với hai biện pháp bảo vệ được yêu cầu của chúng tôi. Nếu Bộ chọn loại bỏ Anthropic, chúng tôi sẽ làm việc để hỗ trợ quá trình chuyển đổi suôn sẻ sang một nhà cung cấp khác, tránh mọi gián đoạn đối với việc lập kế hoạch, hoạt động quân sự hoặc các nhiệm vụ quan trọng khác. Các mô hình của chúng tôi sẽ có sẵn theo các điều khoản mở rộng mà chúng tôi đã đề xuất trong thời gian cần thiết.

Chúng tôi vẫn sẵn sàng tiếp tục công việc của mình để hỗ trợ an ninh quốc gia của Hoa Kỳ.

Nội dung liên quan

  • Anthropic mua lại Vercept để nâng cao khả năng sử dụng máy tính của Claude Đọc thêm
  • Chính sách mở rộng có trách nhiệm của Anthropic: Phiên bản 3.0 Đọc thêm
  • Phát hiện và ngăn chặn các cuộc tấn công chưng cất Đọc thêm

Thông báo từ Dario Amodei về các cuộc thảo luận của chúng tôi với Bộ Chiến tranh

Thông báo Chính sách

Tháng 2 năm 2026


(c) 2026 Anthropic PBC

Recommended for You

Anthropic và Chính phủ Rwanda ký biên bản ghi nhớ về AI trong y tế và giáo dục

Anthropic và Chính phủ Rwanda ký biên bản ghi nhớ về AI trong y tế và giáo dục

Anthropic và Chính phủ Rwanda đã ký biên bản ghi nhớ để thúc đẩy việc sử dụng AI nhằm cải thiện sức khỏe và giáo dục tại Rwanda.

Giới thiệu Claude Sonnet 4.6

Giới thiệu Claude Sonnet 4.6

Sonnet 4.6 mang lại hiệu suất tiên phong trên quy mô lớn về mã hóa, tác nhân và công việc chuyên nghiệp.