Lầu Năm Góc tiến hành xếp Anthropic vào danh sách các công ty có rủi ro trong chuỗi cung ứng.

Dương Tấn Đạt Tác giả Dương Tấn Đạt 02/03/2026 7 phút đọc

Bộ Quốc phòng Hoa Kỳ (Pentagon) đang tiến hành xếp công ty trí tuệ nhân tạo Anthropic vào diện “rủi ro chuỗi cung ứng” (supply chain risk), động thái nhằm trừng phạt và hạn chế hoạt động của công ty này sau một cuộc tranh cãi công khai kéo dài về cách sử dụng AI trong các nhiệm vụ quân sự và an ninh.


Nội dung chính

1. Bối cảnh tranh cãi

  • Pentagon và Anthropic đã có nhiều tuần đàm phán căng thẳng liên quan đến việc sử dụng mô hình AI của Anthropic – Claude trong các ứng dụng quân sự.

  • Anthropic nhất quyết giữ các điều khoản hạn chế sử dụng Claude cho giám sát dân sự quy mô lớn hoặc vũ khí tự động không có sự giám sát con người.

  • Quân đội Mỹ muốn được quyền sử dụng Claude cho “mọi mục đích hợp pháp”, không có những ngoại lệ cụ thể mà Anthropic yêu cầu.


2. Quyết định của Bộ Quốc phòng

  • Bộ trưởng Quốc phòng Pete Hegseth tuyên bố sẽ xếp Anthropic là “rủi ro chuỗi cung ứng” đối với an ninh quốc gia, một biện pháp thường áp dụng cho các công ty nước ngoài bị nghi ngờ có ảnh hưởng đe dọa tới các hệ thống chiến lược.

  • Theo đó, các nhà thầu, đối tác hoặc nhà cung cấp có hợp đồng với quân đội Mỹ không được phép tiếp tục kinh doanh với Anthropic.

  • Tổng thống Donald Trump cũng yêu cầu tất cả cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, dù có thời gian tới 6 tháng để chuyển dịch sang nhà cung cấp khác.


3. Hậu quả đối với Anthropic

  • Anthropic bị hủy hợp đồng phát triển AI với Pentagon trị giá khoảng 200 triệu USD.

  • Việc đặt danh mục “rủi ro chuỗi cung ứng” đối với một công ty Mỹ là điều chưa từng xảy ra trước đây và gây lo ngại về tiền lệ pháp lý cũng như tác động thị trường.

  • Công ty tuyên bố họ sẽ thách thức quyết định này tại tòa án, cho rằng đây là hành động “chưa từng có” và không dựa trên tiêu chuẩn pháp lý rõ ràng.


4. Phản ứng từ ngành công nghệ và chính phủ

  • Một số lãnh đạo AI như CEO Sam Altman của OpenAI bày tỏ ủng hộ Anthropic về quan điểm giữ an toàn và hạn chế sử dụng công nghệ trong những ứng dụng gây tranh cãi, dù OpenAI vẫn chấp nhận các điều khoản của chính phủ theo hình thức khác.

  • Một số nhà phân tích và cựu cố vấn chính phủ cho rằng hành động này có thể ảnh hưởng rộng hơn tới việc thu hút đầu tư và cạnh tranh trong ngành AI tại Hoa Kỳ, vì các công ty có thể trở nên e ngại trong việc đặt ra các giới hạn đạo đức.

  • Đối thủ của Anthropic như Google, Microsoft và Nvidia cũng đối mặt với thách thức khi cân nhắc quan hệ kinh doanh với cả chính phủ và công ty này.


Nhận diện vấn đề chính

  • Quyết định xếp Anthropic là rủi ro chuỗi cung ứng phản ánh xung đột tinh tế giữa an ninh quốc gia, đạo đức AI và quyền tự định đoạt của các công ty công nghệ.

  • Nó đặt ra câu hỏi lớn về vai trò của chính phủ trong việc điều chỉnh công nghệ AI tiên tiến và cách mà các công ty khởi nghiệp AI cân bằng giữa đạo đức, quy định và mối quan hệ với chính quyền.


Kết luận

Trong bối cảnh cạnh tranh ngày càng cao giữa các công ty AI hàng đầu và áp lực từ phía chính quyền về sử dụng công nghệ trong các lĩnh vực nhạy cảm, quyết định của Pentagon với Anthropic được xem là một bước ngoặt lớn trong quan hệ giữa chính phủ và ngành AI, đồng thời có thể ảnh hưởng sâu rộng tới chiến lược phát triển công nghệ trong thập kỷ tới.

 
 
Dương Tấn Đạt
Tác giả Dương Tấn Đạt Admin
Bài viết trước OpenAI sa thải nhân viên vì sử dụng thông tin mật về thị trường dự đoán.

OpenAI sa thải nhân viên vì sử dụng thông tin mật về thị trường dự đoán.

Bài viết tiếp theo

Những tổn thất về môi trường và nhân quyền do các khoản đầu tư năng lượng sạch của Trung Quốc ở nước ngoài gây ra.

Những tổn thất về môi trường và nhân quyền do các khoản đầu tư năng lượng sạch của Trung Quốc ở nước ngoài gây ra.
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899