Ông Trump tìm cách cấm Anthropic khỏi chính phủ Mỹ.

Tác giả dangkhoa 13/03/2026 17 phút đọc

Ông Trump tìm cách cấm Anthropic khỏi chính phủ Mỹ.

Bộ Quốc phòng đã gây áp lực buộc Anthropic phải dỡ bỏ các hạn chế về cách thức quân đội có thể sử dụng trí tuệ nhân tạo của họ.    

Giám đốc điều hành của Anthropic, Dario Amodei, ngồi tại bàn và phát biểu vào micro trong một phiên điều trần của ủy ban Thượng viện.
 
Giám đốc điều hành của Anthropic, Dario Amodei, phát biểu vào thứ Ba, ngày 25 tháng 7 năm 2023, trong một phiên điều trần về Trí tuệ Nhân tạo do Tiểu ban Tư pháp Thượng viện về Quyền riêng tư, Công nghệ và Luật tổ chức. Nguồn: Getty Images | Bloomberg

Tổng thống Mỹ Donald Trump hôm thứ Sáu tuyên bố ông đã chỉ thị cho tất cả các cơ quan liên bang “ngừng ngay lập tức” việc sử dụng các công cụ trí tuệ nhân tạo của Anthropic. Động thái này diễn ra sau nhiều tuần Anthropic và các quan chức cấp cao mâu thuẫn về việc ứng dụng trí tuệ nhân tạo trong quân sự.

“Những kẻ cực đoan cánh tả tại Anthropic đã phạm một SAI LẦM THẢM HẠI khi cố gắng ÉP BUỘC Bộ Chiến tranh,” Trump viết trong một bài đăng trên Truth Social .

Ông Trump cho biết sẽ có "giai đoạn chuyển tiếp sáu tháng" đối với các cơ quan sử dụng Anthropic, điều này có thể tạo thời gian cho các cuộc đàm phán tiếp theo giữa chính phủ và công ty khởi nghiệp về trí tuệ nhân tạo này.

Lầu Năm Góc và Anthropic chưa đưa ra phản hồi ngay lập tức khi được yêu cầu bình luận.

Bộ Quốc phòng đã tìm cách thay đổi các điều khoản của thỏa thuận đạt được với Anthropic và các công ty khác vào tháng 7 năm ngoái để loại bỏ các hạn chế về cách thức triển khai trí tuệ nhân tạo (AI) và thay vào đó cho phép "mọi mục đích sử dụng hợp pháp" của công nghệ này. Anthropic phản đối sự thay đổi này, cho rằng nó có thể cho phép AI được sử dụng để kiểm soát hoàn toàn các vũ khí tự động gây chết người hoặc để tiến hành giám sát hàng loạt công dân Hoa Kỳ.

Lầu Năm Góc hiện không sử dụng trí tuệ nhân tạo theo những cách này và đã tuyên bố không có kế hoạch làm như vậy. Tuy nhiên, các quan chức cấp cao trong chính quyền Trump đã lên tiếng phản đối ý tưởng một công ty công nghệ dân sự can thiệp vào việc sử dụng công nghệ quan trọng này trong quân đội.

Anthropic là phòng thí nghiệm trí tuệ nhân tạo lớn đầu tiên hợp tác với quân đội Hoa Kỳ, thông qua một thỏa thuận trị giá 200 triệu đô la được ký kết với Lầu Năm Góc năm ngoái. Họ đã tạo ra một số mô hình tùy chỉnh được gọi là Claude Gov, có ít hạn chế hơn so với các mô hình thông thường. Google, OpenAI và xAI cũng đã ký các thỏa thuận tương tự vào khoảng thời gian đó, nhưng Anthropic là công ty trí tuệ nhân tạo duy nhất hiện đang làm việc với các hệ thống mật.

Mô hình của Anthropic có sẵn thông qua các nền tảng do Palantir và nền tảng điện toán đám mây của Amazon cung cấp cho các công việc quân sự mật. Claude Gov hiện chủ yếu được sử dụng cho các nhiệm vụ thông thường, như viết báo cáo và tóm tắt tài liệu, nhưng nó cũng được sử dụng cho phân tích tình báo và lập kế hoạch quân sự, theo một nguồn tin quen thuộc với tình hình đã nói chuyện với WIRED với điều kiện giấu tên vì họ không được phép thảo luận công khai về vấn đề này.

Trong những năm gần đây, Thung lũng Silicon đã chuyển từ việc phần lớn tránh né các dự án quốc phòng sang ngày càng đón nhận chúng và cuối cùng trở thành những nhà thầu quân sự chính thức. Cuộc đối đầu giữa Anthropic và Lầu Năm Góc hiện đang thử thách giới hạn của sự chuyển đổi đó. Tuần này, vài trăm nhân viên từ OpenAI và Google đã ký một bức thư ngỏ ủng hộ Anthropic và chỉ trích quyết định của chính công ty mình về việc dỡ bỏ các hạn chế đối với việc sử dụng AI trong quân sự.

Trong một bản ghi nhớ gửi cho nhân viên OpenAI hôm nay, Giám đốc điều hành Sam Altman cho biết công ty đồng ý với Anthropic và cũng coi việc giám sát hàng loạt và vũ khí tự động hoàn toàn là "lằn ranh đỏ". Altman nói thêm rằng công ty sẽ cố gắng đạt được thỏa thuận với Lầu Năm Góc để tiếp tục hợp tác với quân đội, theo báo cáo của Tạp chí Phố Wall .

Cuộc tranh cãi công khai giữa Lầu Năm Góc và Anthropic bắt đầu sau khi Axios đưa tin rằng các lãnh đạo quân đội Mỹ đã sử dụng Claude để hỗ trợ lập kế hoạch cho chiến dịch bắt giữ tổng thống Venezuela, Nicolás Maduro . Sau chiến dịch, một nhân viên tại Palantir đã chuyển những lo ngại từ một nhân viên của Anthropic đến các lãnh đạo quân đội Mỹ về cách thức sử dụng các mô hình của họ. Anthropic đã phủ nhận việc từng nêu lên những lo ngại hoặc can thiệp vào việc Lầu Năm Góc sử dụng công nghệ của mình.

Cuộc tranh chấp giữa Anthropic và Bộ Quốc phòng đã leo thang trong những ngày gần đây, với việc các quan chức công khai đấu khẩu với công ty trí tuệ nhân tạo này trên mạng xã hội.

Bộ trưởng Quốc phòng Pete Hegseth đã gặp gỡ Giám đốc điều hành của Anthropic, Dario Amodei, vào đầu tuần này. Ông đã cho công ty thời hạn đến thứ Sáu để cam kết thay đổi các điều khoản trong hợp đồng nhằm cho phép “mọi hình thức sử dụng hợp pháp” đối với các mô hình của họ. Theo một nguồn tin thân cận với cuộc gặp nhưng không được phép tiết lộ thông tin công khai, trong cuộc họp, ông Hegseth đã ca ngợi các sản phẩm của Anthropic và cho biết Bộ Quốc phòng muốn tiếp tục hợp tác với Anthropic.

Một số chuyên gia cho rằng tranh chấp này thực chất chỉ là xung đột về quan điểm hơn là những bất đồng cụ thể về cách thức triển khai trí tuệ nhân tạo. “Theo tôi, đây là một tranh chấp không cần thiết,” Michael Horowitz, chuyên gia về ứng dụng AI trong quân sự và cựu Phó Trợ lý Bộ trưởng phụ trách công nghệ mới nổi tại Lầu Năm Góc, nhận định. “Nó xoay quanh các trường hợp sử dụng lý thuyết mà hiện tại chưa thể áp dụng.”

Horowitz lưu ý rằng Anthropic đã ủng hộ tất cả các cách mà Bộ Quốc phòng đề xuất sử dụng công nghệ của họ cho đến nay. Ông nói thêm: “Tôi cảm thấy rằng Lầu Năm Góc và Anthropic hiện đang đồng ý về các trường hợp sử dụng mà công nghệ này chưa sẵn sàng để được đưa vào sử dụng rộng rãi”.

Anthropic được thành lập dựa trên ý tưởng rằng trí tuệ nhân tạo (AI) cần được xây dựng với sự an toàn là cốt lõi. Vào tháng Giêng, Amoedi đã viết một bài đăng trên blog về những rủi ro của trí tuệ nhân tạo mạnh mẽ, trong đó đề cập đến những nguy hiểm của vũ khí được điều khiển hoàn toàn tự động bởi AI.

“Những vũ khí này cũng có những công dụng chính đáng trong việc bảo vệ nền dân chủ,” Amodei viết. “Nhưng chúng là một vũ khí nguy hiểm nếu sử dụng.”

Thông tin bổ sung do Paresh Dave cung cấp.

Tác giả dangkhoa Admin
Bài viết trước Microsoft nỗ lực ngăn chặn những “rủi ro bảo mật mới” từ các tác nhân AI trong Windows 11.

Microsoft nỗ lực ngăn chặn những “rủi ro bảo mật mới” từ các tác nhân AI trong Windows 11.

Bài viết tiếp theo

Phạm vi ảnh hưởng: Lenovo đã mang công nghệ Vision trở lại CES như thế nào?

Phạm vi ảnh hưởng: Lenovo đã mang công nghệ Vision trở lại CES như thế nào?
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899