CEO của Anthropic vẫn giữ vững lập trường khi thời hạn chót của Lầu Năm Góc đang đến gần.

Dương Tấn Đạt Tác giả Dương Tấn Đạt 02/03/2026 6 phút đọc

CEO Dario Amodei của hãng AI Anthropic tuyên bố công ty “không thể chấp nhận về mặt lương tâm” yêu cầu của Bộ Quốc phòng Hoa Kỳ liên quan đến việc bàn giao quyền sử dụng hoàn toàn các hệ thống AI của mình cho mục đích quân sự, khi hạn chót từ phía Pentagon đang đến gần. Quyết định này có thể khiến Anthropic mất hợp đồng trị giá khoảng 200 triệu USD và bị coi là “rủi ro chuỗi cung ứng”, đồng thời làm dấy lên tranh luận rộng hơn về ranh giới giữa an ninh quốc gia và an toàn AI toàn cầu.


Tranh chấp xoay quanh điều kiện sử dụng AI

Tình huống chính: Pentagon muốn Anthropic đồng ý cho phép sử dụng hệ thống AI của mình — đặc biệt là chatbot Claude — “cho mọi mục đích hợp pháp”, bao gồm cả các ứng dụng quân sự. Nhưng Anthropic đặt ra hai giới hạn then chốt mà họ cho là không thể bỏ: các sắc thái sử dụng AI cho giám sát hàng loạt dân thườngvũ khí tự hành hoàn toàn mà không có sự giám sát của con người.

CEO Amodei nhấn mạnh rằng việc loại bỏ các giới hạn này sẽ đi ngược lại nguyên tắc đạo đức và cam kết của công ty về phát triển AI an toàn, trong khi phía Pentagon vẫn khẳng định họ chỉ muốn sử dụng công nghệ này theo những cách “hợp pháp”.


Hạn chót và các biện pháp mạnh từ phía chính phủ

Bộ trưởng Quốc phòng Pete Hegseth đã đưa ra hạn chót tới thứ Sáu để công ty đồng ý thay đổi ngôn ngữ hợp đồng theo yêu cầu phía quân đội. Nếu Anthropic không tuân theo, Pentagon có thể:

  • Chấm dứt hợp đồng hiện tại trị giá đến khoảng 200 triệu USD.

  • Định danh công ty như “rủi ro chuỗi cung ứng” đối với an ninh quốc gia, một bước đi hiếm thấy dành cho doanh nghiệp nội địa.

Bên cạnh đó, Chính quyền liên bang cũng ra lệnh đình chỉ sử dụng công nghệ của Anthropic trong các cơ quan liên bang, với thời gian chuyển đổi kéo dài khoảng 6 tháng.


Phản ứng và bối cảnh lớn hơn trong ngành AI

Mối quan hệ căng thẳng giữa AnthropicPentagon phản ánh một cuộc tranh luận lớn hơn trong ngành về vai trò của AI trong an ninh quốc gia so với tính an toàn và đạo đức. Một số hãng AI khác đã ký các hợp đồng với chính phủ — ví dụ OpenAI — trong khi Anthropic là một trong những công ty tiêu biểu nhất từ chối dỡ bỏ giới hạn sử dụng theo từng trường hợp.

Tình hình hiện tại cũng thu hút sự quan tâm từ cộng đồng kỹ thuật và lập pháp, khiến nhiều người đặt ra câu hỏi về quy định an toàn AI và quyền quyết định sử dụng công nghệ trong các ứng dụng nhạy cảm.


Kết luận tổng hợp

Anthropic đang ở điểm then chốt trong mối quan hệ với chính phủ Mỹ, khi CEO Dario Amodei bám vững lập trường về nguyên tắc an toàn và đạo đức trong AI trước yêu cầu mở rộng quyền sử dụng từ Pentagon. Quyết định này có thể ảnh hưởng không chỉ đến hợp đồng tài chính với bộ quốc phòng, mà còn đặt ra tiêu chuẩn cho các cuộc đàm phán tương lai giữa các hãng AI và các cơ quan an ninh.

Dương Tấn Đạt
Tác giả Dương Tấn Đạt Admin
Bài viết trước Jack Dorsey vừa giảm một nửa số lượng nhân viên của Block — và ông ấy nói rằng công ty của bạn sẽ là công ty tiếp theo.

Jack Dorsey vừa giảm một nửa số lượng nhân viên của Block — và ông ấy nói rằng công ty của bạn sẽ là công ty tiếp theo.

Bài viết tiếp theo

Hệ Sinh Thái Công Nghệ 2026: Từ 28 Tuyệt Chiêu Phần Mềm Đến "Quái Vật" Predator Helios AI, An Ninh Quay Quét 2K Và Đại Lộ Gaming Khổng Lồ Razer Gigantus V2 3XL

Hệ Sinh Thái Công Nghệ 2026: Từ 28 Tuyệt Chiêu Phần Mềm Đến "Quái Vật" Predator Helios AI, An Ninh Quay Quét 2K Và Đại Lộ Gaming Khổng Lồ Razer Gigantus V2 3XL
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899