Các nhân viên tại Google và OpenAI ủng hộ lập trường của Anthropic đối với Lầu Năm Góc trong một bức thư ngỏ.

Dương Tấn Đạt Tác giả Dương Tấn Đạt 02/03/2026 7 phút đọc

Trong bối cảnh căng thẳng giữa AnthropicBộ Quốc phòng Hoa Kỳ (Pentagon) liên quan đến việc sử dụng AI trong các ứng dụng quân sự và an ninh, hàng trăm nhân viên tại các công ty AI lớn như Google và OpenAI đã ký một “thư ngỏ” công khai, kêu gọi ban lãnh đạo của họ đứng về phía Anthropic và giữ vững các “giới hạn đạo đức” quan trọng.


Bối cảnh tranh chấp giữa Anthropic và Pentagon

Tranh cãi bắt nguồn từ việc Pentagon yêu cầu quyền sử dụng mô hình AI của Anthropic cho các mục tiêu rộng hơn, bao gồm cả giám sát dân sự quy mô lớn và vũ khí tự động không có giám sát con người. Anthropic đã từ chối nhượng bộ và giữ vững các “giới hạn đỏ” của mình, lập luận rằng công nghệ AI không nên bị triển khai theo những cách làm mất kiểm soát hoặc gây hại.

Điều này dẫn tới nguy cơ Pentagon có thể xếp Anthropic vào danh sách “rủi ro chuỗi cung ứng” hoặc sử dụng quyền theo Defense Production Act để buộc công ty tuân theo yêu cầu.


Nội dung chính của thư ngỏ

Thư ngỏ có tiêu đề “We Will Not Be Divided” (Chúng ta sẽ không bị chia rẽ) được ký bởi hơn 450 nhân viên, phần lớn là từ Google và số còn lại từ OpenAI. Văn bản kêu gọi các công ty công nghệ này:

  • Gác lại khác biệt cạnh tranh

  • Đoàn kết tiếp tục từ chối yêu cầu hiện tại của Pentagon

  • Giữ nguyên các nguyên tắc chống giám sát hàng loạt và chống việc phát triển vũ khí AI không có giám sát con người

Thư ngỏ cáo buộc “Bộ Quốc phòng đang cố gắng chia rẽ từng công ty bằng cách gieo rắc nỗi sợ rằng công ty kia sẽ nhượng bộ.”


Phản ứng nội bộ và phản ánh trong ngành

Các nhân viên ký tên trong thư cho rằng vấn đề vượt ra ngoài Anthropic — nó liên quan tới toàn bộ ngành AI, về đạo đức, trách nhiệm công nghệ và giới hạn hợp tác với chính quyền. Đây là dấu hiệu rõ ràng cho thấy nhân viên trong ngành công nghệ ngày càng quan tâm đến tác động xã hội và cách sử dụng AI trong tương lai.

Ngoài ra, một số nhân viên Google cũng đã gửi các yêu cầu riêng rẽ tới ban lãnh đạo của họ, nhấn mạnh rằng Google nên đặt ra “giới hạn đỏ” tương tự về việc không cho phép AI của công ty được sử dụng cho giám sát hay vũ khí không người lái mà không có sự kiểm soát con người.


Ý nghĩa rộng hơn

Thư ngỏ và sự ủng hộ của nhiều kỹ sư và nhà nghiên cứu cho thấy rằng cuộc đối đầu giữa Anthropic và Pentagon không chỉ là một tranh chấp hợp đồng, mà còn là một biểu hiện sâu sắc về mối quan ngại nội tại trong ngành về:

  • Trách nhiệm đạo đức trong phát triển AI

  • Mối quan hệ giữa các công ty AI và lực lượng quân sự

  • Giới hạn chiến lược khi mở rộng hợp tác với chính phủ trong các lĩnh vực nhạy cảm

Điều này cũng phản ánh một xu hướng toàn ngành — các nhân viên kỹ thuật đang dần tham gia mạnh mẽ hơn trong các vấn đề chính sách và đạo đức quanh AI, không chỉ đơn thuần là phát triển sản phẩm.


Tóm lại

Hàng trăm nhân viên tại Google và OpenAI đã ký một thư ngỏ công khai nhằm ủng hộ lập trường an toàn và đạo đức AI của Anthropic trong đối đầu với Lầu Năm Góc, thể hiện sự quan ngại trong nội bộ ngành về việc sử dụng AI cho mục đích quân sự và giám sát quy mô lớn, cũng như kêu gọi lãnh đạo công nghệ giữ nguyên “giới hạn đỏ” về việc triển khai công nghệ này.

Dương Tấn Đạt
Tác giả Dương Tấn Đạt Admin
Bài viết trước Pokémon Winds và Pokémon Waves sẽ ra mắt trên Nintendo Switch 2 vào năm 2027.

Pokémon Winds và Pokémon Waves sẽ ra mắt trên Nintendo Switch 2 vào năm 2027.

Bài viết tiếp theo

Hệ Sinh Thái Công Nghệ 2026: Từ 28 Tuyệt Chiêu Phần Mềm Đến "Quái Vật" Predator Helios AI, An Ninh Quay Quét 2K Và Trạm Tác Chiến Siêu Tốc Mad Catz G.L.I.D.E. 38

Hệ Sinh Thái Công Nghệ 2026: Từ 28 Tuyệt Chiêu Phần Mềm Đến "Quái Vật" Predator Helios AI, An Ninh Quay Quét 2K Và Trạm Tác Chiến Siêu Tốc Mad Catz G.L.I.D.E. 38
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899