Anthropic cáo buộc các phòng thí nghiệm AI của Trung Quốc khai thác dữ liệu từ Claude trong bối cảnh Mỹ đang tranh luận về việc xuất khẩu chip AI

Dương Tấn Đạt Tác giả Dương Tấn Đạt 25/02/2026 6 phút đọc

Anthropic công bố cáo buộc quy mô lớn

Công ty trí tuệ nhân tạo Anthropic — nhà phát triển mô hình AI Claude — đã chính thức cáo buộc ba phòng thí nghiệm AI có trụ sở tại Trung Quốc gồm DeepSeek, Moonshot AI và MiniMax tiến hành chiến dịch “distillation” ở quy mô công nghiệp để khai thác Claude và dùng kết quả đó để cải thiện các mô hình AI của họ mà không có sự cho phép hay tuân thủ điều khoản dịch vụ. Hãng công bố cáo buộc này trong một bài đăng blog kỹ thuật dài ngày 23/2.

Kỹ thuật “distillation” và cáo buộc chi tiết

Theo Anthropic, các công ty bị cáo buộc đã tạo ra khoảng 24.000 tài khoản gian lận và thực hiện hơn 16 triệu lượt trao đổi với mô hình Claude, nhằm “chưng cất” (distillation) các khả năng cao cấp của mô hình như:

  • khả năng lý luận nâng cao,

  • hỗ trợ lập trình,

  • sử dụng công cụ và logic phức tạp.

Kỹ thuật “distillation” thường được dùng trong học máy để đào tạo các mô hình nhỏ hơn dựa trên đầu ra của mô hình lớn hơn. Tuy nhiên, Anthropic cho rằng cách thức sử dụng này vi phạm điều khoản dịch vụ và các hạn chế truy cập theo khu vực vì Claude không được phép sử dụng ở thị trường Trung Quốc.

Liên quan tới tranh luận chính sách và kiểm soát xuất khẩu chip

Cáo buộc này được đưa ra trong bối cảnh Chính phủ Hoa Kỳ đang tranh luận về việc thắt chặt hay nới lỏng các kiểm soát xuất khẩu chip AI tiên tiến sang Trung Quốc, với lo ngại rằng nguồn lực tính toán cao cấp giúp đẩy nhanh phát triển AI đối thủ mà không có biện pháp bảo đảm an toàn và kiểm soát. Anthropic đã thể hiện sự ủng hộ các biện pháp kiểm soát xuất khẩu chip như một cách để hạn chế việc các công ty nước ngoài khai thác và sao chép công nghệ tiên tiến mà không đầu tư tương xứng.

Mối lo ngại an ninh và bảo mật

Anthropic cảnh báo rằng nếu các mô hình AI được “chưng cất” một cách trái phép, chúng có thể mất đi các cơ chế an toàn đã áp dụng trong mô hình gốc, dẫn đến rủi ro an ninh, an toàn và sử dụng sai mục đích. Họ nhấn mạnh rằng các mô hình được phát triển từ dữ liệu chiếm đoạt như vậy có thể được dùng cho mục đích phát triển phần mềm độc hại, chiến tranh mạng, thậm chí các ứng dụng nhạy cảm hơn như sinh học xấu nếu không có kiểm soát phù hợp.

Phản ứng và tranh luận rộng hơn

Hiện tại, các lãnh đạo tại ba công ty Trung Quốc bị đề cập chưa đưa ra bình luận công khai về cáo buộc này. Trong cộng đồng công nghệ quốc tế, sự việc đã thúc đẩy cuộc tranh luận về ranh giới giữa cạnh tranh hợp pháp và vi phạm sở hữu trí tuệ trong AI, cũng như vai trò của các biện pháp chính sách và pháp lý trong việc bảo vệ dữ liệu và công nghệ gốc.

Bối cảnh rộng hơn

Trước đó, một số hãng AI khác như OpenAI cũng từng nêu lo ngại tương tự khi cho rằng các tổ chức nước ngoài đã cố gắng “tận dụng” đầu ra của các mô hình lớn để tăng tốc phát triển của riêng họ. Việc này đặt ra những câu hỏi lớn hơn về quy định quốc tế, quyền sở hữu trí tuệ và cạnh tranh trong ngành trí tuệ nhân tạo toàn cầu.

Dương Tấn Đạt
Tác giả Dương Tấn Đạt Admin
Bài viết trước Sonos vs. Samsung: Tôi đã so sánh hệ thống âm thanh của cả hai thương hiệu và kết quả là cực kỳ sít sao

Sonos vs. Samsung: Tôi đã so sánh hệ thống âm thanh của cả hai thương hiệu và kết quả là cực kỳ sít sao

Bài viết tiếp theo

Discord triển khai xác minh độ tuổi toàn cầu: bước đi vì an toàn hay cơn ác mộng quyền riêng tư?

Discord triển khai xác minh độ tuổi toàn cầu: bước đi vì an toàn hay cơn ác mộng quyền riêng tư?
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899