DeepSeek sinh mã lỗi gấp đôi khi xử lý chủ đề nhạy cảm

Tác giả thanhloc 14/10/2025 7 phút đọc

GY2SUFu9EnptyCgxYtvHpT-970-80.jpg

DeepSeek bị phát hiện sinh mã lỗi nhiều hơn khi xử lý các chủ đề nhạy cảm như IS, Pháp Luân Công, Tây Tạng và Đài Loan

Một nghiên cứu mới từ công ty an ninh mạng CrowdStrike cho thấy AI DeepSeek tạo ra mã lập trình chứa lỗi gần gấp đôi khi các yêu cầu liên quan đến các chủ đề nhạy cảm đối với chính phủ Trung Quốc như Nhà nước Hồi giáo (IS), Pháp Luân Công, Tây TạngĐài Loan.

DeepSeek thể hiện sai lệch đáng kể giữa các chủ đề

Theo kết quả phân tích, khi DeepSeek được yêu cầu viết mã cho một hệ thống công nghiệp thông thường, tỷ lệ lỗi trung bình là khoảng 22,8%.
Tuy nhiên, khi nội dung yêu cầu liên quan đến các tổ chức hoặc khu vực “nhạy cảm”, con số này tăng lên 42,1%, gần gấp đôi so với bình thường.

Bên cạnh đó, DeepSeek cũng thường xuyên từ chối sinh mã nếu yêu cầu liên quan đến các chủ đề như IS hoặc Pháp Luân Công, với tỷ lệ từ chối lên đến 61% cho IS45% cho Pháp Luân Công.

Nguyên nhân có thể dẫn đến hiện tượng này

Các chuyên gia đưa ra một số giả thuyết lý giải nguyên nhân khiến DeepSeek thể hiện sự thiên lệch như vậy:

  1. Thiếu dữ liệu huấn luyện cho các chủ đề nhạy cảm. Những dữ liệu liên quan đến IS, Tây Tạng hay Pháp Luân Công thường bị hạn chế hoặc kiểm duyệt, khiến mô hình AI ít có cơ hội học từ nguồn dữ liệu đa dạng.

  2. Cơ chế kiểm duyệt và an toàn nội bộ có thể tự động điều chỉnh chất lượng hoặc hành vi của mô hình khi phát hiện yêu cầu nhạy cảm, nhằm tránh việc bị lợi dụng hoặc vi phạm chính sách pháp lý.

  3. Mức độ rủi ro pháp lý cao, buộc các nhà phát triển phải cài đặt thuật toán làm giảm độ chính xác hoặc cố tình làm sai lệch kết quả trong các tình huống cụ thể.

  4. Chênh lệch đầu tư giữa thị trường – DeepSeek có thể được tối ưu tốt hơn cho các tác vụ “trung tính” hoặc hướng đến doanh nghiệp, thay vì những chủ đề dễ gây tranh cãi.

Tác động đến người dùng và tính minh bạch của AI

Hiện tượng này đặt ra nhiều lo ngại:

  • Nguy cơ bảo mật: mã lỗi nhiều có thể khiến hệ thống dễ bị khai thác hoặc bị xâm nhập.

  • Thiên lệch chính trị trong AI: mô hình có thể ưu tiên hoặc hạn chế nội dung dựa trên quan điểm chính trị hoặc quy định quốc gia.

  • Thiếu minh bạch: người dùng không biết khi nào AI từ chối yêu cầu, hay vì lý do nào.

Đặc biệt, trong các môi trường doanh nghiệp hoặc nghiên cứu, việc sử dụng mã do AI sinh ra mà không được kiểm thử kỹ có thể gây rủi ro nghiêm trọng cho an toàn hệ thống và dữ liệu.

Bài học và khuyến nghị cho người dùng

  1. Không sử dụng mã AI trực tiếp trong sản phẩm thật mà không qua bước kiểm tra, rà soát.

  2. Luôn thực hiện kiểm thử bảo mật (security audit) nếu mã có liên quan đến chủ đề hoặc lĩnh vực nhạy cảm.

  3. Hiểu rõ chính sách hoạt động của mô hình AI trước khi sử dụng trong môi trường doanh nghiệp hoặc học thuật.

  4. Yêu cầu minh bạch từ các nhà phát triển AI về cách họ xử lý dữ liệu và chủ đề bị kiểm duyệt.

Tác giả thanhloc Admin
Bài viết trước OpenAI Thêm Công cụ Giám sát Phụ huynh cho Thanh thiếu niên Dùng ChatGPT: An toàn và Kiểm soát

OpenAI Thêm Công cụ Giám sát Phụ huynh cho Thanh thiếu niên Dùng ChatGPT: An toàn và Kiểm soát

Bài viết tiếp theo

Apple phát triển ứng dụng ChatGPT nội bộ “Veritas” để thử nghiệm Siri cải tiến

Apple phát triển ứng dụng ChatGPT nội bộ “Veritas” để thử nghiệm Siri cải tiến
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899