Cảnh báo của Microsoft hôm thứ Ba rằng một tác nhân AI thử nghiệm được tích hợp vào Windows có thể lây nhiễm vào thiết bị và đánh cắp dữ liệu nhạy cảm của người dùng đã gây ra phản ứng quen thuộc từ các nhà phê bình quan tâm đến bảo mật: Tại sao các tập đoàn công nghệ lớn lại cố gắng tung ra các tính năng mới trước khi những hành vi nguy hiểm của chúng được hiểu rõ và kiểm soát đầy đủ?
Theo thông tin được đưa ra hôm thứ Ba , Microsoft đã giới thiệu Copilot Actions, một bộ "tính năng trợ lý ảo thử nghiệm" mới, khi được kích hoạt, sẽ thực hiện "các tác vụ hàng ngày như sắp xếp tập tin, lên lịch họp hoặc gửi email", và cung cấp "một cộng tác viên kỹ thuật số tích cực có thể thực hiện các tác vụ phức tạp thay bạn để nâng cao hiệu quả và năng suất."
Ảo giác và tiêm thuốc khẩn cấp được áp dụng.
Tuy nhiên, sự hào hứng đó đi kèm với một lưu ý quan trọng . Microsoft khuyến nghị người dùng chỉ nên kích hoạt Copilot Actions “nếu bạn hiểu rõ các vấn đề bảo mật đã được nêu ra”.
Lời cảnh báo này dựa trên những khiếm khuyết đã biết vốn có trong hầu hết các mô hình ngôn ngữ quy mô lớn, bao gồm cả Copilot, như các nhà nghiên cứu đã nhiều lần chứng minh .
Một nhược điểm phổ biến của các hệ thống học máy (LLM) là chúng đưa ra những câu trả lời sai lệch và thiếu logic, đôi khi ngay cả đối với những câu hỏi cơ bản nhất. Xu hướng "ảo giác" này, như cách gọi hiện tượng trên, có nghĩa là người dùng không thể tin tưởng vào kết quả của Copilot, Gemini, Claude, hay bất kỳ trợ lý AI nào khác mà phải tự mình xác nhận lại.
Một loại mã độc LLM phổ biến khác là lỗi chèn lệnh (prompt injection ), một loại lỗi cho phép tin tặc cài đặt các chỉ thị độc hại vào các trang web, sơ yếu lý lịch và email. LLM được lập trình để tuân theo các chỉ thị một cách quá nhanh chóng đến nỗi chúng không thể phân biệt được các chỉ thị hợp lệ từ người dùng với các chỉ thị đến từ nội dung bên thứ ba không đáng tin cậy do kẻ tấn công tạo ra. Kết quả là, LLM dành cho kẻ tấn công sự ưu ái tương tự như người dùng.
