Cảnh báo của Microsoft hôm thứ Ba rằng một tác nhân AI thử nghiệm được tích hợp vào Windows có thể lây nhiễm vào các thiết bị và đánh cắp dữ liệu nhạy cảm của người dùng đã gây ra phản ứng quen thuộc từ các nhà phê bình có đầu óc bảo mật: Tại sao Big Tech lại có ý định thúc đẩy các tính năng mới trước khi các hành vi nguy hiểm của họ có thể được hiểu đầy đủ và chứa?
Như báo cáo thứ ba, Microsoft đã giới thiệu Copilot Actions, một bộ “tính năng tác nhân thử nghiệm mới, khi được bật, sẽ thực hiện ” các tác vụ hàng ngày như tổ chức tệp, lên lịch cuộc họp hoặc gửi email,“và cung cấp cho ” một cộng tác viên kỹ thuật số tích cực có thể thực hiện các tác vụ phức tạp cho bạn để nâng cao hiệu quả và năng suất.“
Ảo giác và tiêm thuốc nhanh chóng được áp dụng
Tuy nhiên, sự phô trương đi kèm với a cảnh báo đáng kể. Người dùng được Microsoft khuyến nghị chỉ kích hoạt Hành động Copilot “nếu bạn hiểu ý nghĩa bảo mật được nêu.”
Lời khuyên này dựa trên những khiếm khuyết đã biết vốn có trong hầu hết các mô hình ngôn ngữ lớn, bao gồm cả Copilot, như các nhà nghiên cứu có lặp đi lặp lại chứng minh.
Một khiếm khuyết phổ biến của LLM khiến chúng cung cấp các câu trả lời sai lầm và phi logic về mặt thực tế, đôi khi thậm chí cho các câu hỏi cơ bản nhất. Xu hướng ảo giác này, như hành vi đã được gọi, có nghĩa là người dùng không thể tin tưởng vào kết quả đầu ra của Copilot, Gemini, Claude hoặc bất kỳ trợ lý AI nào khác và thay vào đó phải xác nhận độc lập.
Một loại mìn LLM phổ biến khác là tiêm nhắc, một loại lỗi cho phép tin tặc cài đặt các hướng dẫn độc hại vào trang web, sơ yếu lý lịch và email. LLM được lập trình để làm theo các hướng dẫn một cách háo hức đến mức chúng không thể phân biệt những hướng dẫn đó trong lời nhắc hợp lệ của người dùng với những hướng dẫn có trong nội dung bên thứ ba, không đáng tin cậy do kẻ tấn công tạo ra. Do đó, LLM mang lại cho kẻ tấn công sự tôn trọng giống như người dùng.