Các nhà phê bình chế giễu sau khi Microsoft cảnh báo tính năng AI có thể lây nhiễm vào máy móc và dữ liệu ăn cắp

Tác giả tanthanh 06/02/2026 17 phút đọc

Cảnh báo của Microsoft hôm thứ Ba rằng một tác nhân AI thử nghiệm được tích hợp vào Windows có thể lây nhiễm vào các thiết bị và đánh cắp dữ liệu nhạy cảm của người dùng đã gây ra phản ứng quen thuộc từ các nhà phê bình có đầu óc bảo mật: Tại sao Big Tech lại có ý định thúc đẩy các tính năng mới trước khi các hành vi nguy hiểm của họ có thể được hiểu đầy đủ và chứa?

Như báo cáo thứ ba, Microsoft đã giới thiệu Copilot Actions, một bộ “tính năng tác nhân thử nghiệm mới, khi được bật, sẽ thực hiện ” các tác vụ hàng ngày như tổ chức tệp, lên lịch cuộc họp hoặc gửi email,“và cung cấp cho ” một cộng tác viên kỹ thuật số tích cực có thể thực hiện các tác vụ phức tạp cho bạn để nâng cao hiệu quả và năng suất.“

Ảo giác và tiêm thuốc nhanh chóng được áp dụng

Tuy nhiên, sự phô trương đi kèm với a cảnh báo đáng kể. Người dùng được Microsoft khuyến nghị chỉ kích hoạt Hành động Copilot “nếu bạn hiểu ý nghĩa bảo mật được nêu.”

Lời khuyên này dựa trên những khiếm khuyết đã biết vốn có trong hầu hết các mô hình ngôn ngữ lớn, bao gồm cả Copilot, như các nhà nghiên cứu lặp đi lặp lại chứng minh.

Một khiếm khuyết phổ biến của LLM khiến chúng cung cấp các câu trả lời sai lầm và phi logic về mặt thực tế, đôi khi thậm chí cho các câu hỏi cơ bản nhất. Xu hướng ảo giác này, như hành vi đã được gọi, có nghĩa là người dùng không thể tin tưởng vào kết quả đầu ra của Copilot, Gemini, Claude hoặc bất kỳ trợ lý AI nào khác và thay vào đó phải xác nhận độc lập.

Một loại mìn LLM phổ biến khác là tiêm nhắc, một loại lỗi cho phép tin tặc cài đặt các hướng dẫn độc hại vào trang web, sơ yếu lý lịch và email. LLM được lập trình để làm theo các hướng dẫn một cách háo hức đến mức chúng không thể phân biệt những hướng dẫn đó trong lời nhắc hợp lệ của người dùng với những hướng dẫn có trong nội dung bên thứ ba, không đáng tin cậy do kẻ tấn công tạo ra. Do đó, LLM mang lại cho kẻ tấn công sự tôn trọng giống như người dùng.

Cả hai lỗ hổng đều có thể bị khai thác trong các cuộc tấn công lấy cắp dữ liệu nhạy cảm, chạy mã độc và đánh cắp tiền điện t. Cho đến nay, những lỗ hổng này đã được chứng minh là không thể ngăn chặn được đối với các nhà phát triển và trong nhiều trường hợp, chỉ có thể được sửa bằng cách sử dụng các giải pháp thay thế dành riêng cho lỗi được phát triển sau khi lỗ hổng được phát hiện.

Điều đó, đến lượt nó, đã dẫn đến sự tiết lộ khổng lồ này trong bài đăng của Microsoft từ thứ ba:

“Khi những khả năng này được giới thiệu, các mô hình AI vẫn phải đối mặt với những hạn chế về chức năng về cách chúng hoạt động và đôi khi có thể gây ảo giác và tạo ra những kết quả đầu ra bất ngờ, ” Microsoft cho biết. “Ngoài ra, các ứng dụng AI tác nhân gây ra các rủi ro bảo mật mới, chẳng hạn như chèn dấu nhắc chéo (XPIA), trong đó nội dung độc hại được nhúng trong các thành phần giao diện người dùng hoặc tài liệu có thể ghi đè hướng dẫn tác nhân, dẫn đến các hành động ngoài ý muốn như lọc dữ liệu hoặc cài đặt phần mềm độc hại.”

Microsoft chỉ ra rằng chỉ những người dùng có kinh nghiệm mới nên bật Copilot Actions, hiện chỉ có trong phiên bản beta của Windows. Tuy nhiên, công ty đã không mô tả loại hình đào tạo hoặc trải nghiệm mà những người dùng như vậy nên có hoặc những hành động họ nên thực hiện để ngăn thiết bị của họ bị xâm phạm. Tôi đã yêu cầu Microsoft cung cấp những chi tiết này, và công ty đã từ chối.

Giống như macro “trên siêu anh hùng Marvel crack”

Một số chuyên gia bảo mật đã đặt câu hỏi về giá trị của các cảnh báo trong bài đăng hôm thứ Ba, so sánh chúng với các cảnh báo mà Microsoft đã cung cấp trong nhiều thập kỷ về sự nguy hiểm của việc sử dụng macro trong các ứng dụng Office. Bất chấp lời khuyên lâu dài, macro vẫn nằm trong số đó treo thấp nhất trái cây để tin tặc lén lút cài đặt phần mềm độc hại trên máy Windows. Một lý do cho điều này là Microsoft đã làm cho macro trở thành trung tâm của năng suất mà nhiều người dùng không thể làm mà không có chúng.

“Microsoft cho biết ‘don't kích hoạt macro, chúng nguy hiểm’... chưa bao giờ hoạt động tốt, nhà nghiên cứu độc lập Kevin Beaumont của ” cho biết. “Đây là macro trên vết nứt siêu anh hùng Marvel.”

Beaumont, người thường xuyên được thuê để ứng phó với các thỏa hiệp mạng Windows lớn trong doanh nghiệp, cũng đặt câu hỏi liệu Microsoft có cung cấp phương tiện để quản trị viên hạn chế đầy đủ Hành động Copilot trên máy của người dùng cuối hay để xác định các máy trong mạng đã bật tính năng này hay không.

Người phát ngôn của Microsoft cho biết quản trị viên CNTT sẽ có thể bật hoặc tắt không gian làm việc của đại lý ở cả cấp độ tài khoản và thiết bị bằng cách sử dụng Trực giác hoặc các ứng dụng MDM (Quản lý thiết bị di động) khác.

Các nhà phê bình lên tiếng lo ngại khác, bao gồm cả khó khăn cho ngay cả những người dùng có kinh nghiệm để phát hiện các cuộc tấn công khai thác nhắm vào các tác nhân AI mà họ đang sử dụng.

“Tôi không hiểu người dùng sẽ ngăn chặn bất cứ điều gì thuộc loại họ đang đề cập đến, ngoài việc không lướt web, tôi đoán vậy, nhà nghiên cứu Guillaume Rossolini của ” nói rằng.

Microsoft đã nhấn mạnh rằng Copilot Actions là một tính năng thử nghiệm đã tắt theo mặc định. Thiết kế đó có thể được chọn để hạn chế quyền truy cập của nó đối với những người dùng có kinh nghiệm cần thiết để hiểu rủi ro của nó. Tuy nhiên, các nhà phê bình lưu ý rằng các tính năng thử nghiệm trước đây—Copilot, chẳng hạn như—, thường xuyên trở thành khả năng mặc định cho tất cả người dùng theo thời gian. Khi điều đó được thực hiện, những người dùng không tin tưởng vào tính năng này thường được yêu cầu đầu tư thời gian để phát triển các cách không được hỗ tr loại bỏ các tính năng.

 

Những bàn thắng đẹp nhưng cao cả

Hầu hết bài đăng hôm thứ Ba tập trung vào chiến lược tổng thể của Microsoft để bảo mật các tính năng đại lý trong Windows. Mục tiêu cho các tính năng như vậy bao gồm:

  • Không chối bỏ, nghĩa là tất cả các hành động và hành vi phải có thể quan sát được và phân biệt được với những hành động và hành vi do người dùng thực hiện
  • Các đại lý phải bảo mật khi họ thu thập, tổng hợp hoặc sử dụng dữ liệu người dùng
  • Đại lý phải nhận được sự chấp thuận của người dùng khi truy cập dữ liệu người dùng hoặc thực hiện hành động

Các mục tiêu là âm thanh, nhưng cuối cùng chúng phụ thuộc vào việc người dùng đọc các cửa sổ hộp thoại cảnh báo rủi ro và yêu cầu phê duyệt cẩn thận trước khi tiếp tục. Điều đó lại làm giảm giá trị của việc bảo vệ đối với nhiều người dùng.

“Lời cảnh báo thông thường áp dụng cho các cơ chế dựa vào việc người dùng nhấp qua lời nhắc cấp phép,” Earlence Fernandes, giáo sư chuyên về bảo mật AI của Đại học California, San Diego, nói với Ars. “Đôi khi những người dùng đó không hiểu đầy đủ chuyện gì đang xảy ra hoặc họ có thể làm quen và nhấp vào ‘yes’ mọi lúc. Tại thời điểm đó, ranh giới bảo mật không thực sự là ranh giới.”

Như đã được chứng minh bởi phát ban của các cuộc tấn công “ClickFix”, nhiều người dùng có thể bị lừa làm theo những hướng dẫn cực kỳ nguy hiểm. Trong khi những người dùng có kinh nghiệm hơn (bao gồm một số lượng lớn người bình luận Ars) đổ lỗi cho các nạn nhân bị lừa đảo như vậy, những sự cố này là không thể tránh khỏi vì nhiều lý do. Trong một số trường hợp, ngay cả những người dùng cẩn thận cũng mệt mỏi hoặc bị đau khổ về mặt cảm xúc và kết quả là trượt chân. Những người dùng khác chỉ đơn giản là thiếu kiến thức để đưa ra quyết định sáng suốt.

Một nhà phê bình cho biết, cảnh báo của Microsoft không khác gì một CYA (viết tắt của cover your ass), một thủ đoạn pháp lý nhằm cố gắng bảo vệ một bên khỏi trách nhiệm pháp lý.

“Microsoft (giống như phần còn lại của ngành) không biết làm thế nào để ngừng tiêm thuốc nhanh chóng hoặc ảo giác, điều này khiến nó về cơ bản không phù hợp với hầu hết mọi thứ, nhà phê bình Reed Mideke nghiêm túc nói rằng. “Giải pháp? Chuyển trách nhiệm pháp lý cho người dùng. Nhân tiện, giống như mọi chatbot LLM đều có ‘oh, nếu bạn sử dụng tính năng này cho bất kỳ mục đích quan trọng nào, hãy nhớ xác minh tuyên bố từ chối trách nhiệm của answers”, đừng bận tâm rằng bạn sẽ không cần chatbot ngay từ đầu nếu bạn biết câu trả lời.”

Như Mideke đã chỉ ra, hầu hết các lời chỉ trích đều mở rộng sang việc cung cấp AI cho các công ty khác—bao gồm Apple, Google và Meta—are tích hợp vào sản phẩm của họ. Thông thường, các tích hợp này bắt đầu như các tính năng tùy chọn và cuối cùng trở thành khả năng mặc định cho dù người dùng có muốn hay không.

Tác giả tanthanh Admin
Bài viết trước ClickFix có thể là mối đe dọa an ninh lớn nhất mà gia đình bạn chưa từng nghe đến.

ClickFix có thể là mối đe dọa an ninh lớn nhất mà gia đình bạn chưa từng nghe đến.

Bài viết tiếp theo

Giao diện bảng điều khiển mặc định của Home Assistant vừa được nâng cấp lớn

Giao diện bảng điều khiển mặc định của Home Assistant vừa được nâng cấp lớn
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899