Một nhà nghiên cứu phát hiện ra rằng HTML có khả năng tự động điều khiển của Microsoft có thể làm rò rỉ mật khẩu và khóa AI.
Với các hệ thống AI mới, các lỗ hổng AI mới xuất hiện và một lỗ hổng lớn vừa được phát hiện. Đó là một lỗ hổng trong phương pháp của Microsoft cho phép các đại lý tương tác với các trang web thay mặt bạn.
Microsoft gọi đây là kỹ thuật NLWeb, là một loại HTML dành cho tác nhân AI. Công ty đã tiết lộ điều này tại hội nghị Build vào mùa xuân này và từ đó đã dựa vào tầm nhìn đó bằng một thử nghiệm Chế độ Copilot cho trình duyệt Edge của nó". (Microsoft chưa xác nhận liệu họ có sử dụng NLWeb cho việc này hay không.)
Tuy nhiên, nhà nghiên cứu Aonan Guan đã phát hiện ra một lỗ hổng trong NLWeb: một lỗi truyền tải đường dẫn cho phép bất kỳ người dùng từ xa nào đọc các tệp nhạy cảm như cấu hình hệ thống và thông tin xác thực đám mây thông qua một URL không đúng định dạng.
Trong một Bài đăng trung bình, Guan đã chỉ ra cách anh ấy có thể tải xuống danh sách mật khẩu hệ thống cùng với khóa Google Gemini và OpenAI. Điều này sẽ cho phép kẻ tấn công chạy miễn phí các ứng dụng AI phụ thuộc vào máy chủ bổ sung “,” mà không bị OpenAI tính phí.
Theo Guan, Trung tâm phản hồi bảo mật của Microsoft đã đẩy một bản vá vào kho GitHub vào tháng 6, xác nhận sự cố đã được khắc phục. Microsoft đã không đưa ra báo cáo vá lỗi chính thức. Người dùng, tuy nhiên, không cần phải thực hiện bất kỳ hành động nào.
Thật công bằng khi nói rằng sự phát triển AI đã tiến hành với tốc độ chóng mặt. Nhưng, như Guan đã chỉ ra, ranh giới giữa trò chuyện với AI và ra lệnh cho nó có thể mờ đi.
“Bản chất của NLWeb là diễn giải ngôn ngữ tự nhiên,” Guan nói. “Điều này làm mờ ranh giới giữa đầu vào của người dùng và lệnh hệ thống. Các vectơ tấn công trong tương lai có thể liên quan đến việc tạo các câu mà khi được phân tích cú pháp bởi một tác nhân sẽ chuyển thành các đường dẫn hoặc hành động tệp độc hại.”
Chúng tôi đã thấy các tương tác ChatGPT bị rò rỉ vào kết quả tìm kiếm của Google. (ChatGPT hiện đã tắt cờ khiến các cuộc trò chuyện ChatGPT có thể được phát hiện.) Như Quan (và The Verge, nơi đã tường thuật câu chuyện) lưu ý, rò rỉ ở mức độ như vậy trong tác nhân AI có thể là thảm họa đối với tất cả những người liên quan.