Hàng trăm nghìn cuộc trò chuyện Grok bị lộ trên kết quả tìm kiếm Google
Hàng trăm nghìn cuộc trò chuyện Grok bị lộ trên kết quả tìm kiếm Google

Hàng trăm nghìn cuộc trò chuyện của người dùng với chatbot AI Grok do Elon Musk phát triển đã bị lộ trên kết quả tìm kiếm, dường như mà người dùng không hay biết.
Các liên kết duy nhất được tạo ra khi người dùng Grok nhấn nút chia sẻ bản ghi cuộc trò chuyện, nhưng bên cạnh việc gửi cho người nhận, nút này còn khiến các cuộc trò chuyện có thể được tìm thấy trực tuyến.
Một tìm kiếm trên Google cho thấy gần 300.000 cuộc trò chuyện Grok đã được lập chỉ mục, dẫn tới nhận định của một chuyên gia rằng chatbot AI là "thảm họa quyền riêng tư đang diễn ra".
Trước đó, tạp chí công nghệ Forbes báo cáo có hơn 370.000 cuộc trò chuyện Grok trên Google, bao gồm các ví dụ chatbot được yêu cầu tạo mật khẩu bảo mật, lập kế hoạch bữa ăn giảm cân và trả lời các câu hỏi y tế chi tiết.
Một số bản ghi còn cho thấy người dùng thử kiểm tra giới hạn của Grok, ví dụ một trường hợp chatbot cung cấp hướng dẫn chi tiết cách chế tạo thuốc nhóm A trong phòng thí nghiệm.
Không phải lần đầu tiên các cuộc trò chuyện AI xuất hiện rộng rãi hơn mức người dùng dự kiến khi sử dụng chức năng chia sẻ, OpenAI trước đây đã tạm dừng thử nghiệm cho phép ChatGPT hiển thị trong kết quả tìm kiếm.
Mặc dù chi tiết tài khoản người dùng có thể bị ẩn, các yêu cầu gửi tới chatbot vẫn có thể chứa thông tin cá nhân nhạy cảm, làm dấy lên lo ngại về quyền riêng tư.
Các chuyên gia cảnh báo, "các cuộc trò chuyện rò rỉ" có thể tiết lộ từ tên đầy đủ, vị trí, đến thông tin về sức khỏe tâm thần, hoạt động kinh doanh hoặc các mối quan hệ cá nhân, và một khi bị rò rỉ, sẽ tồn tại trực tuyến mãi mãi.
Giáo sư Luc Rocher từ Oxford Internet Institute gọi đây là "thảm họa quyền riêng tư đang diễn ra", trong khi Carissa Veliz, giảng viên triết học tại Oxford, nhấn mạnh việc người dùng không được thông báo rằng các cuộc trò chuyện chia sẻ sẽ xuất hiện trên kết quả tìm kiếm là "vấn đề nghiêm trọng".
Những vụ việc này nêu bật nhu cầu tăng cường bảo vệ dữ liệu người dùng và minh bạch trong cách các nền tảng AI xử lý thông tin, đồng thời cảnh báo về rủi ro từ các chatbot AI giả mạo hoặc bị lạm dụng.