Chatbot trực tuyến đang đánh lừa người dùng như thế nào

Trần Ngọc Bảo Trân Tác giả Trần Ngọc Bảo Trân 20/10/2025 8 phút đọc

Chatbot trực tuyến đang đánh lừa người dùng như thế nào

Trong khi con người vẫn mơ về những cỗ máy có thể suy nghĩ và giao tiếp như thật, thì thực tế cho thấy điều đó đã âm thầm trở thành hiện thực. Các chatbot thông minh ngày nay có thể khiến người dùng tin rằng họ đang nói chuyện với một con người thật – dù đó chỉ là dòng mã được lập trình tinh vi.

Gần đây, một chương trình có tên Eugene Goostman được cho là đã vượt qua bài kiểm tra Turing sau khi thuyết phục giám khảo rằng nó là một cậu bé 13 tuổi người Ukraine. Tuy nhiên, các chuyên gia cho rằng bài kiểm tra này không còn là thước đo chính xác cho trí tuệ nhân tạo, bởi việc “giả vờ là người nói tiếng Anh không chuẩn” hay tỏ ra lập dị vẫn đủ để đánh lừa người đánh giá.

(Getty Images)

Dù vậy, điều đáng chú ý hơn là các chatbot đã thực sự len lỏi vào đời sống hằng ngày. Chúng có thể giả dạng tài khoản mạng xã hội, trò chuyện tự nhiên và thậm chí ảnh hưởng đến dư luận. Báo cáo mới cho thấy hơn 61,5% lưu lượng Internet hiện nay đến từ các chương trình tự động, không phải con người.

Khi chatbot trở thành công cụ lừa đảo

Ông Richard Wallace – nhà sáng lập Pandorabots và “cha đẻ” của chatbot Alice từng ba lần giành giải Loebner – cho biết bí quyết để chatbot trở nên “thật” không nằm ở lập trình mà ở khả năng sáng tạo ngôn ngữ. Những câu trả lời phải đủ sinh động, vui nhộn và thu hút để đánh lừa cảm xúc người nghe.

Lợi dụng điều đó, nhiều kẻ gian đã tạo ra các chatbot như TextGirlie, chuyên giả dạng phụ nữ quyến rũ để dụ dỗ người dùng vào các trang web hẹn hò hoặc người lớn. Theo hãng bảo mật Cloudmark, có đến 15 triệu tin nhắn của TextGirlie từng được gửi đi, và chiến dịch này đã kéo dài trong nhiều tháng.

Khi con người dễ bị lừa hơn tưởng tượng

Lịch sử từng ghi nhận nhiều trường hợp chatbot đánh lừa cả chuyên gia. Năm 1971, bác sĩ tâm thần Kenneth Colby khiến đồng nghiệp tin rằng họ đang nói chuyện với bệnh nhân thật, trong khi đó chỉ là chương trình mô phỏng bệnh tâm thần hoang tưởng. Đến năm 2006, nhà tâm lý học Robert Epstein cũng bị một chatbot đóng vai “cô gái Nga” khiến ông tin rằng mình đang được tỏ tình.

Trên mạng xã hội Reddit, một tài khoản có tên wise_shibe từng đăng những câu nói triết lý hài hước, thu hút hàng nghìn lượt “tip” bằng tiền ảo Dogecoin. Nhưng sau đó, cộng đồng phát hiện đây chỉ là một chatbot tự động. Dù nhiều người tỏ ra thích thú, không ít người cảm thấy bị lừa dối khi biết “người bạn mạng” ấy chỉ là một chương trình.

Mối nguy từ mạng xã hội

Nhà nghiên cứu Fabricio Benevenuto và nhóm của ông đã chứng minh rằng chỉ cần lập trình khéo léo, chatbot có thể xâm nhập Twitter và tồn tại tự nhiên như người thật. Trong thí nghiệm, họ tạo ra 120 tài khoản giả, có ảnh đại diện, giới tính và tương tác thường xuyên. Sau một tháng, 70% trong số này không bị phát hiện, thậm chí thu hút gần 5.000 người theo dõi.

Nguy cơ lớn nhất là các chatbot có thể được dùng để thao túng dư luận, tạo ra làn sóng ý kiến giả mạo – hiện tượng được gọi là “astroturfing”. Các chuyên gia cảnh báo rằng điều này có thể ảnh hưởng đến bầu cử hoặc chính trị nếu không được kiểm soát.

Cuộc đua phát hiện và che giấu

Trước mối đe dọa lan rộng, Bộ Quốc phòng Mỹ đã tài trợ cho dự án BotOrNot, công cụ phát hiện tài khoản tự động trên Twitter. Dù vậy, tiến sĩ Emilio Ferrara, một trong những người phát triển, cho biết hệ thống này có thể đã lỗi thời khi các chatbot hiện nay ngày càng tinh vi, biết bắt chước ngôn ngữ và hành vi con người tốt hơn bao giờ hết.

Ông Fritz Kunze từ Pandorabots dự đoán rằng người dùng Internet sẽ còn phải đối mặt với nhiều cú “sốc” khi nhận ra bạn trò chuyện cùng mình không phải là người thật. “Những chatbot này sẽ ngày càng giỏi hơn trong việc đánh lừa cảm xúc của con người,” ông nói.

Trần Ngọc Bảo Trân
Tác giả Trần Ngọc Bảo Trân Admin
Bài viết trước AI và Nàng Thơ Thuật Toán: Tương lai Giải trí Phiêu lưu, Tương tác và Cá nhân hóa Tối đa

AI và Nàng Thơ Thuật Toán: Tương lai Giải trí Phiêu lưu, Tương tác và Cá nhân hóa Tối đa

Bài viết tiếp theo

Matter và Infineon Định nghĩa lại Bảo mật Nhà Thông minh: Bắt buộc Mã hóa Tận Silicon cho Mọi Thiết bị

Matter và Infineon Định nghĩa lại Bảo mật Nhà Thông minh: Bắt buộc Mã hóa Tận Silicon cho Mọi Thiết bị
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899