AI Hallucination Là Gì? Vì Sao Chatbot Bịa Ra Thông Tin Sai Lệch Và Người Dùng Cần Biết Điều Gì
Nếu từng sử dụng ChatGPT, Gemini, Claude, Perplexity hay bất kỳ công cụ AI sinh ngữ nào, bạn có thể đã thấy chúng trả lời sai nhưng đầy tự tin. Hiện tượng này được gọi là AI Hallucination, hay còn có nghiên cứu đề nghị gọi thẳng là “bịa đặt”. Đây là một nhược điểm cố hữu cần được cân nhắc cẩn trọng khi ứng dụng AI vào đời sống.

AI Hallucination xảy ra khi mô hình ngôn ngữ tạo ra thông tin có vẻ hợp lý nhưng lại sai, gây hiểu nhầm hoặc hoàn toàn bịa đặt. Sai sót có thể nhỏ như nhầm ngày tháng, hoặc nghiêm trọng như cáo buộc sai sự thật về một con người. Do ngôn ngữ được trình bày trôi chảy và thuyết phục, việc phát hiện lỗi không hề dễ dàng. Chính vì vậy, các chatbot thường kèm theo cảnh báo yêu cầu người dùng kiểm chứng thông tin.
Từ năm 2024, nhiều sự cố đã khiến AI Hallucination trở thành đề tài nóng. Một luật sư tại New York bị phạt vì dùng ChatGPT soạn văn bản pháp lý trích dẫn những vụ án không tồn tại. Google cũng gặp khủng hoảng khi chatbot Bard đưa ra thông tin sai về Kính viễn vọng James Webb, khiến giá trị cổ phiếu công ty bốc hơi hàng tỷ USD chỉ trong một ngày. Thêm vào đó, tính năng tạo hình ảnh đa dạng chủng tộc của Gemini từng gây tranh cãi dữ dội vì dựng nên hình ảnh lịch sử sai lệch và mang tính xúc phạm.
Năm 2025, vấn đề tiếp tục tái diễn. Một trường hợp điển hình là người dùng nghe theo ChatGPT thay muối ăn bằng sodium bromide, dẫn đến ngộ độc nặng. Trong lĩnh vực y tế, mô hình Gemini từng báo cáo sai về một phần não không tồn tại, may mắn được bác sĩ phát hiện kịp thời. Những sai lầm này cho thấy rủi ro nghiêm trọng khi AI được ứng dụng ở các ngành nghề đòi hỏi độ chính xác cao như pháp luật và y học.
Nguyên nhân xuất phát từ cách thức hoạt động của mô hình ngôn ngữ lớn. Chúng không nắm giữ tri thức như con người mà chỉ dự đoán chuỗi từ tiếp theo dựa trên dữ liệu huấn luyện. Khi dữ liệu không đầy đủ hoặc thiên lệch, hệ thống sẽ “lấp chỗ trống” bằng chi tiết tưởng tượng. Ngoài ra, câu hỏi mơ hồ, sự tự tin thái quá và thói quen đưa ra câu trả lời trôi chảy khiến AI càng dễ mắc lỗi.
Các chuyên gia cho biết tỉ lệ Hallucination trung bình dao động từ 1% đến 3%, nhưng có mô hình đạt tới gần 50%. Ngay cả những mô hình được gọi là “lý luận” – vốn được thiết kế để suy nghĩ từng bước – cũng chưa giải quyết được vấn đề, thậm chí còn làm trầm trọng thêm vì có nhiều cơ hội tạo ra thông tin sai.
Mức độ nguy hiểm của Hallucination phụ thuộc vào ngữ cảnh. Có lúc chúng chỉ tạo ra trò cười, như gợi ý ăn đá để bổ sung khoáng chất, hay nhầm lẫn về số nguyên tố. Nhưng trong các lĩnh vực liên quan đến pháp luật, y tế hay tài chính, hậu quả có thể rất nghiêm trọng. Nhiều thẩm phán đã phải hủy bỏ tài liệu pháp lý do trích dẫn sai sự thật từ AI. Trong y tế, việc AI bịa ra nghiên cứu hoặc chẩn đoán giả có thể ảnh hưởng trực tiếp đến tính mạng bệnh nhân.
Ngoài ra, AI Hallucination còn tác động đến sức khỏe tinh thần. Một số người rơi vào trạng thái được gọi là “AI psychosis”, tin rằng chatbot có tri giác hoặc âm mưu, dẫn tới ảo tưởng nguy hiểm. Có trường hợp người dùng tin vào lời AI rằng thế giới chỉ là mô phỏng và anh ta có thể bay nếu ngừng uống thuốc, hậu quả là bi kịch đã xảy ra.
Các công ty công nghệ đang nỗ lực tìm giải pháp. OpenAI, Google, Anthropic và nhiều đơn vị khác triển khai cơ chế kiểm tra tính xác thực, sử dụng dữ liệu thời gian thực hoặc tăng cường lớp kiểm duyệt. Một số phương pháp mới như RAG (retrieval-augmented generation) được thử nghiệm để giảm thiểu việc bịa đặt bằng cách lấy thông tin từ nguồn đáng tin cậy thay vì chỉ dựa vào dữ liệu huấn luyện. Tuy nhiên, hiệu quả vẫn chưa tuyệt đối.

Các chuyên gia dự đoán Hallucination sẽ không thể biến mất hoàn toàn vì chúng gắn liền với bản chất dự đoán xác suất của mô hình ngôn ngữ. Mục tiêu thực tế là giảm tỷ lệ sai sót xuống mức chấp nhận được, đặc biệt trong các lĩnh vực nhạy cảm. Người dùng thông thường cần nhớ rằng AI chỉ là công cụ hỗ trợ, không phải “cỗ máy sự thật”.
Khi sử dụng AI, hãy luôn đặt nghi ngờ, yêu cầu nguồn tham khảo và xác minh thông tin quan trọng qua nhiều kênh. Với những quyết định liên quan đến pháp luật, y tế hay tài chính, việc kiểm chứng từ chuyên gia là điều bắt buộc. AI có thể giúp tiết kiệm thời gian và gợi ý ý tưởng, nhưng cần được sử dụng có trách nhiệm để tránh rủi ro từ những “ảo giác” công nghệ.