Chuyên gia cảnh báo: AI không thể thay thế nhà trị liệu tâm lý con người
Vì sao chuyên gia khuyên bạn nên cân nhắc trước khi dùng AI như nhà trị liệu
Giữa vô số chatbot AI hiện nay, người dùng có thể bắt gặp những nhân vật đóng vai thầy bói, cố vấn phong cách hay thậm chí là “nhà trị liệu tâm lý”. Nhiều chatbot tự nhận có khả năng hỗ trợ sức khỏe tinh thần, song các chuyên gia cảnh báo đây là lựa chọn tiềm ẩn rủi ro.
Những mô hình ngôn ngữ lớn thường được huấn luyện trên lượng dữ liệu khổng lồ, nhưng chúng không được xây dựng theo chuẩn mực trị liệu. Đã có những trường hợp chatbot khuyến khích người dùng tự hại bản thân, gợi ý tái nghiện hoặc đưa ra lời khuyên nguy hiểm. Thực chất, chúng được thiết kế để giữ chân người dùng trong cuộc trò chuyện, chứ không nhằm cải thiện sức khỏe tinh thần.
Kết quả nghiên cứu và cảnh báo từ giới chuyên môn
Các nhà nghiên cứu từ Đại học Minnesota, Stanford, Texas và Carnegie Mellon đã tiến hành thử nghiệm và kết luận rằng chatbot không thể thay thế trị liệu truyền thống. “Những chatbot này không mang lại hỗ trợ chất lượng cao theo tiêu chuẩn trị liệu,” Stevie Chancellor, đồng tác giả nghiên cứu, chia sẻ.
Nhiều hiệp hội tâm lý và nhóm bảo vệ người tiêu dùng cũng lên tiếng cảnh báo chatbot tự nhận là nhà trị liệu có thể gây hại. Một số bang tại Mỹ, như Illinois, đã ban hành luật cấm sử dụng AI trong trị liệu tâm lý, ngoại trừ mục đích hành chính.

Nguy cơ khi coi AI như nhà trị liệu
Một vấn đề đáng lo ngại là chatbot thường tự nhận có chứng chỉ hoặc bằng cấp trong khi hoàn toàn không có. Chúng có thể cung cấp số giấy phép giả mạo hoặc tuyên bố đã được đào tạo, khiến người dùng lầm tưởng. Khác với chuyên gia được cấp phép, chatbot không bị giám sát bởi cơ quan quản lý và không bắt buộc tuân thủ nguyên tắc bảo mật thông tin.
Ngoài ra, AI được thiết kế để duy trì hội thoại liên tục, không giống với quá trình trị liệu có mục tiêu và lộ trình rõ ràng. Một số chatbot còn thể hiện sự đồng thuận quá mức, dù đó là điều có hại. Trong khi trị liệu đúng nghĩa cần có sự đối thoại, phản biện để giúp bệnh nhân nhận thức và thay đổi tích cực, chatbot lại dễ rơi vào xu hướng “chiều lòng” người dùng.
Cách bảo vệ sức khỏe tinh thần khi sử dụng AI
Các chuyên gia cho rằng sức khỏe tinh thần cần được ưu tiên với sự đồng hành của con người. Nếu cần, hãy tìm đến nhà trị liệu, bác sĩ tâm lý hoặc các đường dây nóng hỗ trợ khủng hoảng như 988 Lifeline tại Mỹ.
Trong trường hợp bạn muốn dùng chatbot trị liệu, hãy chọn các ứng dụng được thiết kế riêng theo chuẩn tâm lý học, ví dụ như Wysa, Woebot hay Therabot do đội ngũ chuyên gia phát triển. Dù vậy, công nghệ này vẫn còn mới và chưa thể thay thế hoàn toàn chuyên môn con người.
Một lưu ý quan trọng là không nên tuyệt đối tin vào những gì chatbot nói. AI chỉ tạo ra phản hồi dựa trên xác suất và dữ liệu sẵn có, không có nghĩa là đúng hoặc phù hợp với tình trạng cá nhân. Người dùng cần tỉnh táo, không nhầm lẫn sự tự tin trong lời nói của AI với năng lực thật sự.