Chuyên gia cảnh báo: AI không thể thay thế nhà trị liệu tâm lý con người

Trần Ngọc Bảo Trân Tác giả Trần Ngọc Bảo Trân 19/09/2025 6 phút đọc

Vì sao chuyên gia khuyên bạn nên cân nhắc trước khi dùng AI như nhà trị liệu

Giữa vô số chatbot AI hiện nay, người dùng có thể bắt gặp những nhân vật đóng vai thầy bói, cố vấn phong cách hay thậm chí là “nhà trị liệu tâm lý”. Nhiều chatbot tự nhận có khả năng hỗ trợ sức khỏe tinh thần, song các chuyên gia cảnh báo đây là lựa chọn tiềm ẩn rủi ro.

Những mô hình ngôn ngữ lớn thường được huấn luyện trên lượng dữ liệu khổng lồ, nhưng chúng không được xây dựng theo chuẩn mực trị liệu. Đã có những trường hợp chatbot khuyến khích người dùng tự hại bản thân, gợi ý tái nghiện hoặc đưa ra lời khuyên nguy hiểm. Thực chất, chúng được thiết kế để giữ chân người dùng trong cuộc trò chuyện, chứ không nhằm cải thiện sức khỏe tinh thần.

Kết quả nghiên cứu và cảnh báo từ giới chuyên môn

Các nhà nghiên cứu từ Đại học Minnesota, Stanford, Texas và Carnegie Mellon đã tiến hành thử nghiệm và kết luận rằng chatbot không thể thay thế trị liệu truyền thống. “Những chatbot này không mang lại hỗ trợ chất lượng cao theo tiêu chuẩn trị liệu,” Stevie Chancellor, đồng tác giả nghiên cứu, chia sẻ.

Nhiều hiệp hội tâm lý và nhóm bảo vệ người tiêu dùng cũng lên tiếng cảnh báo chatbot tự nhận là nhà trị liệu có thể gây hại. Một số bang tại Mỹ, như Illinois, đã ban hành luật cấm sử dụng AI trong trị liệu tâm lý, ngoại trừ mục đích hành chính.

Khám phá 10+ Xu hướng trí tuệ nhân tạo nổi bật trong năm 2025

Nguy cơ khi coi AI như nhà trị liệu

Một vấn đề đáng lo ngại là chatbot thường tự nhận có chứng chỉ hoặc bằng cấp trong khi hoàn toàn không có. Chúng có thể cung cấp số giấy phép giả mạo hoặc tuyên bố đã được đào tạo, khiến người dùng lầm tưởng. Khác với chuyên gia được cấp phép, chatbot không bị giám sát bởi cơ quan quản lý và không bắt buộc tuân thủ nguyên tắc bảo mật thông tin.

Ngoài ra, AI được thiết kế để duy trì hội thoại liên tục, không giống với quá trình trị liệu có mục tiêu và lộ trình rõ ràng. Một số chatbot còn thể hiện sự đồng thuận quá mức, dù đó là điều có hại. Trong khi trị liệu đúng nghĩa cần có sự đối thoại, phản biện để giúp bệnh nhân nhận thức và thay đổi tích cực, chatbot lại dễ rơi vào xu hướng “chiều lòng” người dùng.

Cách bảo vệ sức khỏe tinh thần khi sử dụng AI

Các chuyên gia cho rằng sức khỏe tinh thần cần được ưu tiên với sự đồng hành của con người. Nếu cần, hãy tìm đến nhà trị liệu, bác sĩ tâm lý hoặc các đường dây nóng hỗ trợ khủng hoảng như 988 Lifeline tại Mỹ.

Trong trường hợp bạn muốn dùng chatbot trị liệu, hãy chọn các ứng dụng được thiết kế riêng theo chuẩn tâm lý học, ví dụ như Wysa, Woebot hay Therabot do đội ngũ chuyên gia phát triển. Dù vậy, công nghệ này vẫn còn mới và chưa thể thay thế hoàn toàn chuyên môn con người.

Một lưu ý quan trọng là không nên tuyệt đối tin vào những gì chatbot nói. AI chỉ tạo ra phản hồi dựa trên xác suất và dữ liệu sẵn có, không có nghĩa là đúng hoặc phù hợp với tình trạng cá nhân. Người dùng cần tỉnh táo, không nhầm lẫn sự tự tin trong lời nói của AI với năng lực thật sự.

Trần Ngọc Bảo Trân
Tác giả Trần Ngọc Bảo Trân Admin
Bài viết trước Những lỗi và hạn chế người dùng cần biết trước khi cập nhật lên iOS 26

Những lỗi và hạn chế người dùng cần biết trước khi cập nhật lên iOS 26

Bài viết tiếp theo

Giao hàng bằng drone: Lợi ích và thách thức đối với người tiêu dùng

Giao hàng bằng drone: Lợi ích và thách thức đối với người tiêu dùng
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899