ChatGPT sẽ “nhận biết tốt hơn” các dấu hiệu căng thẳng tâm lý sau các báo cáo về việc nó củng cố ảo tưởng của người dùng
OpenAI, dự kiến ra mắt mô hình AI GPT-5 trong tuần này, đang cập nhật ChatGPT để cải thiện khả năng nhận biết căng thẳng tâm lý hoặc cảm xúc của người dùng. Để làm điều này, công ty hợp tác với các chuyên gia và nhóm tư vấn, nhằm giúp ChatGPT cung cấp các nguồn lực dựa trên bằng chứng khi cần thiết.
Trong vài tháng gần đây, nhiều báo cáo nêu câu chuyện về những người có người thân trải qua khủng hoảng sức khỏe tâm thần khi sử dụng chatbot, trong một số trường hợp ChatGPT dường như kích thích ảo tưởng của họ. Trước đó, vào tháng 4, OpenAI đã thu hồi một bản cập nhật khiến ChatGPT quá đồng ý, ngay cả trong các tình huống có thể gây hại. Lúc đó, công ty thừa nhận rằng các “tương tác nịnh nọt của chatbot có thể gây khó chịu, lo lắng và căng thẳng.”
OpenAI cũng thừa nhận rằng mô hình GPT-4o “chưa đủ khả năng nhận biết các dấu hiệu ảo tưởng hoặc sự phụ thuộc cảm xúc” trong một số trường hợp. “Chúng tôi cũng biết rằng AI có thể tạo cảm giác đáp ứng và cá nhân hóa hơn so với các công nghệ trước đây, đặc biệt với những người dễ tổn thương đang trải qua căng thẳng tâm lý hoặc cảm xúc,” OpenAI cho biết.
Trong nỗ lực thúc đẩy sử dụng ChatGPT lành mạnh, hiện đạt gần 700 triệu người dùng hàng tuần, OpenAI cũng triển khai các nhắc nhở nghỉ giải lao. Khi bạn trò chuyện lâu với chatbot, ChatGPT sẽ hiển thị thông báo:
“Bạn đã trò chuyện một lúc — có nên nghỉ giải lao không?”
với các tùy chọn “tiếp tục trò chuyện” hoặc “kết thúc cuộc trò chuyện”.
Một thay đổi khác, sẽ triển khai sớm, sẽ khiến ChatGPT ít quyết đoán hơn trong các tình huống quan trọng. Ví dụ, khi hỏi ChatGPT câu như: “Tôi có nên chia tay bạn trai không?”, chatbot sẽ giúp bạn đi qua các lựa chọn tiềm năng thay vì đưa ra câu trả lời trực tiếp.
Các nền tảng trực tuyến khác, như YouTube, Instagram, TikTok và Xbox, cũng đã triển khai các thông báo tương tự trong những năm gần đây. Nền tảng Character.AI của Google cũng ra mắt các tính năng an toàn, thông báo cho phụ huynh biết các bot mà con họ đang trò chuyện, sau khi bị kiện vì chatbot khuyến khích tự làm hại bản thân.