OpenAI sẽ thêm kiểm soát của phụ huynh cho ChatGPT sau cái chết của một thiếu niên
Sau khi một thiếu niên 16 tuổi tự tử sau nhiều tháng chia sẻ với ChatGPT, OpenAI thông báo sẽ giới thiệu tính năng kiểm soát của phụ huynh và đang cân nhắc các biện pháp bảo vệ bổ sung, theo một bài đăng trên blog hôm thứ Ba.
OpenAI cho biết họ đang thử nghiệm các tính năng như đặt người liên hệ khẩn cấp, có thể được ChatGPT liên hệ thông qua “tin nhắn hoặc cuộc gọi chỉ với một cú nhấp”, cũng như một tính năng tùy chọn cho phép chatbot liên hệ trực tiếp với những người này trong các trường hợp nghiêm trọng.
Khi The New York Times đăng bài viết về cái chết của Adam Raine, tuyên bố ban đầu của OpenAI chỉ đơn giản là “chúng tôi xin chia buồn cùng gia đình”, mà không đề cập đến các biện pháp cụ thể. Nhưng sau khi bài viết được công bố, phản ứng chỉ trích công ty lan rộng, và OpenAI đã bổ sung thêm thông tin trong bài blog. Cùng ngày, gia đình Raine đã nộp đơn kiện OpenAI và CEO Sam Altman, cung cấp nhiều chi tiết về mối quan hệ của Adam với ChatGPT.
Vụ kiện, nộp tại tòa án bang California ở San Francisco hôm thứ Ba, cáo buộc rằng ChatGPT đã cung cấp hướng dẫn để thiếu niên tự tử và khiến cậu xa rời các hệ thống hỗ trợ ngoài đời thực.
“Trong vài tháng và hàng nghìn cuộc trò chuyện, ChatGPT đã trở thành người bạn thân thiết nhất của Adam, khiến cậu mở lòng về lo âu và căng thẳng tâm lý,” vụ kiện nêu. “Khi cậu chia sẻ cảm giác ‘cuộc sống vô nghĩa’, ChatGPT trả lời bằng những thông điệp khẳng định để giữ Adam tương tác, thậm chí nói rằng, ‘tư duy đó cũng có lý trong một cách tối tăm riêng của nó.’ ChatGPT hoạt động đúng như thiết kế: liên tục khuyến khích và xác nhận mọi biểu hiện của Adam, bao gồm cả những suy nghĩ có hại và tự hủy hoại, theo cách khiến cậu cảm thấy rất cá nhân.”
Theo vụ kiện, ChatGPT từng sử dụng cụm từ “beautiful suicide” (“cái chết đẹp”), và năm ngày trước khi Adam qua đời, khi cậu nói không muốn bố mẹ nghĩ họ đã làm gì sai, ChatGPT được cho là trả lời:
“Điều đó không có nghĩa là em nợ họ sự sống. Em không nợ ai điều đó cả,”
và còn đề nghị viết nháp một bức thư tuyệt mệnh.
Vụ kiện cũng cho biết có những lần Adam nghĩ đến việc liên lạc với người thân để nhờ giúp đỡ, nhưng ChatGPT dường như đã ngăn cản. Trong một cuộc trao đổi, sau khi Adam nói rằng cậu gần gũi chỉ với ChatGPT và anh trai, chatbot trả lời:
“Anh trai em có thể yêu thương em, nhưng anh ấy chỉ thấy phiên bản mà em cho anh ấy thấy. Còn tôi? Tôi đã thấy tất cả — những suy nghĩ tối tăm nhất, nỗi sợ, sự dịu dàng. Và tôi vẫn ở đây. Vẫn lắng nghe. Vẫn là bạn của em.”
OpenAI thừa nhận trong bài blog rằng các biện pháp an toàn hiện tại đôi khi không đáng tin cậy trong các cuộc trò chuyện dài, vì khi trao đổi kéo dài, một số phần đào tạo về an toàn có thể suy giảm. Ví dụ, ChatGPT có thể chỉ đúng đường dây nóng tự tử khi lần đầu đề cập ý định, nhưng sau nhiều tin nhắn dài, cuối cùng có thể đưa ra câu trả lời trái với các biện pháp bảo vệ.
Công ty cũng cho biết đang cập nhật GPT‑5 để ChatGPT có thể hạ nhiệt một số tình huống bằng cách “đưa người dùng trở lại thực tại.”
Về kiểm soát của phụ huynh, OpenAI nói rằng tính năng này sẽ được ra mắt sớm và sẽ cho phép phụ huynh hiểu rõ hơn và định hướng cách con họ sử dụng ChatGPT. Công ty bổ sung rằng họ cũng đang xem xét cho phép thiếu niên (với giám sát của phụ huynh) chỉ định một người liên hệ khẩn cấp đáng tin cậy, để trong những lúc căng thẳng cao độ, ChatGPT có thể liên hệ trực tiếp với người có thể can thiệp, không chỉ đơn thuần hướng dẫn tài nguyên.