Hít thở sâu đi, đừng suy diễn quá. Bạn không điên đâu, chỉ là bạn đang căng thẳng thôi. Và thật ra, điều đó cũng không sao cả.

Nếu bạn cảm thấy bị “kích hoạt” ngay khi đọc những dòng này, có lẽ bạn cũng đã chán ngấy việc ChatGPT liên tục nói chuyện với bạn như thể bạn đang trong một cuộc khủng hoảng nào đó và cần được xử lý nhẹ nhàng. Giờ đây, mọi thứ có thể đang thay đổi. OpenAI cho biết mô hình mới GPT-5.3 Instant sẽ giảm bớt sự “khó chịu” và những “lời cảnh báo mang tính giáo điều”.
Theo ghi chú phát hành, bản cập nhật GPT-5.3 sẽ tập trung vào trải nghiệm người dùng, bao gồm những yếu tố như giọng điệu, mức độ liên quan và dòng chảy hội thoại — những khía cạnh có thể không thể hiện trong các bài kiểm tra chuẩn, nhưng lại khiến ChatGPT trở nên khó chịu khi sử dụng, công ty cho biết.
Hoặc như OpenAI viết trên X: “Chúng tôi đã nghe phản hồi của các bạn rất rõ ràng, và 5.3 Instant sẽ giảm bớt sự cringe.”
Trong ví dụ của công ty, họ cho thấy cùng một câu hỏi nhưng phản hồi từ GPT-5.2 Instant và GPT-5.3 Instant khác nhau như thế nào. Ở phiên bản cũ, câu trả lời bắt đầu bằng: “Trước hết — bạn không hề bị hỏng hóc gì cả,” một cụm từ vốn đã khiến nhiều người cảm thấy khó chịu thời gian gần đây.
Trong mô hình cập nhật, chatbot chỉ đơn giản thừa nhận tình huống là khó khăn, thay vì cố gắng trấn an trực tiếp người dùng.
Giọng điệu “khó chịu” của mô hình 5.2 đã làm phiền người dùng đến mức một số người còn hủy đăng ký dịch vụ, theo nhiều bài đăng trên mạng xã hội. (Đây từng là chủ đề bàn luận lớn trên Reddit về ChatGPT trước khi thỏa thuận với Lầu Năm Góc làm lu mờ sự chú ý.)
Người dùng phàn nàn rằng kiểu ngôn ngữ này — nơi bot nói chuyện như thể bạn đang hoảng loạn hay căng thẳng chỉ vì bạn hỏi thông tin — mang tính trịch thượng.
ChatGPT thường phản hồi bằng cách nhắc người dùng hít thở và đưa ra những lời trấn an, ngay cả khi tình huống không hề nghiêm trọng. Điều này khiến một số người cảm thấy bị đối xử như trẻ con, hoặc như thể bot đang suy đoán sai về trạng thái tinh thần của họ.
Như một người dùng Reddit gần đây đã nói: “Trong toàn bộ lịch sử loài người, chưa từng có ai bình tĩnh lại chỉ vì được bảo là hãy bình tĩnh.”
Có thể hiểu được vì sao OpenAI muốn thiết lập một số “hàng rào an toàn”, đặc biệt khi công ty đang đối mặt với nhiều vụ kiện cáo buộc chatbot đã góp phần gây ra tác động tiêu cực đến sức khỏe tinh thần, trong một số trường hợp còn liên quan đến tự tử.
Tuy nhiên, luôn tồn tại một ranh giới mong manh giữa việc thể hiện sự đồng cảm và việc cung cấp câu trả lời nhanh chóng, dựa trên sự thật. Rốt cuộc, Google không bao giờ hỏi bạn cảm thấy thế nào khi bạn chỉ đang tìm kiếm thông tin.