ChatGPT muốn chơi bác sĩ với chế độ đặc biệt, nhưng tôi sẽ bỏ qua

Vài tuần trước, một nhà nghiên cứu y khoa đã báo cáo một trường hợp khá kỳ lạ về lỗi y khoa do AI gây ra, trong đó có chi tiết về trường hợp một cá nhân đã tham khảo ChatGPT và rơi vào vòng xoáy loạn thần do ngộ độc bromide. Những lo ngại như vậy đã được các chuyên gia nêu ra từ lâu, và dường như OpenAI muốn giải quyết chúng bằng một chế độ ChatGPT chuyên dụng để tư vấn y khoa.
Niềm hy vọng lớn lao
Tibor Blaho, một kỹ sư tại công ty chuyên về AI AIPRM, đã chia sẻ một đoạn mã thú vị mà họ phát hiện trong mã nguồn ứng dụng web ChatGPT. Các chuỗi mã này đề cập đến một tính năng mới có tên là "Chế độ Bác sĩ". Mã nguồn không đi sâu vào chi tiết về cách thức hoạt động của tính năng này, nhưng có vẻ như đây là một chế độ chuyên biệt để tìm kiếm lời khuyên liên quan đến sức khỏe, giống như cách các biện pháp bảo vệ an toàn được áp dụng cho tài khoản thanh thiếu niên.
Đáng chú ý là OpenAI chưa đưa ra bất kỳ thông báo chính thức nào về tính năng này, vì vậy hãy thận trọng với thông tin này. Tuy nhiên, có một vài giả thuyết đang được bàn tán về cách thức hoạt động của nó. Justin Angel, một nhà phát triển quen thuộc trong cộng đồng Apple và Windows, đã chia sẻ trên X rằng đó có thể là một chế độ được bảo vệ, giới hạn nguồn thông tin chỉ trong các bài báo nghiên cứu y khoa.
Ví dụ, nếu bạn tìm kiếm lời khuyên y tế liên quan đến các vấn đề sức khỏe hoặc triệu chứng, ChatGPT sẽ chỉ đưa ra phản hồi dựa trên thông tin được trích xuất từ các nguồn y tế đáng tin cậy. Nhờ đó, ChatGPT sẽ giảm thiểu khả năng đưa ra những lời khuyên sai lệch liên quan đến sức khỏe .
Sự thật phũ phàng
Ý tưởng đằng sau một thứ gì đó như "Chế độ Bác sĩ Lâm sàng" không hề xa vời. Chỉ một ngày trước, Consensus đã ra mắt một tính năng có tên "Chế độ Y tế". Khi một truy vấn liên quan đến sức khỏe được đưa ra, AI đàm thoại sẽ tìm kiếm câu trả lời "chỉ dựa trên bằng chứng y khoa chất lượng cao nhất", một kho dữ liệu bao gồm hơn tám triệu bài báo và hàng ngàn hướng dẫn lâm sàng đã được kiểm duyệt. Cách tiếp cận này thoạt nghe có vẻ an toàn, nhưng rủi ro vẫn tồn tại.