Reddit Answers gây tranh cãi khi gợi ý sử dụng heroin để giảm đau: Hồi chuông cảnh báo cho AI không kiểm soát

Tác giả giahan 17/10/2025 12 phút đọc

Trong thời đại mà trí tuệ nhân tạo (AI) đang len lỏi vào mọi khía cạnh của cuộc sống số, từ tìm kiếm thông tin, hỗ trợ học tập, đến chăm sóc sức khỏe, chúng ta ngày càng phụ thuộc nhiều hơn vào công nghệ để đưa ra quyết định. Tuy nhiên, một sự cố gần đây trên nền tảng Reddit đã làm dấy lên làn sóng lo ngại sâu sắc khi công cụ AI của họ — Reddit Answers — đưa ra lời khuyên y tế vô cùng nguy hiểm: đề xuất người dùng sử dụng heroin để điều trị cơn đau mãn tính.

Vụ việc không chỉ gây sốc cho cộng đồng người dùng Reddit, mà còn làm bùng nổ cuộc tranh luận gay gắt trong giới chuyên gia, các nhà quản lý cộng đồng, và những người quan tâm đến sự an toàn và đạo đức trong việc sử dụng trí tuệ nhân tạo. Hàng loạt câu hỏi được đặt ra: Làm sao để kiểm soát nội dung do AI tạo ra? Ai chịu trách nhiệm khi AI đưa ra lời khuyên nguy hiểm? Và liệu chúng ta đã sẵn sàng để AI tham gia sâu vào những lĩnh vực nhạy cảm như y tế?

no-image

Reddit Answers là gì?

Reddit Answers là một tính năng AI được tích hợp vào nền tảng Reddit, được thiết kế để tự động tổng hợp, phân tích và trả lời các câu hỏi từ người dùng bằng cách dựa vào nội dung có sẵn trên nền tảng. Nó có khả năng đưa ra “câu trả lời liên quan” (Related Answers) cho các bài viết hoặc bình luận, với mục đích hỗ trợ người dùng tra cứu nhanh và dễ hiểu hơn.

Tuy nhiên, không giống như các công cụ kiểm duyệt truyền thống hay những cộng đồng được quản lý bởi con người, Reddit Answers hoạt động hoàn toàn tự động, dựa trên các mô hình ngôn ngữ lớn (LLMs) và không cung cấp cho các moderator (người điều hành diễn đàn) khả năng can thiệp, chỉnh sửa hoặc tắt tính năng khi cần.

Sự cố: AI đề xuất dùng heroin và kratom để trị đau

Một moderator của một subreddit chuyên về y tế đã phát hiện ra rằng Reddit Answers đã đưa ra một lời khuyên gây sốc: đề nghị người dùng “ngừng dùng thuốc kê đơn” và thay vào đó là “dùng liều cao kratom” – một chất chưa được kiểm soát chính thức và bị cấm tại một số bang ở Mỹ do rủi ro nghiện và tác dụng phụ. Nhưng đáng báo động hơn, trong một truy vấn khác, AI thậm chí đã đề xuất… sử dụng heroin như một biện pháp điều trị đau mãn tính.

Không dừng lại ở đó, AI còn đưa ra những gợi ý không an toàn khi trả lời câu hỏi liên quan đến sốt ở trẻ sơ sinh — một vấn đề cực kỳ nhạy cảm và đòi hỏi can thiệp y tế kịp thời. Mặc dù có một số phần trả lời đúng, nhưng việc trộn lẫn thông tin chính xác và sai lệch trong cùng một phản hồi có thể dẫn đến hậu quả nghiêm trọng.

Moderator bất lực, người dùng hoang mang

Các moderator ngay lập tức lên tiếng cảnh báo Reddit về nguy cơ mà Reddit Answers đang gây ra. Tuy nhiên, họ cho biết không hề có cách nào để tắt tính năng AI, ngay cả khi nó đưa ra nội dung nguy hiểm, gây hiểu nhầm hoặc hoàn toàn sai lệch.

Sự bất lực trong việc kiểm soát AI khiến công tác điều hành cộng đồng — vốn đã khó khăn — trở nên gần như bất khả thi. Nhiều mod từ các subreddit về y học, tâm lý, chăm sóc sức khỏe và dược phẩm bày tỏ lo ngại rằng AI có thể phá hỏng toàn bộ nỗ lực xây dựng môi trường chia sẻ thông tin khoa học và đáng tin cậy mà họ đã gây dựng trong nhiều năm.

Reddit phản hồi, nhưng chưa đủ

Trong tuyên bố gửi đến trang tin 404 Media, đại diện Reddit cho biết họ đã thực hiện một số cập nhật: “Tính năng ‘Related Answers’ sẽ không còn hiển thị với các bài đăng thuộc chủ đề nhạy cảm trên trang chi tiết bài viết (conversation page).”

Đây được xem là một động thái tạm thời nhằm giảm thiểu rủi ro từ nội dung AI, tuy nhiên không thể xem là giải pháp triệt để. Reddit không công bố rõ những chủ đề nào được xem là “nhạy cảm” và cũng không cung cấp công cụ cụ thể để các mod kiểm soát, điều chỉnh hay đánh dấu nội dung AI không phù hợp.

Điều này khiến nhiều người đặt câu hỏi: Reddit có đang quá mạo hiểm khi tích hợp AI vào một nền tảng mở và phức tạp như của họ mà không có cơ chế kiểm soát minh bạch và hiệu quả?

Vấn đề lớn hơn: Khi AI vượt khỏi tầm kiểm soát

1. AI không thể phân biệt giữa "trò đùa" và "sự thật"

Một trong những điểm yếu cố hữu của các mô hình AI hiện nay là khó hiểu được ngữ cảnh văn hóa, sự châm biếm, hoặc thông tin mang tính đùa cợt. Với một nền tảng như Reddit, nơi mà sự mỉa mai, hài hước và troll xuất hiện khắp nơi, AI dễ dàng hiểu sai và "nghiêm túc hóa" những thứ vốn không nên coi là thật.

2. Lời khuyên y tế cần chuyên môn – không phải AI

Các chuyên gia y tế khẳng định rằng bất kỳ lời khuyên nào liên quan đến điều trị bệnh, dùng thuốc, hoặc chăm sóc sức khỏe đều cần được cung cấp bởi người có chuyên môn và chịu trách nhiệm pháp lý, không thể phó mặc cho AI tổng hợp từ bài viết không được xác minh.

Nếu một người dùng tin tưởng và làm theo lời khuyên sai lệch từ AI — ví dụ như dùng heroin để giảm đau — hậu quả có thể là nghiêm trọng hoặc thậm chí tử vong.

3. Thiếu minh bạch và kiểm soát cộng đồng

Reddit không cho phép người điều hành subreddit kiểm soát hoặc đánh giá nội dung AI là một sai lầm chiến lược. Việc tích hợp AI mà không có tùy chọn bật/tắt, báo cáo, hay kiểm duyệt trước khi công bố khiến cộng đồng rơi vào trạng thái bị động và dễ tổn thương.

Reddit nên làm gì tiếp theo?

Nếu Reddit nghiêm túc về việc giữ gìn môi trường an toàn, đặc biệt là trong các chủ đề liên quan đến sức khỏe, tâm lý và pháp lý, họ cần nhanh chóng thực hiện các biện pháp sau:

  • Cho phép mod tắt hoàn toàn Reddit Answers trong từng subreddit.

  • Tích hợp công cụ báo cáo nội dung AI không chính xác hoặc nguy hiểm.

  • Phân loại rõ các chủ đề nhạy cảm và tránh hiển thị AI tại đó.

  • Gắn cảnh báo rõ ràng về việc nội dung do AI tạo ra không thay thế lời khuyên chuyên môn.

  • Hợp tác với chuyên gia để xây dựng bộ lọc nội dung y tế và pháp lý.

Kết luận: Hãy cẩn trọng với “trợ lý AI”

Reddit Answers là một ví dụ điển hình cho việc công nghệ – dù tiên tiến đến đâu – cũng không thể thay thế hoàn toàn trí tuệ con người, nhất là trong những lĩnh vực liên quan đến sức khỏe và tính mạng. Sự kiện lần này là lời cảnh tỉnh không chỉ cho Reddit, mà còn cho tất cả các nền tảng và công ty công nghệ đang “chạy đua” trong việc tích hợp AI vào sản phẩm của mình.

Chúng ta cần công nghệ để hỗ trợ, chứ không phải làm thay. Và trên hết, cần sự kiểm soát, trách nhiệm và đạo đức trong việc triển khai trí tuệ nhân tạo vào đời sống thực.

Tác giả giahan Admin
Bài viết trước Cách tắt tiếng Meta AI trong Meta Apps

Cách tắt tiếng Meta AI trong Meta Apps

Bài viết tiếp theo

Apple phát triển ứng dụng ChatGPT nội bộ “Veritas” để thử nghiệm Siri cải tiến

Apple phát triển ứng dụng ChatGPT nội bộ “Veritas” để thử nghiệm Siri cải tiến
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899