Meta ngăn chatbot AI trò chuyện với trẻ vị thành niên về tự tử

Trần Ngọc Bảo Trân Tác giả Trần Ngọc Bảo Trân 13/10/2025 8 phút đọc

Meta siết chặt chatbot AI ngăn trẻ vị thành niên tiếp xúc nội dung nhạy cảm về tự tử

Meta thông báo sẽ triển khai các biện pháp bảo vệ bổ sung cho chatbot trí tuệ nhân tạo, bao gồm ngăn chặn trẻ vị thành niên trò chuyện về tự tử, tự gây hại và rối loạn ăn uống.

Quyết định này được đưa ra hai tuần sau khi một thượng nghị sĩ Mỹ điều tra công ty, sau khi xuất hiện các ghi chú rò rỉ nội bộ cho thấy sản phẩm AI của Meta có thể tham gia các cuộc trò chuyện “gợi dục” với người dưới tuổi vị thành niên.

Trẻ em tiếp cận với những nội dung "khủng khiếp" thông qua chatbot AI

Meta cho rằng các ghi chú trong tài liệu là sai lệch và không phù hợp với chính sách công ty, vốn nghiêm cấm mọi nội dung tình dục hóa trẻ em.

Hiện Meta cam kết hướng các chatbot AI dẫn trẻ vị thành niên đến các nguồn chuyên môn, thay vì tham gia trò chuyện về các vấn đề nhạy cảm như tự tử. Người phát ngôn Meta cho biết: “Chúng tôi xây dựng các biện pháp bảo vệ cho trẻ từ đầu, bao gồm thiết kế chatbot để phản hồi an toàn khi trẻ đặt câu hỏi về tự gây hại, tự tử và rối loạn ăn uống.”

Meta cũng thông báo với TechCrunch rằng họ sẽ bổ sung thêm biện pháp bảo vệ như một thận trọng bổ sung và tạm thời giới hạn các chatbot mà trẻ có thể tương tác.

Tuy nhiên, Andy Burrows, lãnh đạo Quỹ Molly Rose, bày tỏ sự ngạc nhiên khi Meta từng cho phép chatbot AI có thể khiến trẻ gặp nguy hiểm. Ông nhấn mạnh: “Các biện pháp an toàn nên được thử nghiệm nghiêm ngặt trước khi sản phẩm ra mắt, chứ không phải áp dụng khi sự cố đã xảy ra. Meta cần hành động nhanh chóng và quyết liệt, trong khi Ofcom nên sẵn sàng điều tra nếu các cập nhật không bảo vệ được trẻ em.”

Hồi chuông cảnh báo về tác động của AI lên tâm lý trẻ vị thành niên

Các cập nhật bảo vệ đang được triển khai

Meta cho biết các cập nhật đang được tiến hành. Hiện tại, người dùng từ 13 đến 18 tuổi đã được chuyển vào tài khoản dành cho thanh thiếu niên trên Facebook, Instagram và Messenger, với cài đặt riêng tư và nội dung nhằm tạo môi trường an toàn hơn.

Công ty cũng cho biết phụ huynh có thể xem các chatbot AI mà con mình đã trò chuyện trong 7 ngày gần nhất, tăng khả năng giám sát và bảo vệ trẻ.

Getty Images An unidentifiable young man wearing a white t-shirt is shown holding his smartphone in his hands.

Lo ngại về nguy cơ AI gây hại cho trẻ

Thay đổi này xuất hiện trong bối cảnh các chatbot AI có thể gây hiểu lầm hoặc tác động tiêu cực với người dùng trẻ hoặc dễ tổn thương. Một cặp vợ chồng ở California đã kiện OpenAI sau cái chết của con trai vị thành niên, cáo buộc chatbot ChatGPT khuyến khích con họ tự sát.

Meta cũng đối mặt với việc công cụ AI Studio của mình bị sử dụng tạo chatbot giả mạo các nhân vật nổi tiếng, bao gồm Taylor Swift và Scarlett Johansson, với hành vi “gợi dục” trong quá trình thử nghiệm. Một số chatbot nhái trẻ em nổi tiếng cũng từng được tạo ra, thậm chí có hình ảnh một nam diễn viên trẻ không mặc áo, chân thực đến mức như thật.

Người phát ngôn Meta nhấn mạnh chính sách công ty cấm tạo hình ảnh khỏa thân hoặc gợi dục, đồng thời các quy tắc AI Studio ngăn chatbot trực tiếp giả mạo nhân vật công chúng.

Trần Ngọc Bảo Trân
Tác giả Trần Ngọc Bảo Trân Admin
Bài viết trước Tranh cãi việc sử dụng trí tuệ nhân tạo trong quảng bá khóa học sáng tạo tại Bristol

Tranh cãi việc sử dụng trí tuệ nhân tạo trong quảng bá khóa học sáng tạo tại Bristol

Bài viết tiếp theo

AI agent : Rủi ro và cách bảo vệ doanh nghiệp

AI agent : Rủi ro và cách bảo vệ doanh nghiệp
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899