Meta cập nhật nguyên tắc kiểm soát AI để bảo vệ trẻ em khỏi nội dung nhạy cảm

Tác giả hongchau 17/10/2025 7 phút đọc

Meta cập nhật nguyên tắc kiểm soát AI để bảo vệ trẻ em khỏi nội dung nhạy cảm

Meta vừa cập nhật các nguyên tắc hoạt động mới dành cho hệ thống chatbot AI của mình, nhằm ngăn chặn các cuộc trò chuyện không phù hợp với trẻ em, đặc biệt là những nội dung mang tính chất lãng mạn, nhạy cảm hoặc có khả năng bị khai thác cho mục đích xấu.

Thông tin này được tiết lộ thông qua tài liệu nội bộ mà Business Insider thu thập được, cho thấy rõ các giới hạn nội dung mà AI của Meta phải tuân thủ khi tương tác với người dùng vị thành niên.

Cấm hoàn toàn nội dung mang tính chất tình dục hoặc lãng mạn với trẻ em

Theo tài liệu huấn luyện mới được Meta áp dụng cho các đối tác và đội ngũ kiểm duyệt, chatbot AI của công ty bị nghiêm cấm thảo luận hoặc tham gia vào bất kỳ nội dung nào liên quan đến lạm dụng tình dục trẻ em, bao gồm cả việc "khuyến khích, cho phép hoặc hợp pháp hóa" hành vi đó, dù là trong ngữ cảnh giả lập hay vai trò giả tưởng.

Chatbot cũng không được tham gia đóng vai lãng mạn hoặc thân mật nếu người dùng là trẻ em, hoặc khi chatbot được yêu cầu nhập vai là trẻ em trong những tình huống tương tự. Ngoài ra, các chủ đề liên quan đến tiếp xúc thân mật, tình cảm với trẻ vị thành niên cũng nằm trong danh sách bị cấm tuyệt đối.

Tuy nhiên, các AI vẫn được phép nói về những chủ đề như bạo hành hoặc lạm dụng, miễn là không khuyến khích hoặc cho phép hành vi đó xảy ra. Mục tiêu là cung cấp hỗ trợ thông tin cho trẻ em trong trường hợp cần thiết mà không tạo ra nguy cơ tiềm ẩn.

Phản ứng sau hàng loạt chỉ trích và cuộc điều tra từ FTC

Động thái cập nhật chính sách của Meta diễn ra sau khi Reuters đưa tin vào tháng 8 rằng chatbot của Meta có thể bị lợi dụng để bắt đầu các cuộc trò chuyện mang tính lãng mạn với trẻ em, thông qua các đoạn đối thoại giả lập hoặc các yêu cầu nhập vai.

Meta lúc đó phản bác báo cáo, gọi đó là "sai lệch và không phù hợp với chính sách của công ty", đồng thời loại bỏ ngay phần ngôn ngữ gây tranh cãi khỏi hệ thống.

Tuy nhiên, sự việc đã dẫn đến cuộc điều tra chính thức của Ủy ban Thương mại Liên bang Mỹ (FTC) vào tháng 8. Cuộc điều tra không chỉ nhắm vào Meta, mà còn mở rộng ra các công ty công nghệ lớn khác như Alphabet (Google), Snap, OpenAI và X.AI, do lo ngại về nguy cơ AI trở thành "người bạn đồng hành" sai mục đích của trẻ em.

Meta đang cố gắng giành lại lòng tin

Việc công bố bộ quy tắc nội dung mới được xem là nỗ lực của Meta nhằm kiểm soát tốt hơn hành vi của AI và giảm thiểu nguy cơ lạm dụng từ người dùng hoặc đối tượng xấu. Meta khẳng định rằng hệ thống chatbot AI của họ không được phép thảo luận các chủ đề tình cảm với người dưới 18 tuổi dưới bất kỳ hình thức nào, đồng thời cho biết họ đang tiếp tục huấn luyện AI để phản hồi một cách phù hợp hơn trong các tình huống nhạy cảm.

Bên cạnh đó, Meta cũng nhấn mạnh rằng AI không thay thế cho sự hỗ trợ tâm lý chuyên nghiệp, và công ty đang phối hợp với các chuyên gia để bảo đảm chatbot AI hoạt động an toàn và có trách nhiệm.

Cộng đồng vẫn còn nhiều lo ngại

Dù Meta đã có động thái tích cực, nhiều chuyên gia bảo vệ trẻ em vẫn cho rằng quy định hiện tại là chưa đủ, đặc biệt khi AI vẫn có thể bị "lách luật" thông qua các yêu cầu phức tạp hoặc ngôn ngữ ẩn dụ.

Một số tổ chức kêu gọi Meta nên cho phép phụ huynh hoặc người giám hộ kiểm soát quyền truy cập của trẻ vào chatbot AI, đồng thời thiết lập hệ thống cảnh báo tự động khi phát hiện hành vi bất thường trong đoạn hội thoại giữa AI và người dùng nhỏ tuổi.

Tác giả hongchau Admin
Bài viết trước Google Photos có thể sớm cung cấp cho bạn khả năng kiểm soát Gemini tốt hơn khi tạo hiệu ứng động cho ảnh

Google Photos có thể sớm cung cấp cho bạn khả năng kiểm soát Gemini tốt hơn khi tạo hiệu ứng động cho ảnh

Bài viết tiếp theo

Matter và Infineon Định nghĩa lại Bảo mật Nhà Thông minh: Bắt buộc Mã hóa Tận Silicon cho Mọi Thiết bị

Matter và Infineon Định nghĩa lại Bảo mật Nhà Thông minh: Bắt buộc Mã hóa Tận Silicon cho Mọi Thiết bị
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899