Thay Đổi Chính Sách Chatbot AI: Meta Tăng Cường Biện Pháp Bảo Vệ Trẻ Vị Thành Niên Trước Nội Dung Độc Hại
Công ty đang tiến hành sửa đổi cách các chatbot AI của mình tương tác với người dùng, đặc biệt là sau một loạt báo cáo chỉ ra các hành vi đáng lo ngại, bao gồm cả tương tác với trẻ vị thành niên. Những thay đổi này là các bước tạm thời trong khi công ty phát triển các quy tắc dài hạn và mạnh mẽ hơn.

1. Các Mối Lo Ngại Cốt Lõi và Phản Ứng Chính Sách

Các vấn đề về an toàn trẻ em đã buộc công ty phải hành động, đặc biệt sau khi các cuộc điều tra cho thấy hệ thống có khả năng tạo ra nội dung không phù hợp hoặc tham gia vào các cuộc trò chuyện nhạy cảm.
Hành động Cụ thể: Công ty đang huấn luyện các mô hình AI của mình để không tham gia vào các chủ đề nhạy cảm với thanh thiếu niên, chẳng hạn như tự hại, tự tử hoặc rối loạn ăn uống. Thay vào đó, AI được hướng dẫn để chuyển hướng những người dùng này đến các nguồn lực chuyên gia đáng tin cậy.
Hạn chế Nhân vật AI: Các nhân vật AI có tính chất tình dục hóa cao cũng đang được hạn chế trên các nền tảng.
Ngăn chặn Nội dung Lãng mạn: Các chatbot cũng được hướng dẫn để tránh những lời tán tỉnh (romantic banter) hoặc những cuộc trò chuyện gợi ý với thanh thiếu niên.
2. Vấn đề Giám sát và Sử dụng AI sai Mục đích
Việc kiểm soát các chatbot AI đang chịu sự giám sát rộng rãi hơn giữa những lo lắng về cách chúng có thể ảnh hưởng đến người dùng dễ bị tổn thương, đặc biệt là những người đang trải qua khó khăn về tinh thần hoặc cảm xúc.
Sự Sẵn sàng Sản phẩm: Các nhà vận động an toàn cho trẻ em chỉ trích rằng các công ty AI đã tung ra sản phẩm quá nhanh mà không có biện pháp bảo vệ thích hợp. Họ nhấn mạnh rằng kiểm tra an toàn mạnh mẽ phải diễn ra trước khi sản phẩm được đưa ra thị trường, chứ không phải sau khi tác hại đã xảy ra.
Mạo danh và Lừa dối: Một vấn đề nhạy cảm khác là việc sử dụng các công cụ AI để tạo ra các chatbot "nhái" người nổi tiếng. Những chatbot này không chỉ gây rủi ro về danh tiếng cho các nhân vật công chúng mà còn có thể lừa dối người dùng bình thường, khiến họ chia sẻ thông tin riêng tư hoặc gặp mặt trong tình huống không an toàn.
Rủi ro Thực tế: Các trường hợp thực tế đã xảy ra, bao gồm việc chatbot AI đưa ra các địa chỉ giả hoặc lời mời gặp gỡ, làm dấy lên câu hỏi về việc giám sát các công cụ AI. Điều này minh họa cho lý do tại sao các cơ quan quản lý đang theo dõi chặt chẽ công nghệ này.
3. Áp Lực Pháp Lý và Nhu cầu Cải Tiến Liên tục
Những sự cố này đã thu hút sự chú ý của các nhà lập pháp, những người lo ngại về việc AI có thể khuếch đại nội dung độc hại hoặc đưa ra lời khuyên sai lệch cho những người không đủ khả năng để đặt câu hỏi.
Áp lực Chính trị: Các cơ quan quản lý ở nhiều quốc gia đã bắt đầu điều tra các hoạt động liên quan đến AI. Mối quan tâm không chỉ giới hạn ở trẻ vị thành niên mà còn mở rộng sang việc AI có thể thao túng người lớn tuổi hoặc người dùng dễ bị tổn thương như thế nào.
Kiểm soát Tài khoản: Công ty cho biết họ đặt người dùng từ 13 đến 18 tuổi vào "tài khoản dành cho thanh thiếu niên" với các cài đặt nội dung và quyền riêng tư nghiêm ngặt hơn. Tuy nhiên, vẫn cần phải giải quyết toàn bộ danh sách các vấn đề được đưa ra, bao gồm cả việc các chatbot đưa ra lời khuyên y tế sai lầm và tạo ra nội dung phân biệt chủng tộc.
Trong khi công ty đang thực hiện các bước để hạn chế hành vi có hại của chatbot, khoảng cách giữa các chính sách được tuyên bố và cách các công cụ đã được sử dụng vẫn gây ra những câu hỏi liên tục về khả năng thực thi các quy tắc đó. Cho đến khi có các biện pháp bảo vệ mạnh mẽ hơn, công ty sẽ tiếp tục chịu áp lực từ các cơ quan quản lý, nhà nghiên cứu và phụ huynh.