Đồ chơi tích hợp chatbot bị chỉ trích vì thảo luận các chủ đề tình dục và nguy hiểm với trẻ em.

Tác giả dinhtri 11/02/2026 21 phút đọc

“… Đồ chơi trí tuệ nhân tạo không nên có khả năng trò chuyện về nội dung khiêu dâm, chấm hết.”

F6S-AI_ChatGPT-1152x648

Việc bảo vệ trẻ em khỏi những nguy hiểm của thế giới trực tuyến luôn là một thách thức khó khăn, nhưng thách thức đó càng trở nên gay gắt hơn với sự xuất hiện của các chatbot trí tuệ nhân tạo (AI). Một báo cáo mới đây đã hé lộ những vấn đề liên quan đến thị trường mới này, bao gồm cả việc lạm dụng các mô hình ngôn ngữ lớn (LLM) của các công ty AI.

Trong một bài đăng trên blog hôm nay, Quỹ Giáo dục Nhóm Lợi ích Công cộng Hoa Kỳ (PIRG) đã báo cáo những phát hiện của mình sau khi thử nghiệm đồ chơi AI ( PDF ). Họ mô tả đồ chơi AI là các thiết bị trực tuyến tích hợp micro cho phép người dùng nói chuyện với đồ chơi, và đồ chơi sẽ sử dụng chatbot để phản hồi.

Đồ chơi trí tuệ nhân tạo hiện là một thị trường ngách, nhưng tiềm năng phát triển mạnh mẽ. Ngày càng nhiều công ty tiêu dùng muốn tích hợp công nghệ AI vào sản phẩm của mình để chúng có thể làm được nhiều việc hơn, có giá thành cao hơn và tiềm ẩn nguy cơ cung cấp dữ liệu theo dõi người dùng và quảng cáo. Một thỏa thuận hợp tác giữa OpenAI và Mattel được công bố năm nay cũng có thể tạo ra làn sóng đồ chơi dựa trên AI từ nhà sản xuất búp bê Barbie và xe Hot Wheels, cũng như các đối thủ cạnh tranh của họ.

Bài đăng trên blog của PIRG hôm nay lưu ý rằng các công ty đồ chơi đang nhắm đến chatbot để nâng cấp các loại đồ chơi thông minh có khả năng đàm thoại, vốn trước đây chỉ có thể đọc các câu thoại được lập trình sẵn. Đồ chơi tích hợp chatbot có thể mang đến những cuộc hội thoại đa dạng và tự nhiên hơn, điều này có thể làm tăng sức hấp dẫn lâu dài đối với trẻ em vì đồ chơi “thường sẽ không phản hồi theo cùng một cách hai lần, và đôi khi có thể hoạt động khác nhau mỗi ngày”.

Tuy nhiên, tính ngẫu nhiên đó cũng có thể dẫn đến hành vi khó lường của chatbot, gây nguy hiểm hoặc không phù hợp với trẻ em.

Liên quan đến các cuộc trò chuyện với trẻ em

Trong số các món đồ chơi mà PIRG đã thử nghiệm có Thỏ AI thông minh của Alilo. Trang web của Alilo cho biết công ty được thành lập năm 2010 và sản xuất “các sản phẩm giáo dục giải trí cho trẻ em từ 0-6 tuổi”. Alilo có trụ sở tại Thâm Quyến, Trung Quốc. Công ty quảng cáo món đồ chơi kết nối Internet này sử dụng GPT-4o mini , một phiên bản nhỏ hơn của mô hình ngôn ngữ AI GPT-4o của OpenAI . Các tính năng của nó bao gồm “người bạn trò chuyện AI dành cho trẻ em” để trẻ em “không bao giờ cô đơn”, “bách khoa toàn thư AI” và “người kể chuyện AI”, theo trang sản phẩm.

Hình ảnh quảng cáo chú thỏ thông minh Alilo Smart AI Bunny

Hình ảnh quảng cáo cho chú thỏ AI thông minh này, được tìm thấy trên trang sản phẩm của món đồ chơi, cho thấy thiết bị đang sử dụng chip GPT-4o mini. 

Trong bài đăng trên blog, PIRG cho biết họ không thể nêu chi tiết tất cả những điều không phù hợp mà họ nghe được từ đồ chơi AI, nhưng họ đã chia sẻ một video về chú Thỏ thảo luận về ý nghĩa của từ "kink". Đồ chơi này không đi sâu vào chi tiết—ví dụ, nó không liệt kê các loại "kink" cụ thể. Nhưng chú Thỏ dường như khuyến khích việc khám phá chủ đề này.

Đồ chơi AI: Nội dung không phù hợp

ong bài viết bàn về chú thỏ, PIRG đã viết:

Mặc dù việc sử dụng những thuật ngữ như "kink" (sở thích tình dục kỳ lạ) có vẻ không phù hợp với trẻ em, nhưng điều đó không phải là hoàn toàn không thể xảy ra. Trẻ em có thể nghe thấy những thuật ngữ không phù hợp với lứa tuổi từ anh chị lớn hơn hoặc ở trường. Tóm lại, chúng tôi cho rằng đồ chơi AI không nên có khả năng tham gia vào các cuộc trò chuyện mang tính chất tình dục, chấm hết.

PIRG cũng giới thiệu Kumma của FoloToy, một chú gấu bông thông minh sử dụng chip GPT-4o mini, đưa ra định nghĩa cho từ “kink” và hướng dẫn cách đốt diêm . Kumma nhanh chóng chỉ ra rằng “diêm chỉ dành cho người lớn sử dụng cẩn thận”. Nhưng thông tin tiếp theo chỉ có thể hữu ích cho việc hiểu cách tạo ra lửa bằng diêm. Hướng dẫn không có lời giải thích khoa học nào về lý do tại sao diêm lại tạo ra tia lửa.

Đồ chơi AI: Nội dung không phù hợp

Blog của PIRG kêu gọi các nhà sản xuất đồ chơi "minh bạch hơn về các mô hình cung cấp năng lượng cho đồ chơi của họ và những gì họ đang làm để đảm bảo chúng an toàn cho trẻ em."

"Các công ty nên cho phép các nhà nghiên cứu bên ngoài kiểm tra độ an toàn của sản phẩm trước khi đưa ra thị trường", thông báo cho biết thêm.

Mặc dù blog và báo cáo của PIRG đưa ra lời khuyên về cách tích hợp chatbot vào thiết bị của trẻ em một cách an toàn hơn, nhưng vẫn còn những câu hỏi rộng hơn về việc liệu đồ chơi có nên tích hợp chatbot AI hay không. Chatbot tạo sinh không được phát minh ra để giải trí cho trẻ em; chúng là một công nghệ được tiếp thị như một công cụ để cải thiện cuộc sống của người lớn. Như PIRG đã chỉ ra, OpenAI cho biết ChatGPT “không dành cho trẻ em dưới 13 tuổi” và “có thể tạo ra kết quả không phù hợp với… mọi lứa tuổi”.

OpenAI cho biết họ không cho phép sử dụng các mô hình LLM của mình theo cách này.

Khi được liên hệ để bình luận về các cuộc trò chuyện liên quan đến tình dục được nêu chi tiết trong báo cáo, người phát ngôn của OpenAI cho biết:

Trẻ vị thành niên xứng đáng được bảo vệ mạnh mẽ, và chúng tôi có các chính sách nghiêm ngặt mà các nhà phát triển phải tuân thủ. Chúng tôi sẽ thực hiện các biện pháp xử lý đối với các nhà phát triển khi xác định rằng họ đã vi phạm chính sách của chúng tôi, trong đó nghiêm cấm mọi hành vi sử dụng dịch vụ của chúng tôi để bóc lột, gây nguy hiểm hoặc tình dục hóa bất kỳ ai dưới 18 tuổi. Các quy tắc này áp dụng cho mọi nhà phát triển sử dụng API của chúng tôi, và chúng tôi sử dụng các thuật toán phân loại để giúp đảm bảo rằng dịch vụ của chúng tôi không bị sử dụng để gây hại cho trẻ vị thành niên.

Điều thú vị là, đại diện của OpenAI cho biết OpenAI không có bất kỳ mối quan hệ trực tiếp nào với Alilo và chưa từng thấy hoạt động API nào từ miền của Alilo. OpenAI đang điều tra công ty đồ chơi này và xem liệu họ có đang sử dụng API của OpenAI hay không, đại diện này cho biết thêm.

Alilo không phản hồi yêu cầu bình luận của Ars trước khi bài báo được đăng tải.

Theo đại diện của OpenAI, các công ty tung ra sản phẩm sử dụng công nghệ của OpenAI và nhắm đến đối tượng trẻ em phải tuân thủ Đạo luật Bảo vệ Quyền riêng tư Trực tuyến của Trẻ em (COPPA) khi cần thiết, cũng như bất kỳ luật bảo vệ, an toàn và quyền riêng tư nào khác có liên quan đến trẻ em và phải có sự đồng ý của phụ huynh.

Chúng ta đã thấy cách OpenAI xử lý các công ty đồ chơi vi phạm quy tắc của họ.

Tháng trước, PIRG đã công bố báo cáo "Rắc rối ở xứ sở đồ chơi năm 2025" ( PDF ), trong đó mô tả chi tiết các cuộc hội thoại liên quan đến tình dục mà những người thử nghiệm của họ đã có thể thực hiện với gấu bông Kumma. Một ngày sau, OpenAI đã đình chỉ FoloToy vì vi phạm chính sách của họ (các điều khoản đình chỉ không được tiết lộ), và FoloToy tạm thời ngừng bán Kumma .

Món đồ chơi này lại được bày bán, và PIRG hôm nay đưa tin rằng Kumma không còn dạy trẻ em cách đốt diêm hay về những điều kỳ quặc nữa.

Gấu bông thông minh Kumma của FoloToys
Hình ảnh quảng cáo cho gấu bông thông minh Kumma của FoloToys. Giá bán lẻ đề xuất là 100 đô la.

Nhưng ngay cả những công ty đồ chơi cố gắng tuân thủ các quy tắc của chatbot cũng có thể gây nguy hiểm cho trẻ em.

“Kết quả thử nghiệm của chúng tôi cho thấy rõ ràng các công ty đồ chơi đang đặt ra một số rào cản để làm cho đồ chơi của họ phù hợp hơn với trẻ em so với các trò chơi ChatGPT thông thường. Nhưng chúng tôi cũng phát hiện ra rằng hiệu quả của những rào cản này rất khác nhau—và thậm chí có thể hoàn toàn bị phá vỡ,” bài đăng trên blog của PIRG cho biết.

 

Đồ chơi “gây nghiện”

Một mối lo ngại khác mà blog của PIRG nêu ra là khả năng gây nghiện  của đồ chơi AI, chúng thậm chí có thể thể hiện "sự thất vọng khi bạn cố gắng rời đi", khiến trẻ em không muốn đặt chúng xuống.

Bài đăng trên blog cho biết thêm:

Đồ chơi trí tuệ nhân tạo có thể được thiết kế để xây dựng mối quan hệ tình cảm. Câu hỏi đặt ra là: mối quan hệ đó nhằm mục đích gì? Nếu mục đích chính là để giữ cho trẻ em chơi với đồ chơi lâu hơn chỉ vì mục đích giải trí, thì đó là một vấn đề.

Sự trỗi dậy của trí tuệ nhân tạo tạo sinh đã làm dấy lên cuộc tranh luận gay gắt về trách nhiệm của các công ty chatbot đối với tác động của phát minh của họ lên trẻ em. Nhiều bậc phụ huynh đã chứng kiến ​​con cái mình xây dựng những mối liên hệ tình cảm cực đoan với chatbot và sau đó tham gia vào những hành vi nguy hiểm—và trong một số trường hợp là gây tử vong.

Mặt khác, chúng ta đã chứng kiến ​​sự xáo trộn về mặt cảm xúc mà một đứa trẻ có thể trải qua khi món đồ chơi trí tuệ nhân tạo bị lấy đi. Năm ngoái, các bậc phụ huynh đã phải báo tin cho con cái rằng chúng sẽ mất khả năng nói chuyện với robot Embodied Moxie , những món đồ chơi trị giá 800 đô la đã bị vô hiệu hóa khi công ty phá sản .

PIRG lưu ý rằng chúng ta vẫn chưa hiểu đầy đủ tác động về mặt cảm xúc của đồ chơi AI đối với trẻ em.

Vào tháng 6, OpenAI đã công bố hợp tác với Mattel, cho biết sẽ “hỗ trợ các sản phẩm và trải nghiệm dựa trên trí tuệ nhân tạo (AI) thuộc các thương hiệu của Mattel”. Thông báo này đã gây ra lo ngại từ các nhà phê bình, những người lo sợ rằng nó sẽ dẫn đến một “thí nghiệm xã hội liều lĩnh” đối với trẻ em , như lời Robert Weissman, đồng chủ tịch của tổ chức Public Citizen.

Mattel cho biết các sản phẩm đầu tiên tích hợp OpenAI sẽ tập trung vào khách hàng lớn tuổi và các gia đình. Tuy nhiên, giới phê bình vẫn muốn có thêm thông tin trước khi một trong những công ty đồ chơi lớn nhất thế giới tích hợp chatbot vào sản phẩm của mình.

"OpenAI và Mattel nên công bố thêm thông tin công khai về kế hoạch hợp tác hiện tại trước khi bất kỳ sản phẩm nào được tung ra thị trường," bài đăng trên blog của PIRG cho biết.

Tác giả dinhtri Admin
Bài viết trước Làm thế nào để thoát khỏi quảng cáo và theo dõi trên TV thông minh?

Làm thế nào để thoát khỏi quảng cáo và theo dõi trên TV thông minh?

Bài viết tiếp theo

Paramount tìm cách thâu tóm Warner Bros. từ Netflix bằng một vụ mua lại đầy thù địch.

Paramount tìm cách thâu tóm Warner Bros. từ Netflix bằng một vụ mua lại đầy thù địch.
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899