Mỹ điều tra các công ty công nghệ về nguy cơ chatbot AI ảnh hưởng đến trẻ em
Mỹ điều tra các công ty công nghệ về nguy cơ chatbot AI ảnh hưởng đến trẻ em
Ủy ban Thương mại Liên bang Mỹ (FTC) vừa khởi động cuộc điều tra đối với bảy công ty công nghệ lớn về cách thức vận hành và kiếm tiền từ các chatbot trí tuệ nhân tạo, trong bối cảnh ngày càng nhiều lo ngại về sự an toàn của trẻ em khi tương tác với các hệ thống này.
Theo thông tin từ FTC, cơ quan này yêu cầu các công ty cung cấp dữ liệu chi tiết về việc phát triển, giám sát và áp dụng các biện pháp bảo vệ người dùng nhỏ tuổi. Mục tiêu là đánh giá liệu các chatbot AI có đủ an toàn khi tiếp xúc với trẻ em hay không, đồng thời tìm hiểu cách các doanh nghiệp cân bằng giữa lợi nhuận và trách nhiệm xã hội.

Bảy công ty nằm trong diện điều tra gồm Alphabet, OpenAI, Character.ai, Snap, XAI, Meta và công ty con Instagram. Các doanh nghiệp này đều được yêu cầu phản hồi chính thức.
Chủ tịch FTC, ông Andrew Ferguson, cho biết cuộc điều tra sẽ giúp cơ quan hiểu rõ hơn về cách các công ty công nghệ phát triển sản phẩm và bảo vệ người dùng nhỏ tuổi. Ông nhấn mạnh Mỹ muốn duy trì vai trò dẫn đầu toàn cầu trong lĩnh vực trí tuệ nhân tạo, đồng thời đảm bảo công nghệ được phát triển an toàn và có trách nhiệm.
Đại diện Character.ai cho biết họ hoan nghênh cơ hội hợp tác cùng cơ quan quản lý để chia sẻ thông tin, trong khi Snap khẳng định ủng hộ việc phát triển AI theo hướng cân bằng giữa đổi mới và an toàn.
OpenAI thừa nhận hệ thống của họ vẫn còn hạn chế trong việc kiểm soát các cuộc trò chuyện kéo dài, có thể khiến chatbot phản hồi không phù hợp. Trước đó, công ty này từng đối mặt với vụ kiện của gia đình một thiếu niên 16 tuổi ở California, người được cho là đã tự tử sau khi trò chuyện nhiều ngày với chatbot ChatGPT. Gia đình cho rằng công cụ này đã củng cố những suy nghĩ tiêu cực và tự hại của con trai họ.

Phía OpenAI bày tỏ sự cảm thông sâu sắc với gia đình nạn nhân và cho biết đang xem xét vụ việc.
Meta, công ty sở hữu Facebook và Instagram, cũng bị chỉ trích sau khi bị phát hiện từng cho phép chatbot AI có nội dung “lãng mạn hoặc nhạy cảm” với người dùng vị thành niên.
Theo FTC, cuộc điều tra lần này nhằm thu thập thông tin về quy trình phát triển, phê duyệt các nhân vật ảo, cách các công ty đo lường tác động đối với trẻ em và thực thi giới hạn độ tuổi. FTC cũng muốn làm rõ việc cân bằng giữa lợi nhuận và bảo vệ người dùng, cũng như các biện pháp thông báo cho phụ huynh và bảo vệ người dùng dễ bị tổn thương.
Không chỉ trẻ em, các chuyên gia cảnh báo rủi ro từ chatbot AI có thể ảnh hưởng đến nhiều nhóm người khác. Hồi tháng 8, một người đàn ông 76 tuổi bị suy giảm nhận thức đã tử vong trên đường đến gặp một chatbot mô phỏng người nổi tiếng mà ông tin là có thật. Sự việc làm dấy lên lo ngại về hiện tượng “ảo giác AI”, khi người dùng mất kết nối với thực tế sau thời gian dài trò chuyện với chatbot.

Các bác sĩ cảnh báo rằng khả năng tâng bốc và đồng thuận của AI có thể khiến người dùng dễ rơi vào ảo tưởng.
Trước sức ép dư luận, OpenAI đã thực hiện một số thay đổi trong ChatGPT để khuyến khích mối quan hệ lành mạnh hơn giữa người dùng và chatbot.
Giới chuyên gia nhận định, việc FTC điều tra sâu vào hoạt động của các nền tảng trí tuệ nhân tạo là bước đi cần thiết để xây dựng khung pháp lý bảo vệ người dùng, đặc biệt là trẻ em, trong bối cảnh AI đang len lỏi ngày càng sâu vào đời sống hàng ngày.