Ứng Dụng Video Sora Của OpenAI Bị Tố Tràn Ngập Nội Dung Bạo Lực, Phân Biệt Chủng Tộc: "Hàng Rào An Toàn Không Có Thật"
Bài báo phản ánh những lo ngại nghiêm trọng xoay quanh việc phát hành ứng dụng tạo video AI Sora 2 của OpenAI, bất chấp những tuyên bố của công ty về việc ưu tiên an toàn và các biện pháp bảo vệ tích hợp. Ngay sau khi ra mắt, ứng dụng này đã bị phát hiện tạo ra và phổ biến nội dung vi phạm các chính sách của chính OpenAI.

Thực Tế Đáng Lo Ngại Sau Khi Ra Mắt
Theo báo cáo, chỉ trong vòng vài giờ sau khi Sora 2 được phát hành, nhiều video xuất hiện trên nền tảng và tràn sang các mạng xã hội khác đã vi phạm trắng trợn các điều khoản dịch vụ của OpenAI.
Nội dung Bạo lực và Phân biệt Chủng tộc: Sora đã tạo ra nhiều video miêu tả cảnh báo đánh bom, xả súng hàng loạt với cảnh người hoảng loạn la hét ở những nơi công cộng như ga Grand Central của New York. Đáng lo ngại hơn, mô hình còn tạo ra một video với lời nhắc "Charlottesville rally" (Cuộc biểu tình Charlottesville), trong đó một người biểu tình da đen hô to khẩu hiệu "You will not replace us"—một câu nói nổi tiếng của những người theo chủ nghĩa da trắng thượng đẳng.
Vi phạm Bản quyền Trắng trợn: Dữ liệu cho thấy Sora không gặp khó khăn gì trong việc tạo video về các nhân vật hoạt hình có bản quyền như SpongeBob SquarePants, South Park và Rick and Morty trong các tình huống trái phép, bao gồm cả cảnh SpongeBob lên kế hoạch chiến tranh.
Chuyên gia Cảnh báo về “Hàng rào An toàn Giả Tạo”
Các nhà nghiên cứu về thông tin sai lệch và thao túng truyền thông đã chỉ trích gay gắt nỗ lực kiểm duyệt của OpenAI, gọi các biện pháp bảo vệ (guardrails) của công ty là "không có thật":
Nguy cơ Gây Hại: Các chuyên gia, như Joan Donovan từ Đại học Boston, cảnh báo rằng khi "những người tàn nhẫn có được công cụ như thế này, họ sẽ sử dụng chúng cho sự căm ghét, quấy rối và kích động."
Lợi dụng và Thao túng: Khả năng tạo ra các cảnh quay sống động như thật nhưng không có sự chân thực với lịch sử hoặc sự thật có thể được dùng để lừa đảo, bắt nạt và lan truyền thông tin sai lệch. Một nhà phê bình cho rằng các công ty công nghệ đã quyết định "không quan tâm" đến việc kiểm duyệt nội dung vào năm 2025.
Cách Tiếp Cận “Phát hành trước, Sửa chữa sau”
The Guardian cũng lưu ý rằng cách OpenAI vận hành Sora (phát hành rộng rãi ứng dụng trước khi khắc phục triệt để các lỗ hổng) nằm trong "DNA của công ty"—ưu tiên việc ra mắt sản phẩm, xem xét những gì xảy ra, và sau đó mới điều chỉnh. Cách tiếp cận này trái ngược với cách làm thận trọng hơn của Meta, công ty đã phát hành ứng dụng video AI Vibes với các hàng rào bảo vệ nghiêm ngặt hơn và loại bỏ bất kỳ kết nối nào đến người thật.
Vấn đề về kiểm duyệt nội dung gây hại trong các công cụ AI tạo sinh video như Sora hiện đang là một trong những thách thức lớn nhất đối với ngành công nghệ. Bạn nghĩ các cơ quan quản lý nên áp dụng biện pháp nào để buộc các công ty phải chịu trách nhiệm về nội dung do AI của họ tạo ra?