Ấn Độ yêu cầu các nền tảng mạng xã hội gỡ bỏ video deepfake nhanh hơn
Chính phủ Ấn Độ vừa ban hành quy định mới thắt chặt thời gian phản hồi, buộc các nền tảng như Meta, Google và X phải xử lý nội dung AI giả mạo trong vòng vài giờ.
Ngày 10 tháng 2 năm 2026
Chính phủ Ấn Độ đã chính thức thông báo sửa đổi Luật Công nghệ Thông tin (IT Rules), áp đặt các nghĩa vụ nghiêm ngặt hơn đối với các nền tảng mạng xã hội trong việc quản lý nội dung do AI tạo ra. Động thái này đưa Ấn Độ trở thành một trong những quốc gia có quy định cứng rắn nhất thế giới nhằm chống lại sự lan truyền của deepfake.
Thời hạn gỡ bỏ "siêu tốc" Theo quy định mới sẽ có hiệu lực từ ngày 20 tháng 2 năm 2026, các nền tảng trung gian kỹ thuật số phải tuân thủ các mốc thời gian khắc nghiệt:
Nội dung xâm hại tình dục không đồng thuận (bao gồm deepfake khiêu dâm): Phải được gỡ bỏ trong vòng 2 giờ kể từ khi nhận được báo cáo.
Các nội dung deepfake trái pháp luật khác: Phải được xử lý trong vòng 3 giờ sau khi có lệnh từ tòa án hoặc cơ quan có thẩm quyền (giảm mạnh so với thời hạn 36 giờ trước đây).
Bắt buộc dán nhãn AI Quy định cũng yêu cầu tất cả các nội dung được tạo ra hoặc chỉnh sửa bằng AI (SGI - Synthetically Generated Information) phải được dán nhãn rõ ràng và nổi bật. Các nền tảng phải triển khai công nghệ xác thực và gắn mã định danh chìm (watermark) để người dùng dễ dàng nhận biết đâu là nội dung thực và đâu là sản phẩm của máy tính.
Trách nhiệm chủ động của nền tảng Thay vì chỉ phản ứng khi có báo cáo, chính phủ Ấn Độ yêu cầu các công ty công nghệ phải triển khai các công cụ tự động để chủ động phát hiện và ngăn chặn việc phát tán các nội dung AI độc hại ngay từ đầu. Các nền tảng cũng phải cập nhật chính sách quyền riêng tư và thông báo cho người dùng về các loại nội dung bị cấm ít nhất 3 tháng một lần.
Áp lực lên các gã khổng lồ công nghệ Với hơn 700 triệu người dùng internet, Ấn Độ là thị trường quan trọng nhưng cũng đầy thách thức đối với Big Tech. Việc rút ngắn thời gian phản hồi xuống còn 2-3 giờ được coi là một "bài kiểm tra căng thẳng" đối với hệ thống kiểm duyệt của Meta, Google hay X, nhất là khi công nghệ phát hiện AI hiện nay vẫn chưa đạt độ chính xác tuyệt đối.
Các chuyên gia nhận định rằng, nếu các nền tảng không đáp ứng được yêu cầu này, họ có thể đối mặt với các hình phạt hình sự hoặc mất quyền "bảo vệ bến cảng an toàn" (safe harbor) – cơ chế miễn trừ trách nhiệm pháp lý đối với nội dung do người dùng đăng tải.