Cách nhận diện video giả mạo do AI Sora của OpenAI tạo ra

Tác giả phuhien 20/01/2026 7 phút đọc

Sora, mô hình chuyển văn bản thành video (text-to-video) mới nhất của OpenAI, đã gây kinh ngạc cho cả thế giới với những thước phim trông như thật. Tuy nhiên, sự phát triển này cũng làm dấy lên những lo ngại về tin giả và sự lừa dối. Dù Sora rất ấn tượng, nhưng nó vẫn chưa hoàn hảo.

Dưới đây là những dấu hiệu then chốt giúp bạn phát hiện ra một video được tạo bởi trí tuệ nhân tạo, ngay cả khi nó trông rất chân thực ngay từ cái nhìn đầu tiên.

1. Sự bất thường về vật lý (Physics Violations)

Mặc dù Sora hiểu được nhiều quy luật vật lý, nhưng nó thường xuyên thất bại trong việc mô phỏng các tương tác phức tạp giữa các vật thể.

  • Sự dịch chuyển phi thực tế: Hãy quan sát cách các vật thể di chuyển.  Đôi khi, một vật thể có thể đi xuyên qua một vật thể khác thay vì va chạm hoặc vòng qua nó.

  • Nguyên nhân và kết quả: Sora có thể gặp khó khăn với tính logic của hành động. Ví dụ, một người cắn một chiếc bánh quy, nhưng sau đó chiếc bánh vẫn còn nguyên vẹn, không có vết cắn.

2. Tính nhất quán về thời gian và không gian (Temporal Consistency)

Trong các video AI, các vật thể thường có xu hướng "biến hình" hoặc xuất hiện/biến mất một cách đột ngột.

  • Đối tượng thay đổi: Một người đang đi bộ có thể đột ngột thay đổi kiểu tóc, màu áo hoặc hình dáng khuôn mặt sau khi đi qua một cái cây hoặc một người khác.

  • Số lượng tay chân: Hãy đếm số ngón tay hoặc chân. AI thường gặp lỗi khi xử lý các chi tiết nhỏ này, dẫn đến việc nhân vật có quá nhiều hoặc quá ít ngón tay, hoặc các chi bị mọc ra từ những vị trí kỳ lạ.

3. Lỗi bối cảnh và chi tiết hậu cảnh

Trong khi Sora tập trung vào chủ thể chính, các chi tiết ở hậu cảnh thường bị bỏ sót hoặc xử lý cẩu thả.

  • Người đi bộ ở phía sau: Hãy quan sát những người hoặc xe cộ ở xa. Họ có thể di chuyển theo những hướng không hợp lý, hoặc đột ngột tan biến vào không trung.

  • Kiến trúc không logic: Các tòa nhà có thể có những ô cửa sổ không thẳng hàng, hoặc các biển báo có những dòng chữ ngoằn ngoèo, không thuộc về bất kỳ ngôn ngữ nào.

4. Ánh sáng và bóng đổ

Việc mô phỏng chính xác cách ánh sáng tương tác với các bề mặt khác nhau là một nhiệm vụ cực kỳ khó khăn đối với AI.

  • Bóng đổ không khớp: Hướng của bóng đổ có thể không khớp với vị trí của nguồn sáng trong video.

  • Sự phản chiếu: Hãy nhìn vào gương, mặt nước hoặc các bề mặt kim loại. Các hình ảnh phản chiếu thường bị méo mó hoặc không phản ánh đúng những gì đang diễn ra trước mặt chúng.

5. Kiểm tra dấu vân tay kỹ thuật số (Metadata & Watermarks)

OpenAI đã cam kết thực hiện các biện pháp an toàn để giúp người dùng nhận diện video do Sora tạo ra.

  • Tiêu chuẩn C2PA: OpenAI dự kiến sẽ nhúng siêu dữ liệu (metadata) theo tiêu chuẩn C2PA vào các video của Sora.  Điều này cho phép các công cụ kiểm tra xác định nguồn gốc của video là từ AI.

  • Hình mờ (Watermarks): Các video được tạo ra có thể kèm theo một logo nhỏ hoặc dấu hiệu nhận biết ở góc màn hình để cảnh báo người xem.

Lời kết

Khi công nghệ AI ngày càng hoàn thiện, ranh giới giữa thực và ảo sẽ còn mờ nhạt hơn nữa. Việc rèn luyện một cái nhìn khắt khe và luôn đặt câu hỏi về nguồn gốc của thông tin là cách tốt nhất để bảo vệ bản thân trước những nội dung giả mạo tinh vi.

Tác giả phuhien Admin
Bài viết trước Cách thiết lập trả lời tự động khi vắng mặt (Out of Office) trong Microsoft Outlook

Cách thiết lập trả lời tự động khi vắng mặt (Out of Office) trong Microsoft Outlook

Bài viết tiếp theo

Chuyển động của con người đang thúc đẩy cuộc cách mạng robot — bằng cách dạy cho các robot như Atlas cách di chuyển giống như thật.

Chuyển động của con người đang thúc đẩy cuộc cách mạng robot — bằng cách dạy cho các robot như Atlas cách di chuyển giống như thật.
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899