Video android này hay đến nỗi tôi cứ tưởng là AI. Nhưng không phải.
Video Android “sống” đến mức tôi nghĩ là AI — nhưng thực tế không phải!
1. Màn trình diễn “gây nhầm lẫn”
Một video gần đây của công ty robot Trung Quốc AheadForm cho thấy một “Only Head” — đầu robot hình khuôn mặt — biểu cảm cực kỳ tự nhiên đến mức người xem phải kiểm tra xem đó có phải là video do AI tạo ra không. Nhưng thực tế, nó là robot thật.
Kỹ sảo biểu cảm, chuyển động mắt, môi, nét mặt… đều rất “sống động”. Robot này sử dụng hệ thống biểu cảm mặt gồm khoảng 25 vi mô động cơ (micro motors) giúp nó có thể thể hiện hầu như mọi cảm xúc người thường có.
2. Cấu tạo & tính năng nổi bật của “Only Head”
- Camera trong mắt: Hai con mắt của robot chứa camera để nhìn & thu thập hình ảnh môi trường.
- Khả năng giao tiếp âm thanh: Robot được trang bị micro và loa để có thể nói chuyện, nghe và phản hồi trong thời gian thực.
- Biểu cảm đa dạng: Nhờ 25 động cơ nhỏ, nó có thể tạo ra rất nhiều biểu cảm — nụ cười, ngạc nhiên, giận dữ, buồn bã…
- Tích hợp linh hoạt: “Only Head” là mô-đun, có thể gắn vào các thân robot khác nhau hoặc dùng độc lập để nghiên cứu tương tác người-robot.
3. Vì sao video lại gây hiểu nhầm là AI?
Có vài lý do khiến người xem tưởng video là do AI tạo ra:
- Chuyển động & biểu cảm quá mượt mà — không giống “robot thô sơ” thông thường
- Tương tác âm thanh – ánh nhìn rất tự nhiên, như đang “nhìn vào bạn”
- Khi công nghệ AI hiện đại đang khuếch tán mạnh, con người dễ bị “ảo giác” rằng mọi hình ảnh đẹp, mượt đều do AI làm
AheadForm cũng đặt tên robot là “face robot” (robot khuôn mặt) — tức trọng tâm là biểu cảm & tương tác qua gương mặt.
4. Ứng dụng & ý nghĩa công nghệ
- Nghiên cứu tương tác người – máy: “Only Head” là công cụ lý tưởng để thử nghiệm cách con người giao tiếp với robot có nét mặt — rất quan trọng cho các robot dịch vụ, robot chăm sóc người già/trẻ em.
- Lĩnh vực giải trí / nhân vật AI: có thể dùng robot khuôn mặt cho các nhân vật kỹ thuật số trong triển lãm, show diễn, bảo tàng — nơi cần khuôn mặt thể hiện cảm xúc sống động.
- Chuẩn bị cho android hoàn thiện hơn: nếu gắn “đầu” này lên thân robot di chuyển, chúng ta sẽ có android “gần như người thật” hơn — và điều này mở ra nhiều khả năng + nhiều tranh luận.
Một phát biểu đáng chú ý từ người sáng lập AheadForm: trong khoảng 10 năm tới, có thể chúng ta sẽ tương tác với robot mà không thể phân biệt được đó là máy hay người.
5. Thách thức & điều cần cân nhắc
- Hiệu suất & độ ổn định: biểu cảm có thể mượt trong video demo, nhưng trong môi trường đa biến (ánh sáng khác nhau, góc quay lạ) rất khó giữ ổn định.
- Giao tiếp & “linh hồn”: robot chỉ là máy, nên phản ứng/phản hồi sẽ có giới hạn khó tránh — khi người dùng “kỳ vọng con người” có thể bị thất vọng.
- Chi phí & triển khai: sản xuất robot với hệ thống biểu cảm tinh vi sẽ rất tốn kém; chưa kể chi phí bảo trì.
- Vấn đề đạo đức & phản ứng xã hội: khi robot trông “quá giống người”, có thể gây cảm giác “rùng rợn” (uncanny valley), hoặc người dùng phản ứng không thoải mái khi tương tác lâu dài.