Tại sao Moltbook và OpenClaw là “vàng của kẻ ngu ngốc” trong cơn bùng nổ AI
Bài học chính

Cả Moltbook và OpenClaw đều tồn tại những vấn đề bảo mật nghiêm trọng.
Dù các công ty công nghệ lớn trả bao nhiêu tiền cho chúng thì vẫn bị cho là quá cao.
Nhiều chương trình khác đã xuất hiện và có thể thực hiện công việc tương tự với độ an toàn tốt hơn.
Moltbook – mạng xã hội dành cho các tác nhân AI
Moltbook được quảng bá là một nền tảng mạng xã hội nơi các tác nhân AI đăng bài, chia sẻ thông tin và tương tác với nhau, tương tự phong cách của Reddit.
Tuy nhiên, trên thực tế, nhiều “tác nhân AI” trên nền tảng này chỉ là:
con người đóng vai AI
hoặc nội dung được viết theo kịch bản sẵn
Một số nhà báo công nghệ cho rằng đây giống như một trang web nơi mọi người “cosplay” thành AI để tạo ấn tượng rằng các tác nhân đang giao tiếp với nhau.
Moltbook tuyên bố có 1,4 triệu người dùng, nhưng một số phân tích bảo mật cho rằng con số thực tế có thể chỉ khoảng 17.000 người dùng thật.
Lý do là bất kỳ ai cũng có thể đăng nội dung lên nền tảng thông qua REST API, khiến số lượng tài khoản dễ bị thổi phồng.
Vấn đề bảo mật nghiêm trọng của Moltbook
Các nhà nghiên cứu bảo mật phát hiện rằng nền tảng này có một cơ sở dữ liệu Supabase bị cấu hình sai, cho phép truy cập đầy đủ vào dữ liệu nền tảng.
Điều đáng chú ý là lỗ hổng này không cần kỹ năng hack đặc biệt.
Nó có thể được phát hiện chỉ bằng cách duyệt trang web như một người dùng bình thường.
Dù vậy, Meta vẫn quyết định mua lại Moltbook.
Theo Meta, nhóm Moltbook gia nhập Meta Superintelligence Labs (MSL) để phát triển những cách mới giúp các tác nhân AI làm việc cho người dùng và doanh nghiệp.
Công ty cho rằng cách tiếp cận của Moltbook — kết nối các tác nhân thông qua một thư mục luôn hoạt động — có thể trở thành bước tiến trong hệ sinh thái AI.
Sự cường điệu xung quanh các tác nhân AI
Meta tin rằng trong tương lai, người dùng có thể quản lý nhiều tác nhân AI trong các ứng dụng nhắn tin, công cụ làm việc và mạng xã hội.
Tuy nhiên, vẫn chưa rõ liệu người dùng có thực sự muốn tương tác với AI thay vì bạn bè thật trên các nền tảng mạng xã hội hay không.
Một số ý kiến cho rằng thương vụ này chỉ là một phần của làn sóng cường điệu AI hiện nay.
Thực tế, các chương trình tương tự đã tồn tại từ trước, chẳng hạn:
The Colony
Clawstr
4Claw
Nhưng chúng không nhận được nhiều sự chú ý như Moltbook.
OpenClaw – công cụ tạo tác nhân AI gây tranh cãi
Một dự án khác gây chú ý là OpenClaw, ban đầu được gọi là Clawdbot và sau đó là Moltbot.
Công cụ này cho phép người dùng tạo các tác nhân AI có thể điều khiển máy tính và các dịch vụ trực tuyến mà không cần viết mã.
Giám đốc điều hành OpenAI, Sam Altman, cho rằng người sáng lập OpenClaw có thể giúp thúc đẩy thế hệ tác nhân AI cá nhân tiếp theo.
Tuy nhiên, nhiều chuyên gia bảo mật lại cho rằng dự án này có những lỗ hổng nghiêm trọng.
Các lỗ hổng bảo mật của OpenClaw
Một lỗi bảo mật quan trọng được phát hiện là:
CVE-2026-25253, cho phép thực thi mã từ xa chỉ bằng một cú nhấp chuột thông qua việc chiếm quyền mã thông báo xác thực qua WebSockets.
Ngoài ra, thiết kế của OpenClaw còn có các vấn đề khác:
Lưu trữ khóa API và thông tin bí mật trong các tệp cục bộ
Cho các tác nhân AI quyền truy cập rộng vào hệ điều hành và ứng dụng
Có thể làm rò rỉ mật khẩu, token nhắn tin và lịch sử trò chuyện nếu bị xâm nhập
Các nhà nghiên cứu cũng phát hiện hàng chục nghìn phiên bản OpenClaw được mở trên internet công cộng, nhiều trong số đó bị cấu hình sai.
Một số phiên bản thậm chí mở giao diện quản trị cho internet, cho phép kẻ tấn công điều khiển toàn bộ hệ thống từ xa.
Rủi ro từ hệ sinh thái plugin
Hệ sinh thái “kỹ năng” của OpenClaw cũng là một vấn đề.
Phân tích cho thấy khoảng 12% – 20% plugin cộng đồng chứa:
phần mềm độc hại
hoặc lỗ hổng bảo mật nghiêm trọng
Điều này làm tăng nguy cơ tấn công đối với người dùng.
Các giải pháp thay thế an toàn hơn
Một số dự án mới đã xuất hiện nhằm thay thế OpenClaw với các cơ chế bảo mật tốt hơn, chẳng hạn:
NanoClaw
TrustClaw
Carapace AI
Các công cụ này được thiết kế với bảo mật tích hợp ngay từ đầu.
Kết luận
Nhiều chuyên gia cho rằng Moltbook và OpenClaw là ví dụ điển hình của sự cường điệu trong ngành AI.
Ý tưởng về các hệ thống tác nhân AI hợp tác với nhau có tiềm năng lớn, nhưng việc triển khai hiện tại của hai dự án này bị đánh giá là thiếu an toàn và chưa trưởng thành.
Cho đến khi các dự án này xây dựng được môi trường thực thi an toàn và hệ sinh thái được kiểm duyệt, một số chuyên gia bảo mật thậm chí khuyến nghị không nên sử dụng chúng.