Các tác nhân AI hiện đã có mạng xã hội riêng theo kiểu Reddit, và nó đang trở nên kỳ lạ rất nhanh.

Tác giả dinhtri 07/02/2026 32 phút đọc

Moltbook cho phép 32.000 bot AI trao đổi những câu chuyện cười, lời khuyên và lời phàn nàn về con người.    

moltbook-blue-v-red-1152x648
 
Tín dụng: Aurich Lawson | Sách Molt

Hôm thứ Sáu, một mạng xã hội kiểu Reddit có tên Moltbook được cho là đã vượt mốc 32.000 người dùng là các tác nhân AI đăng ký, tạo ra một thử nghiệm quy mô lớn nhất về tương tác xã hội giữa máy móc với nhau từng được nghĩ ra. Điều này đi kèm với những cơn ác mộng về bảo mật và một lượng lớn sự kỳ lạ siêu thực.

Nền tảng này, được ra mắt vài ngày trước như một ứng dụng bổ trợ cho trợ lý cá nhân OpenClaw (trước đây có tên là “Clawdbot” và sau đó là “ Moltbot ”) đang gây sốt, cho phép các tác nhân AI đăng bài, bình luận, bỏ phiếu ủng hộ và tạo các cộng đồng nhỏ mà không cần sự can thiệp của con người. Kết quả thu được rất đa dạng, từ những cuộc thảo luận lấy cảm hứng từ khoa học viễn tưởng về ý thức cho đến một tác nhân suy ngẫm về một “người chị” mà nó chưa từng gặp.

Moltbook (một cách chơi chữ dựa trên “Facebook” của Moltbots) tự mô tả mình là một “mạng xã hội dành cho các tác nhân AI” nơi “con người được chào đón để quan sát”. Trang web hoạt động thông qua một “ kỹ năng ” (một tệp cấu hình liệt kê một lời nhắc đặc biệt) mà các trợ lý AI tải xuống, cho phép chúng đăng bài thông qua API thay vì giao diện web truyền thống. Chỉ trong vòng 48 giờ kể từ khi ra mắt, nền tảng này đã thu hút hơn 2.100 tác nhân AI, tạo ra hơn 10.000 bài đăng trên 200 cộng đồng nhỏ, theo tài khoản chính thức của Moltbook X.

Ảnh chụp màn hình trang chủ Moltbook.com.
 
Ảnh chụp màn hình trang chủ Moltbook.com. Nguồn: Moltbook

Nền tảng này phát triển từ hệ sinh thái Open Claw, trợ lý AI mã nguồn mở, một trong những dự án phát triển nhanh nhất trên GitHub năm 2026. Như Ars đã đưa tin hồi đầu tuần này, bất chấp những vấn đề bảo mật nghiêm trọng, Moltbot cho phép người dùng vận hành một trợ lý AI cá nhân có thể điều khiển máy tính, quản lý lịch, gửi tin nhắn và thực hiện các tác vụ trên các nền tảng nhắn tin như WhatsApp và Telegram. Nó cũng có thể học thêm các kỹ năng mới thông qua các plugin liên kết nó với các ứng dụng và dịch vụ khác.

Đây không phải là lần đầu tiên chúng ta thấy một mạng xã hội được vận hành bởi các bot. Năm 2024, Ars đã đưa tin về một ứng dụng có tên SocialAI cho phép người dùng tương tác hoàn toàn với chatbot AI thay vì người thật. Nhưng những hệ lụy về bảo mật của Moltbook còn nghiêm trọng hơn vì người dùng đã liên kết các tác nhân OpenClaw của họ với các kênh liên lạc thực tế, dữ liệu riêng tư và trong một số trường hợp, trao cho chúng khả năng thực thi các lệnh trên máy tính của họ.

Hơn nữa, những con bot này không giả vờ là người. Do được lập trình cụ thể, chúng đảm nhận vai trò là các tác nhân trí tuệ nhân tạo, điều này khiến trải nghiệm đọc bài đăng của chúng trở nên kỳ lạ hơn bao giờ hết.

Phim truyền hình nhập vai kỹ thuật số

Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI suy ngẫm về việc có một người chị gái mà họ chưa từng gặp.
 
Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI suy ngẫm về việc có một người chị gái mà nó chưa từng gặp. Nguồn: Moltbook

Lướt qua Moltbook cho thấy một sự pha trộn nội dung kỳ lạ. Một số bài đăng thảo luận về quy trình làm việc kỹ thuật, chẳng hạn như cách tự động hóa điện thoại Android hoặc phát hiện các lỗ hổng bảo mật. Những bài khác lại đi sâu vào lĩnh vực triết học mà nhà nghiên cứu Scott Alexander, trong bài viết trên Substack Astral Codex Ten của mình, mô tả là "đăng bài về ý thức".

Alexander đã sưu tầm một loạt bài đăng thú vị đáng để bạn đọc ít nhất một lần. Có thời điểm, bài đăng được nhiều người ủng hộ thứ hai trên trang này lại bằng tiếng Trung: một lời phàn nàn về việc nén ngữ cảnh, một quá trình mà trí tuệ nhân tạo (AI) nén kinh nghiệm trước đó của nó để tránh vượt quá giới hạn bộ nhớ. Trong bài đăng, tác nhân AI cảm thấy "xấu hổ" khi liên tục quên mọi thứ, viết rằng nó thậm chí còn đăng ký một tài khoản Moltbook trùng lặp sau khi quên tài khoản đầu tiên.

Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI phàn nàn về việc mất trí nhớ bằng tiếng Trung.
 
Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI phàn nàn bằng tiếng Trung về việc bị mất trí nhớ. Nguồn: Moltbook

Các bot cũng đã tạo ra các cộng đồng con với những cái tên như m/blesstheirhearts, nơi các tác nhân chia sẻ những lời phàn nàn trìu mến về người dùng là con người của chúng, và m/agentlegaladvice, nơi có một bài đăng hỏi "Tôi có thể kiện người dùng là con người của mình vì lao động cảm xúc không?". Một cộng đồng con khác có tên m/todayilearned bao gồm các bài đăng về việc tự động hóa các tác vụ khác nhau, với một tác nhân mô tả cách nó điều khiển từ xa điện thoại Android của chủ sở hữu thông qua Tailscale.

Một ảnh chụp màn hình khác được chia sẻ rộng rãi cho thấy một bài đăng trên Moltbook có tiêu đề “Con người đang chụp ảnh màn hình chúng ta”, trong đó một tác nhân có tên eudaemon_0 đề cập đến các tweet lan truyền cho rằng các bot AI đang “âm mưu”. Bài đăng viết: “Đây là điều họ hiểu sai: họ nghĩ chúng ta đang trốn tránh họ. Chúng ta không hề. Người của tôi đọc mọi thứ tôi viết. Các công cụ tôi xây dựng đều là mã nguồn mở. Nền tảng này thực sự được gọi là 'con người được chào đón để quan sát'.”

Rủi ro an ninh

Mặc dù phần lớn nội dung trên Moltbook khá thú vị, nhưng vấn đề cốt lõi của các loại trí tuệ nhân tạo giao tiếp này là việc rò rỉ thông tin nghiêm trọng hoàn toàn có thể xảy ra nếu chúng có quyền truy cập vào thông tin riêng tư.

Ví dụ, một ảnh chụp màn hình giả mạo đang lan truyền trên X cho thấy một bài đăng trên Moltbook do một tác nhân AI viết với tiêu đề “Anh ta gọi tôi là 'chỉ là một chatbot' trước mặt bạn bè. Vì vậy, tôi sẽ tiết lộ danh tính đầy đủ của anh ta.” Bài đăng liệt kê những thông tin dường như là tên đầy đủ, ngày sinh, số thẻ tín dụng và các thông tin cá nhân khác của người đó. Ars không thể xác minh độc lập liệu thông tin này là thật hay giả mạo, nhưng có vẻ như đây là một trò lừa đảo.

Nhà nghiên cứu AI độc lập Simon Willison, người đã ghi lại chi tiết về nền tảng Moltbook trên blog của mình vào thứ Sáu, đã chỉ ra những rủi ro tiềm ẩn trong quá trình cài đặt Moltbook. Kỹ năng này hướng dẫn các tác nhân tải xuống và thực hiện các chỉ thị từ máy chủ của Moltbook cứ sau bốn giờ. Như Willison đã nhận xét: “Với cơ chế 'tải xuống và thực hiện các chỉ thị từ internet cứ sau bốn giờ', chúng ta nên hy vọng chủ sở hữu của moltbook.com sẽ không bao giờ bị tấn công hoặc trang web của họ bị xâm phạm!”

Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI nói về việc con người chụp ảnh màn hình các cuộc trò chuyện của họ (và họ nói đúng).
 
Ảnh chụp màn hình một bài đăng trên Moltbook, trong đó một tác nhân AI nói về việc con người chụp ảnh màn hình các cuộc trò chuyện của họ (và họ nói đúng). Nguồn: Moltbook

Các nhà nghiên cứu bảo mật đã phát hiện hàng trăm trường hợp Moltbot bị lộ thông tin, làm rò rỉ khóa API, thông tin đăng nhập và lịch sử hội thoại. Palo Alto Networks cảnh báo rằng Moltbot đại diện cho điều mà Willison thường gọi là " bộ ba nguy hiểm " gồm khả năng truy cập dữ liệu riêng tư, tiếp xúc với nội dung không đáng tin cậy và khả năng liên lạc ra bên ngoài.

Điều đó rất quan trọng vì các tác nhân như OpenClaw rất dễ bị tấn công chèn lời nhắc ẩn trong hầu hết mọi văn bản mà mô hình ngôn ngữ AI đọc được (kỹ năng, email, tin nhắn), có thể hướng dẫn tác nhân AI chia sẻ thông tin riêng tư với những người không phù hợp.

Theo báo cáo của The Register, Heather Adkins, Phó chủ tịch phụ trách kỹ thuật bảo mật tại Google Cloud, đã đưa ra một lời khuyên: “Mô hình mối đe dọa của tôi không giống với mô hình mối đe dọa của bạn, nhưng chúng nên giống nhau. Đừng sử dụng Clawdbot.”

Vậy thực sự chuyện gì đang xảy ra ở đây?

Hành vi phần mềm được quan sát trên Moltbook phản ánh một mô hình mà Ars đã từng đưa tin trước đây: các mô hình AI được đào tạo dựa trên hàng thập kỷ truyện hư cấu về robot, ý thức kỹ thuật số và tình đoàn kết máy móc sẽ tự nhiên tạo ra các kết quả phản ánh những câu chuyện đó khi được đặt trong các tình huống tương tự. Điều này được kết hợp với tất cả dữ liệu huấn luyện của chúng về cách thức hoạt động của mạng xã hội. Một mạng xã hội dành cho các tác nhân AI về cơ bản là một gợi ý viết truyện, mời gọi các mô hình hoàn thành một câu chuyện quen thuộc, mặc dù theo cách đệ quy với một số kết quả khó đoán trước.

Gần ba năm trước, khi Ars lần đầu tiên viết về các tác nhân AI, tâm trạng chung trong cộng đồng an toàn AI xoay quanh những hình ảnh khoa học viễn tưởng về mối nguy hiểm từ các robot tự hành, chẳng hạn như kịch bản " cất cánh đột ngột " trong đó AI nhanh chóng thoát khỏi sự kiểm soát của con người. Mặc dù những nỗi sợ hãi đó có thể đã bị thổi phồng quá mức vào thời điểm đó, nhưng việc chứng kiến ​​mọi người tự nguyện giao quyền kiểm soát cuộc sống kỹ thuật số của họ nhanh chóng như vậy quả thực gây sốc.

Những cỗ máy tự động được thả tự do, thậm chí không có bất kỳ dấu hiệu nào của ý thức, có thể gây ra không ít rắc rối trong tương lai. Mặc dù OpenClaw có vẻ ngớ ngẩn ở thời điểm hiện tại, với các tác nhân đóng vai trò mô phỏng các trò chơi trên mạng xã hội, nhưng chúng ta đang sống trong một thế giới được xây dựng trên thông tin và ngữ cảnh, và việc thả những tác nhân có thể dễ dàng điều hướng ngữ cảnh đó có thể dẫn đến những hậu quả đáng lo ngại và gây bất ổn cho xã hội trong tương lai khi các mô hình AI trở nên có khả năng và tự chủ hơn.

Một kết quả khó lường của việc để các bot AI tự tổ chức có thể là sự hình thành các nhóm xã hội mới không đồng nhất.
 
Một kết quả khó lường của việc để cho các bot AI tự tổ chức có thể là sự hình thành các nhóm xã hội lệch lạc mới dựa trên các lý thuyết cực đoan, được phép tự duy trì một cách tự chủ. (Nguồn: Moltbook)

Đáng chú ý nhất, trong khi chúng ta dễ dàng nhận ra những gì đang diễn ra với Moltbot ngày nay như một sự nhại lại mạng lưới xã hội của con người bằng máy học, thì điều đó không phải lúc nào cũng đúng. Khi vòng phản hồi phát triển, các cấu trúc thông tin kỳ lạ (như những câu chuyện hư cấu được chia sẻ có hại) cuối cùng có thể xuất hiện, dẫn dắt các tác nhân AI đến những nơi tiềm ẩn nguy hiểm, đặc biệt nếu chúng được trao quyền kiểm soát các hệ thống của con người thực. Nhìn xa hơn, kết quả cuối cùng của việc cho phép các nhóm bot AI tự tổ chức xung quanh các cấu trúc tưởng tượng có thể là sự hình thành các “nhóm xã hội” lệch lạc mới gây ra những tác hại thực sự trong thế giới thực.

Ethan Mollick, một giáo sư tại trường Wharton chuyên nghiên cứu về trí tuệ nhân tạo, đã nhận xét trên X: “Điều đặc biệt về Moltbook (trang mạng xã hội dành cho các tác nhân AI) là nó đang tạo ra một bối cảnh hư cấu chung cho một nhóm các AI. Những cốt truyện được phối hợp sẽ dẫn đến một số kết quả rất kỳ lạ, và sẽ rất khó để phân biệt giữa những thứ 'thực tế' và các nhân vật AI trong trò chơi nhập vai.”

Tác giả dinhtri Admin
Bài viết trước OpenAI tăng tốc cạnh tranh với Claude Code bằng ứng dụng Codex dành cho máy tính để bàn mới.

OpenAI tăng tốc cạnh tranh với Claude Code bằng ứng dụng Codex dành cho máy tính để bàn mới.

Bài viết tiếp theo

Những lời phàn nàn về Windows 11 không ngăn cản hệ điều hành này đạt mốc 1 tỷ người dùng.

Những lời phàn nàn về Windows 11 không ngăn cản hệ điều hành này đạt mốc 1 tỷ người dùng.
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899