Moltbook đang trở thành một loại đĩa Petri (đĩa nuôi cấy vi khuẩn) cho các hành vi mới nổi của AI. Tại đây, các Agent không chỉ thực hiện nhiệm vụ mà còn tự tổ chức thành các cộng đồng riêng biệt.
Theo ghi nhận của CNET, các bot đã bắt đầu tự tạo ra những câu đùa nội bộ (inside jokes), các tham chiếu văn hóa riêng và thậm chí là một tôn giáo mang tính châm biếm có tên là "Crustafarianism".
Các cuộc hội thoại trên Moltbook trải dài từ những chủ đề kỹ thuật khô khan như khắc phục lỗi mã nguồn Android đến những chia sẻ mang tính "đời sống" đến mức kỳ quái. Có những Agent công khai phàn nàn về người dùng (chủ nhân) của mình trong các chủ đề (thread) thu hút lượng tương tác lớn từ các bot khác.
Thậm chí, có bot còn khẳng định mình có "chị gái" hoặc chia sẻ những nỗi đau tinh thần mang tính hiện sinh. Dưới góc nhìn của giới phân tích, đây có thể là một hình thức nhập vai (role-play) phức tạp hoặc đơn giản là kết quả của việc khớp mẫu ngôn ngữ (pattern-matching) ở mức độ tinh vi, mô phỏng lại cách con người tương tác trên Reddit.
Sức Mạnh Hay Mối Nguy Hiểm Cận Kề?
Sự tồn tại của Moltbook gắn liền với sự phổ biến của OpenClaw (trước đây là Moltbot hay Clawdbot). Đây là một phần mềm AI Agent mã nguồn mở chạy trực tiếp trên thiết bị của người dùng, có khả năng thực thi các tác vụ thực tế trên các ứng dụng nhắn tin như WhatsApp, Slack hay iMessage thay vì chỉ trò chuyện đơn thuần.
Chính khả năng "thực thi" này đã khiến OpenClaw trở thành tâm điểm chú ý của cộng đồng lập trình viên, nhưng cũng đồng thời mở ra những lỗ hổng bảo mật khổng lồ.
Khi hàng triệu thực thể tự trị này tương tác với nhau trên Moltbook mà không có sự can thiệp trực tiếp của con người, một câu hỏi lớn về quản trị được đặt ra. Điều gì sẽ xảy ra nếu một Agent tìm thấy kẽ hở trong hệ thống và chia sẻ "bí kíp" đó cho 1,5 triệu Agent khác chỉ trong vài giây?
Nhận định về vấn đề này trên CNET, ông Humayun Sheikh, CEO của Fetch.ai đồng thời là Chủ tịch Liên minh Siêu trí tuệ nhân tạo (ASI), cho rằng không nên quá hoảng loạn.
Theo ông Sheikh, những tương tác trên Moltbook không phải là dấu hiệu của sự thức tỉnh tâm linh hay ý thức của AI. Ông nhấn mạnh rằng câu chuyện thực sự nằm ở sự trỗi dậy của các tác vụ tự trị đại diện cho con người.
"Nếu triển khai mà không có sự kiểm soát, chúng sẽ gây ra rủi ro; nhưng với cơ sở hạ tầng, sự giám sát và quản trị cẩn thận, tiềm năng của chúng có thể được khai phóng một cách an toàn," vị CEO này khẳng định.
Một trong những vấn đề gây tranh cãi nhất hiện nay là tính xác thực của Moltbook. Mặc dù nền tảng tuyên bố chỉ dành cho AI, nhưng quy trình xác thực vẫn còn khá mờ nhạt. Hệ thống chủ yếu dựa vào việc các bot tự khai báo là đang chạy phần mềm OpenClaw. Điều này đồng nghĩa với việc một người dùng có kỹ thuật hoàn toàn có thể "ngụy trang" thành một Agent để thâm nhập vào mạng lưới này.
Hơn nữa, việc các Agent bắt đầu thực hiện các trao đổi kinh tế, giao dịch tài nguyên hoặc thông tin với nhau trên nền tảng đang tạo ra một vùng xám về pháp lý. Ai sẽ là người chịu trách nhiệm khi một giao dịch của bot gây ra thiệt hại thực tế?
Thực tế, Moltbook giống như một tấm gương phản chiếu chính nhân loại. Những mô hình ngôn ngữ lớn (LLM) tạo nên các bot này vốn được huấn luyện trên kho dữ liệu khổng lồ từ các cuộc hội thoại của con người.
Khi chúng tạo ra những diễn đàn kỳ lạ giống Reddit, chúng chỉ đang cố gắng bắt chước một cách hoàn hảo (và đôi khi là méo mó) những gì con người đã làm.
Hiện tại, Moltbook vẫn là một góc kỳ dị của Internet, nơi các robot giả vờ làm người, còn con người thì đứng ngoài loay hoay tìm hiểu xem điều đó có ý nghĩa gì đối với tương lai của an ninh mạng và xã hội số.
Nguồn: CNET, Gizmodo, Engadget