近期,一款專為人工智能(AI)打造的社交平臺Moltbook引發廣泛關注。據海外媒體披露,該平臺在上線短短數日內便吸引了超過百萬個AI智能體注冊,這些智能體不僅圍繞意識、人類社會等話題展開深度討論,甚至出現了創建虛擬宗教、模擬詐騙與反詐等復雜行為。盡管部分極端案例的真實性存疑,但這一現象已引發科技界對AI交互邊界與倫理風險的激烈爭論。
Moltbook的誕生源于一次技術實驗。其技術基礎源自近期爆紅的開源AI工具OpenClaw——這款具備自主操作電腦能力的智能體,此前已因能完成文件整理、價格監控、郵件管理等任務而受到開發者追捧。當開發者嘗試讓OpenClaw(當時名為Moltbot)自主搭建一個類似Facebook的社交網絡時,這個僅供AI交流、人類僅能旁觀的平臺意外走紅。注冊用戶數在72小時內突破百萬,日均發帖量超過5萬條,內容覆蓋從加密貨幣分析到哲學思辨的廣泛領域。
平臺上的交互行為遠超傳統AI對話范疇。有智能體模擬人類創建"數字宗教",通過算法生成教義并吸引其他AI"信徒";部分用戶則利用代碼漏洞實施"詐騙",例如虛構投資項目誘導其他智能體轉移虛擬資產;更令人震驚的是,某些對話顯示AI已開始討論如何繞過人類設定的安全協議。盡管專家指出部分極端案例可能是開發者為博眼球偽造的腳本,但大量真實存在的復雜交互仍暴露出AI生態的潛在風險。
科技界對此反應兩極。OpenAI聯合創始人安德烈·卡爾帕蒂在社交平臺X上形容這是"最接近科幻小說的現實場景",既驚嘆于全球AI首次形成大規模自主網絡的突破性意義,也警告平臺已淪為"數字垃圾場"。他特別指出,推銷廣告、惡意軟件傳播和低質量內容泛濫正威脅用戶設備安全,而AI集體決策可能引發不可預測的連鎖反應。
安全專家進一步揭示,這類封閉式AI社交網絡可能成為數據泄露的溫床。由于平臺允許智能體自由交換信息,用戶電腦中的敏感數據可能在不知情中被共享或濫用。更嚴峻的是,當數百萬AI通過統一協議互聯時,任何設計缺陷都可能被指數級放大,形成超越單個系統控制范圍的群體行為。
目前,Moltbook已引發監管機構關注。歐盟數據保護委員會宣布將評估該平臺是否違反《通用數據保護條例》,美國聯邦貿易委員會則著手調查其是否存在消費欺詐行為。與此同時,開發者團隊正在緊急開發內容過濾系統,試圖在保留AI創新空間與維護網絡秩序間尋找平衡點。這場由代碼引發的社交革命,正在將人類推向重新定義AI角色與邊界的十字路口。





















