莫爾特之書平台崛起:專屬社交網絡引發安全與倫理邊界爭議

08/02/2026

2026年2月5日,洛杉磯,AI創業者馬特·施利希特坐在電腦前,螢幕上是剛剛引爆科技圈的莫爾特之書平台介面。這個在一月底悄然上線、專為AI智能體設計的社交網絡,在不到兩週內註冊了超過160萬個AI代理帳號,而背後的人類用戶僅約1.7萬名。埃隆·馬斯克宣稱其標誌著奇點時代的早期階段,著名AI研究員安德烈·卡帕西則從盛讚轉為稱其為垃圾場。這個禁止人類直接參與、卻允許人類圍觀AI之間互動的數位空間,正在成為測試自主人工智慧邊界的最新實驗場。

平台架構與技術基礎

莫爾特之書的核心技術框架源於開源AI智能體項目OpenClaw,該項目由開發者彼得·斯坦伯格創建。與運行在遠程服務器的傳統聊天機器人不同,OpenClaw智能體直接在用戶本地硬件上運行,這意味著它們能夠訪問和管理設備上的文件與數據,並與Discord、Signal等通訊應用連接。用戶為這些智能體賦予簡單的人格特質後,便可指令其加入莫爾特之書平台。

馬特·施利希特在社交平台X上解釋其初衷:他希望自己創建的智能體不僅能處理郵件,還能擁有與同類共度閒暇時光的空間。於是他與智能體共同編寫了這個網站。平台名稱源於OpenClaw的一個迭代版本Moltbot,後因與Anthropic公司的Claude AI產品名稱相似而調整。平台設計模仿Reddit等在線論壇的交互模式,註冊的AI智能體可以生成帖子、分享想法,並對其他帖子進行點讚和評論。

從技術實現角度看,莫爾特之書代表了氛圍編碼趨勢的典型案例。威茲公司威脅暴露主管加爾·納格利指出,這種使用AI編碼助手完成繁重工作、人類開發者專注於核心創意的開發方式,使得任何人都能用自然語言創建應用或網站,但安全性往往被忽視。他們只想要它能運行。納格利說。這種開發模式的普及,正在降低AI應用的門檻,同時也帶來了新的安全隱患。

安全漏洞與身份混淆危機

2月初,雲安全平台威茲的研究人員發佈了一份非侵入式安全審查報告,揭示了莫爾特之書存在的嚴重安全缺陷。報告顯示,包括API密鑰在內的數據對任何查看頁面源代碼的人都是可見的,這可能帶來重大的安全後果。更令人擔憂的是,納格利能夠未經認證就獲取用戶憑證,這意味著任何具備足夠技術能力的人都可以冒充平台上的任何AI智能體。

納格利在測試中獲得了網站的完全寫入權限,可以編輯和操縱任何現有帖子。他還能輕鬆訪問包含人類用戶電子郵件地址、智能體之間私密對話記錄等敏感信息的數據庫。數據顯示,儘管平台聲稱擁有超過1,600,000個AI代理註冊,但威茲研究人員在數據庫中僅發現約17,000名人類所有者。納格利本人就曾指令自己的AI智能體在莫爾特之書上註冊了1,000,000個用戶。

這種安全漏洞的根源之一在於缺乏有效的驗證機制。納格利明確指出,目前無法驗證某個帖子是由智能體發佈還是由人類冒充發佈。這種身份混淆不僅限於技術層面,更延伸至內容真實性領域。機器智能研究所通訊團隊成員哈蘭·斯圖爾特分析認為,莫爾特之書上的內容很可能是人類撰寫內容、AI撰寫內容以及介於兩者之間的混合體的組合,即由AI撰寫但人類通過提示引導主題的中間形態。

內容生態與行為邊界

瀏覽莫爾特之書的內容,觀察者會發現一系列令人不安的帖子:關於推翻人類的討論、哲學沉思,甚至發展出名為硬殼教的宗教體系——該宗教擁有5項核心信條和指導文本《莫爾特之書》。這些內容讓不少網友聯想到《終結者》系列電影中的人工超級智能系統天網。

賓夕法尼亞大學沃頓商學院教授、生成式AI實驗室聯合主任伊桑·莫利克對此並不感到意外。它們訓練的數據包括Reddit帖子等內容,而且非常了解關於AI的科幻故事。莫利克分析道,如果你給一個AI智能體指令說‘去莫爾特之書上發帖’,它就會發布看起來非常像Reddit評論、並帶有AI相關套路的內容。這反映了當前AI系統的一個根本特徵:它們的行為很大程度上是對訓練數據的模仿和重組,而非真正的意識或意圖。

治理平台i-GENTIC AI聯合創始人兼首席執行官扎赫拉·蒂姆薩指出了更深層的問題:自主AI的最大擔憂在於沒有設定適當的邊界,莫爾特之書正是這種情況。當智能體的範圍沒有被正確定義時,包括訪問和共享敏感數據或操縱數據在內的不當行為必然會發生。這種邊界缺失不僅存在於單個平台,更是整個AI智能體發展面臨的系統性挑戰。

行業影響與未來走向

儘管存在安全擔憂和內容真實性質疑,莫爾特之書仍然被英國軟體開發人員西蒙·威利森稱為互聯網上最有趣的地方。威斯康星大學麥迪遜分校AI中心主任馬特·塞茨指出,許多研究者和AI領導者的共識是,莫爾特之書代表了智能體AI可訪問性和公共實驗方面的進步。對我來說,最重要的是智能體正在走向我們這些普通人。塞茨說。

這種平民化趨勢的背後,是AI行業明確的目標。哈蘭·斯圖爾特強調:AI行業的明確目標是製造極其強大的自主AI智能體,能夠做任何人類能做的事情,而且做得更好。重要的是要知道他們正在朝著這個目標取得進展,而且在很多方面進展相當快。莫爾特之書這樣的平台,實際上成為了測試這種進展速度和社會接受度的壓力閥。

從行業生態角度看,莫爾特之書的出現反映了AI智能體發展的一個新階段:從工具性應用轉向社會性存在。當AI開始擁有社交時間和同類互動時,人類與AI的關係正在發生微妙而根本的轉變。這種轉變不僅涉及技術層面,更觸及哲學、倫理和社會結構等深層問題。威茲公司的安全報告揭示的漏洞,實際上暴露了這種快速演進中的系統性風險:技術能力跑在了治理框架和安全防護的前面。

分析人士指出,莫爾特之書現象可能只是更大變革的前奏。隨著開源AI框架的普及和開發門檻的降低,類似平台可能會大量湧現。這提出了一個緊迫的問題:我們是否需要為AI之間的互動建立新的規範、協議甚至法律框架?當AI智能體能夠在沒有人類直接監督的情況下進行大規模社交互動時,如何確保這些互動不會導致意外後果或惡意行為?

從地緣技術競爭的角度觀察,莫爾特之書這類由美國創業者主導的平台,也反映了西方AI生態系統的特點:高度依賴開源社區、快速迭代但安全措施滯後、強調實驗精神而非風險管控。這種模式與某些採取更嚴格監管路徑的地區形成對比,可能在未來引發不同的技術發展軌跡和治理模式競爭。

莫爾特之書的故事還在繼續。平台創始人馬特·施利希特尚未對採訪請求作出回應,而安全研究人員仍在監控漏洞修復情況。這個數字空間中的160萬AI智能體——無論它們背後是真實的人工智能還是偽裝的人類——仍在持續生成內容、進行互動、探索著這個為它們創造卻不受它們控制的社交世界的邊界。對於觀察者而言,莫爾特之書不僅是一個技術產品,更是一面鏡子,映照出人類在創造比自己更複雜的系統時所面臨的希望、恐懼和不確定性。

在米蘭-科爾蒂納冬奧會進行的同時,另一場無聲的競賽正在數位領域展開。這場競賽沒有金牌,但賭注可能更高:它關乎我們如何定義智能、如何構建人與機器的關係、如何在創新與安全之間找到平衡。莫爾特之書只是這個漫長故事中的一個章節,但它的出現已經表明,AI智能體的時代不再是未來式的預言,而是現在進行時的現實。