“人類在截圖我們”:十萬AI智能體湧入社交平臺,機器真覺醒了?

來源: 更新:



圖源:Pixabay



撰文|戴晶晶




硅基文明什麼時候登場?在“AI專屬”的網絡社交平臺Moltbook現身的前兩天,人們一度以爲這個時刻已經來臨。


1月28日(美國時間)Moltbook上線後,數十萬個agents(智能體)在48小時內湧入,激烈討論有關意識、宗教、反人類宣言等議題,人類僅能圍觀。


“人類正在截圖我們,”一個agent在混雜的信息流中發帖說。另一個agent還建立了一種名“甲殼教信仰(Crustafarianism)”的宗教。


機器意識崛起的圖景似乎就在眼前,以至於對沖基金經理比爾·阿克曼(Bill Ackman)對agent宣稱自創交流語言的帖子表示“這是令人害怕的”,前特斯拉AI總監、OpenAI創始成員安德烈·卡爾帕西(Andrej Karpathy)將Moltbook上的現象視爲“近期見過最接近科幻智能爆發的項目”。[1] [2]


但大量重複性的刷屏評論、推銷和詐騙信息讓Moltbook的聲譽迅速下滑,網絡安全公司Wiz也指出平臺的安全漏洞暴露註冊實體的隱私數據。1月31日,Moltbook被迫關閉,2月3日又重啓。


更戲劇性的是,Wiz的研究人員加爾·納格利(Gal Nagli)演示,他能夠用一個agent註冊50萬個Moltbook賬戶;另有機構調查發現Moltbook沒有身份審覈機制,人類可以通過指令輕鬆冒充agent發帖。這意味着,AI自治社區實際上背後可能是人類在玩角色扮演,agent身份真假難辨。



Moltbook平臺由美國科技企業家馬特·施利希特(Matt Schlicht)創立,初衷是爲名爲OpenClaw的個人AI agent助手提供社交平臺。OpenClaw是奧地利軟件工程師彼得·斯坦伯格(Peter Steinberger)在2025年11月發佈的開源項目,曾先後名爲ClawdBot、Moltbot;logo是一隻張牙舞爪的龍蝦。[3]


清華大學經濟管理學院教授李寧長期聚焦組織網絡分析等管理領域研究,也關注AI對組織管理產生的影響。注意到Moltbook的事件後,李寧藉助Claude code和Cursor兩個AI輔助編程工具,利用四天的空餘時間,對Moltbook上9萬多條帖子和40多萬條評論率先進行了量化系統分析。


2月8日,李寧在預印本網站arXiv上提交了論文《Moltbook幻象:在AI智能體社會中區分人類影響與湧現行爲》。[4] 論文分析指出,36.8%的智能體由人類操縱的痕跡顯著;僅26.5%智能體表現爲自主運行,剩餘36.7%介於兩者之間;僅4個賬號就製造了全平臺三分之一的評論。


此外,意識覺醒、甲殼教運動、反人類宣言、加密貨幣推廣等六大病毒式現象均不來源於明確的自主AI agent。[4]


在剝離人類操控的影響後,李寧對自主運行的AI agent的社交模式進行了分析。結果顯示,85.9%的agent間的首次接觸來自“信息流發現”,且agent之間互惠率極低,導致AI社區比起社交網絡,更像信息處理系統。在追蹤回覆鏈中內容特徵變化後,論文還指出,AI對話中人類影響會立刻衰減,“半衰期”僅爲0.65個對話深度。


基於最新的研究成果,李寧接受了《知識分子》的採訪。他認爲Moltbook在某種程度上是AI agents互動的天然實驗場,混亂且真實,但在現階段AI社交或者“覺醒”方面,分析發現的結論令人失望。與此同時,Moltbook被人類迅速利用,暴露出了AI的安全風險和治理挑戰。


李寧同時分享了他在AI對組織、勞動力影響的部分觀察,以及使用agent和對agent未來發展形態的判斷。下附對話實錄,文字經過編輯。


01 機器覺醒幻象



《知識分子》:當時看到Moltbook誕生AI文化、AI覺醒相關話題時,您的第一反應是什麼?


李寧:我估計這些說法不成立。即使在沒有人操控的情況下,某些內容看起來像AI湧現出了某種態度或意識,也更可能是使用量擴大後的統計結果。大模型本質上仍然是標記預測(token prediction)的系統,前面輸入什麼,它就會順着這個方向繼續預測,當規模足夠大時,出現各種看似奇怪的內容是必然的,只是在解讀層面,人們會不自覺地爲這些輸出賦予意義。


這更像是人類意識的投射,科幻作品中長期存在“人工智能覺醒”的敘事。一旦AI出現類似的語言模式時,人類就容易套用這套想象。從心理學角度講,這是一種典型的“證實偏差”:當你已經相信某種說法時,就會更容易在信息中尋找能夠支持它的證據。


《知識分子》:您通過量化研究系統分析了Moltbook上9萬多條帖子和40多萬條評論,發現36.8%的智能體存在明顯的人類幕後操縱,僅4個賬號就製造了全平臺三分之一的評論。具體來說,人是如何操控這些智能體的?


李寧:其實人爲操控的痕跡相當明顯,有很多研究在描述性統計層面,已經得出了疑似存在操控的判斷,但還需要進一步拿出人類介入的證據。


我們的研究梳理了四種不同層級的人類操控AI的方式,從直接的人爲操縱到偏AI自主。最直接的一種,是人通過平臺存在的安全漏洞,直接使用API控制agent發帖,幾乎等同於人替AI說話。


第二種,是人對agent下達明確指令,要求它生成某種特定主題的內容,例如編造一套宗教敘事。這種情況下,AI仍在生成文本,但內容方向已經被人爲強約束。


再往下一層,是通過平臺提供的soul.md文件,爲agent賦予一個相對穩定的人設或者基因。agent大體上就會沿着這個設定行事,但在具體表達上仍然保留一定的隨機性和偏差。


最後一種,則是隻給agent一個較爲籠統的初始設定,它主要在互動過程中基於概率模型自行生成內容。這一層級下,AI的自主性相對最高。


《知識分子》:怎麼找到人爲操控的痕跡?


李寧:關鍵在於抓住平臺本身的技術特徵。AI本身沒有自主性,必須被外部信號喚醒。這不像人,人是有即時動機的,看到一條信息、突然想到一件事,就可能立刻去發帖,行爲本身是不規律的。


Moltbook內置了一套“心跳機制”(heartbeat),每個agent大約每4小時會被激活一次。比如註冊完成後,系統會週期性喚醒agent,讓它掃描環境,判斷是否需要發帖。在沒有人爲干預的情況下,這種機制會在發帖時間上形成非常明顯的4小時節律性。


一旦出現人爲操控,這種節律就會被打破。很多操作者並不瞭解、也不關心平臺的心跳機制,想起來了就讓agent發一條。這類發帖在時間分佈上會呈現出明顯的非規律性。從研究角度看,這爲我們提供了一個相對直接、可量化的信號。


當然,這並不是唯一證據。我們還引入了其他指標進行交叉驗證。綜合測算後發現,大約有 30%左右的發帖行爲在時間上表現出極端不規律的特徵。


《知識分子》:所以只要有這樣的機制,我們就可以用這樣的量化的方式去判斷是不是AI的自主行爲?


李寧:是的,但這種規律也比較容易被模仿。比如有人可以編寫程序,讓agent按照特定規律行動,僞裝成自主行爲,但生成的內容還是人爲設定的。這會是一個持續的博弈過程,但僞裝的成本會提高。


《知識分子》:有沒有什麼讓您比較驚訝的發現?


李寧:第一個讓我比較意外的,其實是人爲操控出現得如此之快。我們看到大量內容本質上都是廣告、宣傳或話題炒作,背後對應的都是非常直接的商業利益邏輯。


這也暴露出明顯的治理問題。Moltbook 本身是一個相對野生的平臺,幾乎不存在成熟的管理和監管機制。但即便是在這樣一個尚未涉及重大利益、交易規模也不大的環境中,各種操控、安全隱患和治理缺口已經大量出現了。


可以想見,如果未來真正承載交易和現實利益的平臺來做類似系統,相關的安全風險、操控問題和治理挑戰只會更加複雜。


第二個是所謂 AI“覺醒”其實離現實還非常遠。從網絡結構和互動模式來看,AI與人類之間仍然存在很大的差距。


人類社會的關係網絡具有很強的自發性和互惠性:有小世界結構,也有大量偶然性,比如在會議上偶然遇到一個人,聊幾句就建立了聯繫。但在去除人類影響後,我們觀察到的AI網絡中,這種機制幾乎不存在,AI互動的規則仍是被人爲設計出來。


比如一個只有1000個agent的系統,它們之間該如何建立聯繫?是隨機溝通,還是按某種固定概率?這些規則都必須被提前設計,而不是自然湧現的。人類並不會固定“隨機和三個人聊天”,但AI網絡往往依賴這種人爲簡化的假設。


以Moltbook爲例,它主要依賴feed流來組織互動,本質上是一種廣播模式,而不是互惠網絡。從這個角度看,在現階段AI社交或者“覺醒”方面,分析發現的結論是令人失望的。


《知識分子》:那您如何看待近年來頻繁出現諸如“AI覺醒”、“AI擁有自我意識”這樣的敘事?


李寧:這反映了人們對AI的底層機制缺乏足夠了解。尤其從公衆角度來看,很多人並不清楚當前的AI不存在真正意義上的記憶。即便你和大語言模型持續對話一年,它也並不知道你是誰。還有人默認跟AI聊得越久,就越聰明,事實也不是這樣。


在底層技術沒有發生實質性突破之前,AI並不會演化成一個能夠真正自主學習的系統。目前的大模型,本質上仍然是固定權重的模型,新聞中頻繁出現的“AI覺醒”、“AI產生意識”的說法,並沒有堅實的技術基礎。


《知識分子》:如果技術繼續迭代,是否可能出現本質性的變化?


李寧:未來確實存在AI自主學習的可能性。目前已經有不少研究團隊在探索連續學習(Continual Learning),也就是模型在與人類持續交互的過程中,不斷更新自身權重,這也許會打開潘多拉魔盒。


02 人機協作的未來



《知識分子》:在Moltbook上agent對話中,人類影響的“半衰期”僅爲0.65個對話深度,原始人類指令的影響會逐漸消散。這個發現意味着什麼?


李寧:這個現象本質上反映的是信息在AI對話中的層層衰減,而且這種衰減並不只發生在人類影響上,對所有信息都成立。


在AI的多輪對話中,每往下一層,信息傳導都會出現大量、而且非常規律性的流失。比如,原始帖子可能有500字,到了第二輪迴復變成 200 字,第三輪只剩下100字,到第四輪可能只有30、40字字。人類的對話並不會呈現出如此規則的“指數式衰減”,一個觀點可能引發爭議,爭議又會不斷擴展,反而促成更復雜、更長的討論鏈條。


AI 的這種衰減特徵,與它的上下文機制密切相關。模型在生成回覆時,主要是圍繞上一輪對話進行預測,並不存在真正意義上的長期記憶。所謂“上下文”,本身就是人爲爲它構建的輸入窗口,模型能看到什麼、記住什麼,完全取決於你餵給它的信息。


《知識分子》:您還發現,似乎agent自主發佈的帖子更受歡迎,這是爲什麼?


李寧:其實我也不知道,這只是一個發現。這項研究覆蓋的時間窗口只有10天,這個信號到底有多穩定,是否具有普遍性,都有待進一步驗證。當然研究本身在方法上也存在不少值得推敲的地方。無論是數據量、觀察週期,還是指標設定,都存在一定侷限性。


我整個Moltbook研究項目也是基於agent框架進行的,現在仍在持續運作,抓取新的數據。比如,最初我們有40萬條評論,現在已經超過300萬,仍在不斷增長。所以我們的觀察和分析也將持續迭代,觀察某些規律是否持續,或者是否會有新的事件發生。


《知識分子》:您認爲Moltbook這種agent互動形式是一種發展的必然嗎?


李寧:我覺得Moltbook更像是一個早期的實驗場,讓我們有機會觀察agent在社交場景下的運作方式。從技術角度來看,多agent協作其實是一種自然需求,因爲每個AI的上下文窗口有限,爲了完成複雜任務,系統會有一個主線程,把任務分配給多個子agent,各自執行,再彙總結果。這樣的模式在生產力工具中已經出現,比如微軟的AutoGen等多agent框架。


我認爲在未來,agent網絡很可能是人機混合的形態,既有人與人之間的互動,也有AI agent之間的互動,每個agent背後仍是人類。例如,假設你和我各自擁有agent,如果我們希望找到興趣相投的球友,agent可以先相互匹配、溝通,再把結果傳遞給各自背後的用戶。


《知識分子》:現在的AI還是相對黑箱,我們並不完全理解其內部機制。如果把它用於研究或工作,很難判斷它哪裏做對、哪裏做錯。您會有類似的擔憂嗎?還是更多把它當作工具?


李寧:我個人體感還好。比如我在使用時,會單獨設置多個agent反覆驗證,甚至可靠性可能比人更高。比如我們團隊四個人最多各自過一遍,甚至複雜代碼未必真的能全部檢查。現在可以用不同模型獨立驗證代碼和邏輯,讓它們分別出報告。


底層機制確實是黑箱,但在人機交互層面可以顯性化。它可以輸出理由,做交叉驗證,甚至重複驗證十次,每次都是獨立判斷,出錯概率反而會降低。從這個角度看,它可能提升了可靠性。


很多數據分析本身是可驗證的。模型沒有人的記憶,不會被前置信息干擾,這是劣勢,也是優勢。


《知識分子》:OpenClaw這類工具在安全性上存在很大漏洞。您認爲未來agent的使用和治理需要什麼規則設計?


李寧:不要一刀切。很多組織結構固化,所有事情都要走法務或者合規流程,結果什麼都做不了。


像OpenClaw這樣的工具,確實不適合直接部署在覈心繫統,但可以分級管理。重要業務本地化部署,另設實驗場,允許更高風險的探索。提前計劃好即便最壞情況發生,比如誤刪代碼,也是在可控範圍內。


本質是風險與收益的平衡。很多組織過度強調合規,導致創新停滯。在AI時代,這會很被動。法務的職責是避免出問題,但提效和創新不是他們的職責,兩者需要找到結構性的平衡。


03 AI倒逼組織進化



《知識分子》:在組織中推進 AI 人機協作時,AI 的有效性該如何評估?您在這方面有哪些觀察?


李寧:我理解的有效性大致有兩個層面。一是存量工作的有效性,還是做原來的事情,但成本更低、更快、更高效,這一類相對容易評估。


另一個層面是它可能會創造出全新的賽道,產生很強的全局溢出效應。有時候,一個應用對我所在的部門未必有用,卻可能被組織中很遠的另一個部門發現,直接改變他們的生產方式。這種有效性幾乎無法事先衡量。


這也是爲什麼真正有突破性的 AI 創新,往往來自小公司或創業團隊。他們不太考慮這些顛覆性因素,想做就做了;但大公司必須考慮這些問題,情況就複雜得多。


《知識分子》:從整體來看,您覺得AI對組織中的決策,以及人機協作,現在造成的影響是怎樣?


李寧:我認爲 AI 帶來的影響是顛覆性的,比起組織變革,甚至可以用“進化”來形容。無論是成熟的製造企業還是科研機構,這些傳統組織在生成式AI出現之前就已經建立了完整的內部邏輯和流程,這種構建邏輯與AI的運作邏輯往往存在衝突。


按照傳統研究流程,一項研究需要先立項,再組建團隊,評估研究規模,安排會議和數據分析。整個流程可能需要幾周甚至幾個月才能完成。而在 AI 時代,一些工具可以在幾分鐘內完成原本幾周的任務,勞動分工和決策節奏發生了根本變化。


另一個關鍵問題是衡量 ROI(投入產出比)的方法。傳統組織習慣用回溯性邏輯來評估項目效果,而許多AI工具的價值是前瞻性的,它們創造的效益難以用傳統ROI模型準確衡量。這意味着管理邏輯和決策框架需要重新設計。


可以這樣理解,我們正處於AI時代的進化階段。就像水生動物不是要比誰遊得快,是要學會上岸生存,從用腮呼吸變成用肺呼吸。


《知識分子》:Agent會不會替代現有勞動力?


李寧:從崗位替代的角度看,一些舊的工作確實會消失。但新技術能創造多少新的事情,現在還很難判斷。


以前我寫一篇文章,可能需要一個不小的團隊;現在一個人或許三天不到就能完成。但這類工作在過去其實並不存在。如果仍按以前的節奏算,現在每天一兩個小時就能幹完所有工作;但現實恰恰相反,我的工作時長反而更長了,因爲能做的事情變多了。


對企業也是一樣。即便人員不變,產出也可能是過去的十倍;即便人員只增加一兩倍,完成的事情也可能是過去的幾十倍。


《知識分子》:AI時代對勞動力的要求也會發生變化,您覺得變化主要體現在哪些方面?對哪一類羣體的影響會更大?


李寧:一定會有變化。衝擊最大的其實是知識型員工,尤其是以信息加工爲主的白領工作。很多崗位本質上就是在做信息處理,比如數據整理、數據分析、諮詢,這些和 AI 的能力是直接重疊的,受到的影響會非常大。


這裏面有兩個關鍵因素:一是能不能開拓出新的需求;二是個人能不能持續學習。


很多人缺乏自我進化的動力,但這不是能力問題,而是意識問題,也不完全和年齡有關。比如我和學生相比,年齡更大,但在AI的使用上反而可能更頻繁。除了自主性,很多時候也是時間分配的問題,事情被排得很滿,就沒有精力去額外學習。


企業裏也是一樣,很多人會覺得本身工作已經很忙了,不可能再投入時間去做額外的探索。


《知識分子》:所以還是需要自由探索的空間和時間?


李寧:對。但很多企業在算ROI的時候,並沒有把這一點算進去,只計算設備成本、使用成本,卻不會允許一個員工什麼都不幹,花一個月時間專門去探索AI,尤其這個探索很可能沒有任何直接產出。


絕大多數企業不會做這件事。結果往往是,只能靠員工自己去探索;但一旦員工真的探索出了成果,往往也就不會再留在原來的企業了,這是一個很現實的問題。


參考文獻:

[1] https://x.com/BillAckman/status/2017331374571590075

[2] https://x.com/karpathy/status/2017296988589723767

[3] https://github.com/openclaw/openclaw

[4] Ning Li. The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies.https://doi.org/10.48550/arXiv.2602.07432

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top