大模型學會“人肉搜索”,互聯網匿名時代正式終結
圖源:Seedance生成
撰文 | 崔原豪
責編 | 李珊珊
● ● ●
1993年,《紐約客》雜誌刊登了一幅著名漫畫:一隻狗坐在電腦前,對另一隻狗說,在互聯網上,沒人知道你是一條狗[1]。
這幅漫畫精準地捕捉了早期互聯網的精神內核:匿名性賦予每個人平等的發言權,身份、地位、外貌都被暫時懸置,唯有思想和文字在流動。
圖源:紐約客截圖
三十多年後的今天,這個美好的假設正在被一種新技術悄然瓦解。
2026年2月,蘇黎世聯邦理工學院與人工智能公司Anthropic聯合發表了一篇論文,標題直白得令人不安:Large-scale online deanonymization with LLMs(基於大語言模型的大規模在線去匿名化)[2]。研究團隊展示了一個令人震驚的事實:在AI面前,互聯網匿名正在以肉眼可見的速度崩塌。
01 當人肉搜索成爲流水線作業
讓我們從一個假設開始。
假設你在某個技術論壇註冊了一個小號,ID是代碼詩人1995。你從未透露真實姓名,頭像是一隻貓,簡介裏只寫着熱愛開源,討厭週一。你在論壇上討論編程問題、吐槽公司制度、偶爾發表一些不想被同事看到的觀點。你覺得很安全,畢竟這只是個馬甲。
但現在,有一臺機器正在閱讀你所有的發言。
它注意到你喜歡用特定的標點符號組合是三個句號加空格;它發現你提到上週去杭州出差時順便抱怨了西湖邊的酒店太貴;它記得你說過研究生是在北郵讀的,導師姓張。它把這些碎片拼接起來,然後在一個擁有數十億用戶數據的互聯網上進行匹配。
90%的精度,68%的召回率,這是論文中報告的數字[2]。換句話說,這臺機器有接近七成的概率,能從茫茫人海中把你代碼詩人1995的真實身份找出來。
這不是科幻小說的情節。研究團隊用三個真實場景驗證了這一攻擊的有效性:將Hacker News用戶與LinkedIn檔案匹配、跨Reddit不同社區識別同一用戶、甚至僅憑一個用戶在不同時間段的發言就將其分身關聯起來。在每一項測試中,基於大語言模型的方法都碾壓了傳統算法,後者的成功率幾乎爲零。
02 從神話到科學:去匿名化的技術躍遷
要理解這場變革的意義,我們需要回溯歷史。
2006年,Netflix舉辦了一場著名的算法競賽:公開一億條電影評分數據,懸賞100萬美元給能最好地預測用戶評分的團隊。然而,研究者很快發現,即使數據經過匿名化處理,用戶ID被隨機替換,仍然可以通過交叉比對其他公開數據庫(如IMDb)重新識別出具體個人。一位德克薩斯大學的研究生甚至成功識別出了Netflix數據集中包括她自己在內的多位用戶[3]。
這就是傳統去匿名化的困境:它依賴於結構化數據,需要精心設計的交叉比對,本質上是一種手工藝術。門檻高、規模小、成本昂貴,只有具備相當資源的機構才能實施。
但大語言模型改變了這一切。
論文中描述的攻擊流程看似簡單,卻蘊含着深刻的範式轉變。整個系統分爲三個核心模塊:
- 第一步是特徵提取。傳統方法需要人工定義什麼是身份特徵,比如姓名、地址、電話號碼。但大語言模型可以直接閱讀原始文本,自動發現那些人類難以形式化的線索。比如你習慣在句尾加上哈哈哈,你提到週末總是去五道口那家書店,你對某個技術框架有特定的稱呼方式。這些看似瑣碎的細節,在模型眼中構成了獨特的身份指紋。
- 第二步是語義匹配。研究者使用了一種稱爲嵌入的技術[2]。簡單來說,就是把每段文字轉化爲一個高維空間中的向量。語義相近的文字,在這個空間中距離也相近。當模型需要匹配兩個不同平臺上的用戶時,它不需要逐字比對,而是計算這兩個用戶文字向量之間的距離。如果距離足夠近,就有可能是同一個人。
- 第三步是推理驗證。這是大語言模型最獨特的能力。前兩步可能產生大量候選匹配,其中有不少是誤報。此時,模型會像一位經驗豐富的偵探一樣,仔細審視每一對候選對象,分析它們之間的相似點和差異點,最終給出是否匹配的判斷。論文顯示,加入這一推理步驟後,系統在99%精度下的召回率提升了一倍[2]。
關鍵在於,這一切都可以自動化、規模化地進行。不再需要人工設計特徵,不再需要編寫複雜的匹配規則,只需要一個經過訓練的大語言模型和足夠的算力。
03 匿名的價值:人類爲什麼需要馬甲?
在討論技術之前,我們必須先問一個問題:匿名重要嗎?
答案是肯定的,而且比我們想象的更重要。
從古希臘的民主廣場到啓蒙時代的咖啡館,從地下出版物到互聯網論壇,匿名一直是保護言論自由的重要機制。它讓異見者敢於發聲,讓弱勢羣體尋求幫助,讓吹哨者揭露真相。沒有匿名,蘇格拉底可能不敢在雅典街頭與人辯論;沒有匿名,《聯邦黨人文集》的作者們無法坦誠地討論新憲法的利弊;沒有匿名,曾經的BBS匿名用戶功能也不會成爲許多人心中的樹洞。
但匿名的意義不僅在於保護髮言者,更在於保護言論本身。
社會心理學中有一個著名的去個體化理論:當個體身份被隱藏時,人們更容易表達真實的想法,而不是社會期望的答案[4]。這在某些情況下可能導致負面後果,如網絡暴力,但在更多情況下,它促進了真誠的公共討論。許多關於職場不公、學術腐敗、性別歧視的重要揭露,最初都始於一個匿名的帖子。
如果AI讓匿名成爲奢望,我們失去的將不僅僅是“馬甲”,我們失去的是一個讓真話得以存活的生態。
04 威脅模型:誰會被影響?
論文的作者們沒有迴避技術的潛在濫用。
企業可以構建超精準的用戶畫像,實現超定向廣告;攻擊者可以大規模收集目標信息,發起高度個性化的社會工程攻擊。在職場環境中,這可能成爲內部鬥爭的工具;在社交場景中,這可能侵蝕個人的隱私底線。
但更大的威脅或許來自開盒成本的降低。
想象一下:你在微博上用小號吐槽了公司領導,以爲沒人知道。但你的同事,或者更糟,你的領導,只需要把你的發言與公司內部通訊記錄進行比對,就有很大概率發現原來那個罵我的人就是你。這種橫向去匿名化不需要複雜的組織,只需要一點技術知識和好奇心。
更微妙的是,這種技術可能改變我們對隱私的預期。
過去,我們認爲只要我不說,別人就不會知道。但現在,即使你不主動透露,你的寫作風格、你的表達方式、你的思維習慣,這些曾經被認爲是無害的特徵,都可能成爲識別你的指紋。
隱私的邊界正在從你說了什麼擴展到你怎麼說。
05 我們能做什麼?
面對這一挑戰,個人、平臺和政策制定者都需要行動。
對個人而言,首先需要意識到風格即身份。跨平臺使用完全不同的寫作風格、避免重複使用特定的短語或表情符號、謹慎關聯真實身份與網絡身份,這些措施可以提供一定程度的保護,儘管無法完全抵禦有針對性的攻擊。
對平臺而言,數據最小化原則變得前所未有的重要。減少用戶數據的存儲時間、限制數據的交叉使用、引入風格混淆技術,如AI改寫工具,這些措施可以增加攻擊者的成本。
對政策制定者而言,需要重新思考隱私法律的適用範圍。傳統的匿名化標準,如k-匿名、l-多樣性,在大語言模型時代可能不再足夠[5]。我們需要新的技術標準和法律框架,來應對基於AI的推斷性識別這一新興威脅。
但最根本的問題或許是:當技術讓隱私保護變得越來越困難時,我們是否需要重新定義隱私本身?
06 結語:在透明的時代尋找陰影
古希臘神話中,普羅米修斯爲人類盜來火種,卻因此被縛於高加索山,日日受鷹啄肝之痛。技術的進步往往伴隨着代價,而大語言模型帶來的去匿名化能力,或許正是我們這個時代必須面對的普羅米修斯之火。
論文的作者們在倫理審查的框架下開展了這項研究,他們使用的數據集經過了脫敏處理,研究過程經過了ETH Zurich倫理委員會的批准[2]。但技術一旦公開,如何使用便不再由研究者控制。
這正是技術倫理的經典困境:揭示風險與提供攻擊工具之間的微妙平衡。
我們不得不面對一個令人不安的事實:互聯網匿名曾是一種實用的模糊性,不是絕對安全,而是攻擊成本太高,所以相對安全。但AI正在大幅降低這一成本,使得針對普通人的去匿名化從不可能變爲可能,從昂貴變爲廉價。
也許,我們正在見證一個時代的終結。那個可以在網上自由更換馬甲、嘗試不同身份、說出不敢實名說出的話的時代,正在緩緩拉上帷幕。
但這不是故事的結局。歷史告訴我們,每當舊有的保護機制失效,新的機制就會誕生。加密通信、去中心化網絡、聯邦學習,這些技術正在爲用戶提供新的隱私工具。更重要的是,社會對隱私價值的認識也在深化。當威脅變得具體,保護的動力就會增強。
在《1984》中,奧威爾描繪了一個沒有隱私的恐怖世界[6]。但我們也記得,在《美麗新世界》中,赫胥黎警告的是另一種危險:人們可能會主動放棄隱私,換取便利和娛樂[7]。面對AI時代的去匿名化威脅,我們需要的不僅是技術防禦,更是對隱私價值的堅守,不是因爲我們要隱藏什麼,而是因爲我們需要一個讓真話得以存活的空間。
畢竟,即使在最明亮的房間裏,人也總需要一些陰影。
(本文作者崔原豪爲北京郵電大學副研究員、中國計算機學會科學普及工作委員會主任助理。如無特別標註,本文插圖均由Gemini Nano banana生成。)
參考文獻:
[1] Steiner P. On the Internet, nobody knows you are a dog. The New Yorker, 1993.
[2] Lermen S, et al. Large-scale online deanonymization with LLMs. arXiv:2602.16800, 2025.
[3] Narayanan A, Shmatikov V. Robust De-anonymization of Large Sparse Datasets. IEEE Symposium on Security and Privacy, 2008: 111-125.
[4] Diener E. Deindividuation: The absence of self-awareness and self-regulation in group members. Advances in Experimental Social Psychology, 1980, 13: 209-242.
[5] Sweeney L. k-anonymity: A model for protecting privacy. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 2002, 10(5): 557-570.
[6] Orwell G. Nineteen Eighty-Four. Secker & Warburg, 1949.
[7] Huxley A. Brave New World. Chatto & Windus, 1932.