撕裂社會的,從來不是算法

來源: 更新:

圖源:Unsplash / Markus Spiske

撰文|張榆澤


算法會加劇社會分裂嗎?這種“技術決定論”敘事在經驗證據上是薄弱的。算法的核心是商業性的“參與度優化”,而非意識形態灌輸。更關鍵的是,國外的研究發現,極化主要由政治精英、黨派媒體和深層社會經濟結構驅動,強迫人們走出繭房、接觸對立觀點,非但不能促進理解,反而會使其立場變得更加極端。


早在“算法”成爲熱詞之前,瓦爾特·李普曼(Walter Lippmann)就對“輿論”的形成提出了深刻的質疑。他引用羅伯特·皮爾爵士的話說,“所謂輿論就是彙集了愚蠢、軟弱、偏見、錯誤的感覺,準確的感受,固執的觀點和報紙文章的大雜燴”。近一個世紀前,人們幾乎不會把社會的裂痕簡單歸因於某一特定要素,而是試圖從更復雜的結構中找到答案。


在當代公共話語中,一種普遍的觀點認爲,社交媒體在加劇社會分裂,無論是故意推送對立觀點以製造不同羣體之間的矛盾,還是將極端者聚集起來相互強化,這些敘事都指向一個共同的“元兇”:算法。


這種“技術決定論”的觀點,很大程度上源於伊萊·帕裏澤(Eli Pariser)提出的“過濾泡”(Filter Bubble)概念,他認爲算法的個性化推薦機制會將用戶在知識上隔離開來,只向他們展示與其既有觀點相符的內容,從而助長了政治極化。


這個邏輯符合我們的直覺,但它在很大程度上只是一種“未經證明的預設”。近年的多項研究正在對這一“常識”發起挑戰。


01 “繭房”的實證脆弱性


首先,“算法導致繭房”這一前提,在實證研究中就顯得相當薄弱。


人們常說的“過濾泡”,指的是算法通過個性化排序,爲我們每個人創造了一個獨特的信息宇宙,從而侵蝕了共同的討論基礎。而“信息繭房”或“迴音室”(Echo Chamber),則指我們最終停留在一個封閉的媒體空間,內部信息被放大,而外部信息被隔絕。


但現實中,這樣的“繭房”真的普遍存在嗎?


路透新聞研究所(Reuters Institute)發佈的一份文獻綜述在回顧了大量相關研究後指出:真實的“繭房”非常罕見,大多數人接受的媒介信息是相對多樣化的。一項針對英國的研究估計,只有約6%到8%的公衆處在黨派新聞的“迴音室”中。


與普遍認知相反,多項研究一致發現,依賴搜索引擎和社交媒體獲取新聞的人,其接觸到的新聞來源反而更廣泛、更多元。這被稱爲“自動的機緣巧合”(Automated Serendipity)——算法會“投餵”給你本不會主動選擇的內容。


少數確實存在於繭房中的人,主要是因爲他們主動選擇只看某些媒體,而不是算法有預謀推送的結果。


事實上,那些認爲算法離間的觀點,往往假設平臺樂於見到衝突,因爲衝突帶來流量。然而,這種假設忽視了平臺運營的真正目標:長期用戶留存。


正如抖音安全與信任中心所公開的算法原理,如果算法一味迎合用戶已有的興趣,會導致內容越來越同質化,這會使用戶很快感到無聊並離開平臺。因此,推薦系統必須在“利用”和“探索”之間保持平衡,主動將用戶可能感興趣的新內容推送給用戶,以保持新鮮感和用戶黏性。


02 當“兼聽”不再“明”


既然“算法導致繭房”的證據不足,那麼極化的根源究竟在哪?


中國有句古話叫“兼聽則明”,西方的商談民主理論也認爲,公民在理性商談中接觸不同觀點,會變得更溫和。如果“繭房”是問題所在,那麼打破它——讓人們“兼聽”——理應能緩解極化。


但如果這個前提在社交媒體時代失效了呢?


杜克大學社會學家克里斯·貝爾(Chris Bail)教授進行了一項巧妙的實地實驗,直接測試了這個問題。他的團隊招募了一批立場堅定的民主黨和共和黨推特用戶,然後付錢讓他們關注一個專門轉發對立陣營政治言論的“機器人”賬號。


這個實驗的設計,本質上就是強行打破繭房,迫使參與者“兼聽”。然而,實驗結果讓人意想不到:一個月後,參與者非但沒有變得更溫和、更理解對方,反而普遍變得更加極端了。


這一發現證明,至少在社交媒體環境中,強迫你“走出信息繭房”,非但沒有解決問題,反而加劇了極化。


阿姆斯特丹大學一項最新的“生成式社交模擬”研究進一步證實了這一觀點。當研究者使用AI智能體創建了一個只有發帖、轉發和關注功能的“最小平臺”後,發現即使沒有複雜的推薦算法,黨派迴音室、影響力高度集中和極端聲音放大等功能障礙依然會自發產生。情緒化的(往往是極端的)內容獲得更多轉發,轉發行爲又爲發佈者帶來更多關注者(即影響力),這又進一步強化了極端內容在網絡中的主導地位。


這一發現的意義在於,問題不是算法“隔離”了我們,而在於人類社交網絡的基礎架構就會獎勵那些基於身份、情緒化、非理性的反應,並允許這些反應直接構建了我們的社交關係。


03 極化的真相是什麼?


爲什麼接觸對立觀點會適得其反?要回答這個問題,我們必須區分兩種截然不同的“極化”。


現代政治科學研究指出,意識形態極化(Ideological Polarization),即人們在具體政策立場上的分歧,在普通民衆中並未顯著增加。然而,情感極化(Affective Polarization),即不同黨派羣體之間日益增長的厭惡、不信任和敵意,卻在急劇上升。這種極化無關乎政策,關乎身份;其特徵更多體現爲“對羣外的憎恨”(Out- Group Hate)。


貝爾教授據此提出的“社交媒體棱鏡”(Social Media Prism)理論認爲,社交媒體既不是“鏡子”,也不是“繭房”,而是一面“棱鏡”:它會扭曲我們對自我和他人的認知。


這種扭曲來自兩個方面:首先,社交媒體的核心機制是身份展演和地位競賽,這爲極端者提供了最佳舞臺。其次,當極端者佔據了輿論場,溫和派會因“沉默的螺旋”而噤聲。這面“棱鏡”讓我們錯誤地以爲對立陣營裏所有人都是我們在網上看到的那些極端分子。


這也解釋了貝爾的實驗爲何失敗:參與者被迫看到的,並非溫和的對立觀點,而是被“棱鏡”折射過的、最刺耳的聲音,這自然加深了他們的情感極化。也有研究表明,用戶雖然能感知到一種基於身份的“個體意見氛圍”,但其“個體意見表達”卻並不受其顯著影響,更別說製造認同,從而演變成非理性行爲了。


04 超越“參與度”,算法的未來在哪?


算法是在一個預先存在的極化環境中運作的,而非創造了這個環境。


極化加劇的時間線,遠早於現代社交媒體算法的出現,一種“自上而下”的模式似乎很早就有。


首先,精英極化(Elite Polarization)先於並驅動着大衆極化,政治家和活動家首先採取了更鮮明的立場。其次,深層的社會經濟因素,如日益加劇的經濟不平等,與政治極化之間存在着深刻的結構性關係。此外,時間序列分析也顯示,收入不平等的衡量標準(如基尼係數)與國會極化程度之間存在着強烈的長期相關性。


將算法視爲極化危機核心的“技術決定論”敘事,是對一個複雜、多因現象的過度簡化。


“算法離間論”和“傻子共振”所描述的現象,其根源更多在於人類的心理偏見(如選擇性接觸)和深層的社會政治結構。當一條長達450分鐘的《紅樓夢》深度解讀視頻能獲得3億播放量,這恰恰是算法主動破壁、發掘用戶深度興趣的結果,而非“繭房”的產物。


既然算法只是“放大器”,那麼簡單的技術調整能否“校正”這種放大效應?阿姆斯特丹大學的“AI沙盒”(Sand box)研究爲此提供了發人深省的答案。研究者測試了六種廣泛提議的“親社會干預措施”,結果發現那些看似“解藥”的方案效果“微乎其微”,甚至適得其反。


例如,強行打破所謂繭房(即“提升對立黨派內容”)的干預措施,結果顯示“幾乎沒有影響”,AI智能體在被迫接觸對立觀點時,並沒有改變自己的行爲,再次證實了“跨黨派曝光本身是不夠的”。而許多人呼籲迴歸的“按時間排序”信息流,雖然確實能大幅降低“注意力不平等”,但它帶來了意想不到的負作用:它加劇了社交媒體棱鏡效應,使得極端黨派用戶的聲音獲得了更強的相對影響力。


因此,富有成效的干預措施,不應着眼於創造“中立”算法這一徒勞的目標。而應更多地關注探索超越原始參與度優化的替代性算法設計,例如,轉而優先考慮獎勵用戶的“陳述偏好”(用戶反思後認爲有價值的內容)而非“揭示偏好”(用戶衝動點擊的內容),或爲“建設性話語”進行設計,從而將技術的力量植根於對我們當前分裂的人類和政治根源的更準確理解之上。


本文作者系對外經濟貿易大學文學與國際傳播學院講師


參考文獻:

[1] Larooij, M., & Törnberg, P. (2025). Can we fix social media? Testing prosocial interventions using generative social simulation. arXiv preprint arXiv:2508.03385v1.

[2] Milli, S., Carroll, M., Wang, Y., Pandey, S., Zhao, S., & Dragan, A. D. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media. PNAS Nexus, 4, pgaf062.

[3] Arguedas, A. R., Robertson, C. T., Fletcher, R., & Nielsen, R. K. (2022). Echo chambers, filter bubbles, and polarisation: a literature review. Reuters Institute for the Study of Journalism.

[4] Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review, 5(1).

[5] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.

[6] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. arXiv preprint arXiv:2010.00590v3.

[7] Bakker, B. N., & Lelkes, Y. (2024). Putting the affect into affective polarisation. Cognition and Emotion, 38(4), 418-436.

[8] Vlaicu, R. (2023). Inequality, participation, and polarization: Economic origins of partisan policies (Discussion Paper N° IDB-DP-1040). Inter-American Development Bank.

[9] Prummer, A. (2020). Micro-targeting and Polarization. Accepted Paper

[10] 王伯魯. 馬克思技術決定論思想辨析[J]. 自然辯證法通訊, 2017, 39(5): 126-135.

[11] 晏齊宏. 算法推薦對網民意見極化的影響機制研究——基於輿論可見性視角的多層次分析[J]. 現代傳播, 2024, 8: 12-25.

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top