面對AI,人類還能堅守主體性嗎?
當前,人工智能席捲世界,我們在驚歎其能力的同時,也陷入普遍性焦慮:它究竟是人類智慧的非凡延伸,還是終將取代人類的他者?這促使我們追尋人工智能的底層邏輯和演進脈絡,以回應時代之問。張笑宇的《AI文明史·前史》、萬維鋼的《人比AI兇》、張軍平的《人工智能的邊界》以及劉禾的《弗洛伊德機器人:數字時代的哲學批判》四部作品從技術本質、個體應對、發展邊界到哲學批判,層層遞進,爲我們提供了有益的觀察視角和思考維度。
圖源:視覺中國
當智慧“湧現”
人工智能屬於當代顯學。據統計,2025年上半年全球人工智能市場規模已達1.2萬億美元,同比增長23%。2026年,這一勢頭將繼續保持。人工智能對生活的滲透更是肉眼可見。時至今日,誰還沒和AI打過交道呢?
然而人工智能不止令人振奮,還引起了廣泛憂慮,而且論憂慮的廣度和深度,這場由人工智能帶來的變革恐怕要超過18、19世紀的工業革命。
工業革命之初,人們擔憂的是機器取代人力,導致傳統手工業瓦解,匠人失去用武之地。至於人類引以爲傲的大腦,依然無可替代。人類有信心運用獨一無二的智慧,駕馭機器,牢牢佔據生態鏈頂端,但人工智能卻在動搖這種自信。當AI不僅能戰勝國際象棋冠軍、圍棋冠軍,還能像模像樣地生成文稿、圖片、視頻,睿智地與人對話,甚至比親友更懂你的時候,人們開始嘀咕:難道AI真會進化成擁有自主意識的智慧體?硅基生命真的將反超碳基生命,成爲世界主宰?
從人工智能的發展現狀看,下定論爲時尚早,但生成式AI確實在相當程度上介入了內容生產領域,而這,原本被認爲是人類專屬。
焦慮乃至恐懼隨之而來,這未嘗不是好事。在百萬年的演化進程中,人類面臨着嚴峻的生存壓力,爲了活下去想盡辦法,積累起富有韌性的集體智慧。直到工業革命爆發,尤其是20世紀中葉以來相對和平的國際環境,人類才普遍喫飽飯,有大把閒暇從事文藝、娛樂活動。可在舒適區待久了難免銳氣消減,應變能力下降,此時呼嘯而至的人工智能猶如當年湧入羅馬帝國的日耳曼蠻族,衝擊是劇烈的,卻也讓人一激靈,打起精神想對策。
知己知彼,方能妥善應對。因此,我們應該瞭解人工智能的底層邏輯和發展路徑。張笑宇的《AI文明史·前史》於是映入眼簾。
《AI文明史·前史》,張笑宇 著,中信出版社2025年出版
作爲科技史學者,張笑宇長期關注政治哲學、政治史、技術與社會關係等議題,他的《技術與文明》《商貿與文明》我都讀過,深感其思維新銳、觀察獨到,論述頗具解釋力和穿透力。《AI文明史·前史》從宏觀視角切入,揭示人工智能的起源、哲學基礎和技術發展,正契合讀者所需。
張笑宇首先介紹了“湧現”(Emergence)的概念。“湧現”最初用來描述一種複雜的物理現象,科學家發現,當獨立個體大量聚集,會突然在某個臨界點上從無序變成有序,表現爲整體性協調運動。例如沙子匯聚成沙漠,會形成波浪似的棱線;成羣的飛鳥會自發排列成特定的圖案飛行。運用到人工智能領域,在大語言模型的參數比較少的時候,它們各不相關,並無規律可言;一旦數量足夠多,參數之間似乎達成了共識,表現出某種智能,這種智能現象稱之爲“湧現”。如果將大語言模型的參數理解爲神經網絡,就可以說,人工智能是從神經網絡“湧現”的。
無獨有偶,人類智慧也是。“細胞演化爲複雜器官,個體行爲聚合爲羣體智慧,神經網絡湧現出智能和自我意識,以及個體逐利動機推動社會的整體進步,本質上都是一種‘湧現’現象。”張笑宇分析。換言之,人工智能與人類智慧是同構的,區別只在於前者不具備自主意識。可誰知道哪天它就會“湧現”出來呢?按照張笑宇的看法,這是遲早的事,屆時我們將真正邁入AI文明,而現在,只能算“前史”。
如何在AI時代學習
人工智能最厲害之處,在於強勁的學習效率。從1997年“深藍”戰勝國際象棋大師卡斯帕羅夫,到2016年AlphaGo戰勝圍棋世界冠軍李世石,花了近20年。而新近的大語言模型只需經過短時間自我訓練,就能輕鬆擊敗人類的最強大腦。這樣的迭代速度,足以讓AI在智力層面碾壓人類。
在新著《人比AI兇》中,科普作家萬維鋼對此做了詳細解釋。由於訓練大語言模型的語料都是人類活動的產物,因此長久以來,人類智慧被認爲是人工智能的天花板。然而,這一固有認知在2025年初遭到了強烈挑戰,OpenAI的o1、o3輕鬆通過了用於檢測AI抽象和推理能力的ARC-AGI測試。與此同時,DeepSeek橫空出世,其推理能力與o1相當,應用表現還更出色。這兩件事震撼了全球AI圈,大家意識到,人類智慧可能並不構成人工智能的瓶頸。只要喂的語料足夠多,大語言模型可以自行生成結論,甚至發明新知識。這意味着會有一天,AI不再是人類的學習工具,而是人向AI學習。
《人比AI兇》,萬維鋼 著,新星出版社2025年出版
這就產生了一個問題:既然怎樣也趕不上AI,人類還有必要學習嗎?答案是肯定的。一個顯而易見的理由是,個人掌握的知識雖有限,但終歸屬於自己,將其內化爲生命的一部分,而AI再強大,也不能代替人去生活。何況,人類學習的目的不僅僅是指向實用,精神需求同樣重要。近年來搜狐網創始人張朝陽在網上講物理課,那種自洽鬆弛的狀態,明顯來自知識的愉悅。
當然,面對洶湧而來的人工智能浪潮,人類的學習方法也應順勢而變。萬維鋼由此提出了應對策略:讓AI成爲我們遴選與消化知識的助手。例如,在決定閱讀一本書之前,藉助AI梳理其核心內容與邏輯脈絡,瞭解各章節的關鍵要點,以便於我們選擇是泛讀還是精讀。
對需要精讀的書,萬維鋼提倡“強力研讀法”:第一遍把握全局,第二遍釐清邏輯鏈條,並嘗試將書中思想與其他知識建立聯結。爲此,萬維鋼經常花兩週時間精讀一本書,整理數萬字閱讀筆記。這樣雖然慢,卻能將知識內化,爲我所用。萬維鋼強烈反對用AI“總結一本書”,認爲這隻會得到一堆高度概括的結論,由於未經思考、質疑與整合,難以融入我們的認知體系。你看起來讀了很多書,其實知識如瀑布般喧囂流過,什麼都沒留下。
技術邊界與文明契約
上述討論解決了人類爲何在AI時代保持學習的必要性問題,然而,一個更深層的憂慮依然盤踞在人們心頭:當人工智能的智力水平全面超越人類,甚至在未來湧現出某種自我意識時,它會不會反過來主導,進而威脅人類文明?假如科幻作品中的場景成爲現實,我們又該如何自處?
要回答這個問題,或許我們應該回歸技術本身,審視人工智能發展的內在邏輯與客觀侷限。復旦大學計算與智能創新學院教授、博士生導師張軍平所著的《人工智能的邊界》,提供了一個專業而清晰的視角。
《人工智能的邊界》,張軍平 著,湖南科學技術出版社2025年出版
作爲長期深耕人工智能與機器學習領域的學者,張軍平在這本書裏以“零公式、零代碼”的方式,深入淺出地剖析了AI當前的能力侷限、面臨的發展挑戰以及未來可能的人機共生路徑。他指出,現有的人工智能,尤其是大規模深度學習模型,運行嚴重依賴巨大的算力與能源消耗,知識表達與推理方式也與人類的認知機制存在本質差異。張軍平以“飛機與鳥”的經典類比加以說明:飛機雖然飛得比鳥更快、更高、更遠,但飛行原理和鳥類截然不同,也並未複製出鳥類所有的靈活性與適應性。同樣,AI可以在特定領域表現卓越,卻未必會、也未必需要走一條完全模擬人類智慧的道路。
看來,人工智能的發展並非如外界想象那般會一日千里,駛向失控的邊緣。1956年達特茅斯會議上提出的“用機器模擬人類智能”的宏偉目標,在可預見的將來仍遙不可及。也因此,張軍平對人類文明保持審慎的樂觀。
這種對技術發展內在侷限的清醒認知,有助於緩解公衆對人工智能的過度恐慌。當然,這並不意味着我們可以就此高枕無憂。事實上,即便人工智能本身並無“造反”的意圖或能力,但如果人類對其誤用、濫用,仍可能引發嚴峻的社會與倫理危機。有“人工智能教母”之稱的斯坦福大學教授李飛飛近期接受媒體採訪時就指出,技術本身是中性的,但如果被濫用,將會產生始料未及的後果。因此她強烈主張合理使用AI工具,並對人工智能保持警惕。
回過頭看張笑宇在《AI文明史·前史》裏提出的“文明契約”,就意味深長了。“文明契約”源於政治哲學上的重要概念“社會契約”,張笑宇的原意是設想在未來某個階段,在面對全面超越人類的超級智能時,人類需要與之建立一種基於協商與共識的共生框架,通過明確的契約約束雙方,以確保不同智力水平的文明能夠持久、和平地共存。
倘若轉換視角,將這一概念應用於當下,那麼“文明契約”更應該成爲規約人類開發和運用人工智能的基本原則。其核心要義在於,掌握並運用AI技術優勢的個人和組織應該主動承擔責任,約束自身行爲。例如,防止利用技術壁壘形成對知識與信息的絕對控制,保障社會整體的知識可及性與創新活力;避免用算法制造信息繭房,損害人類自由探索、自主思考的權利;禁止將AI用於侵害他人權益、操縱輿論或破壞社會穩定的活動等。
堅守主體性,回到人本身
無論是像張軍平那樣劃定技術邊界,抑或如張笑宇那樣呼籲訂立文明契約,這些努力都基於一個根本前提:人類是清醒、自主且穩固的主體,能夠作爲駕馭者或平等的締約方去面對人工智能。不過,美國哥倫比亞大學比較文學與社會研究所劉禾教授在《弗洛伊德機器人:數字時代的哲學批判》一書中提出的洞見,對這一前提構成了挑戰。根據劉禾的揭示,人機關係的深層真相可能並非主客對立,而是一種彼此構建、循環內化的精神纏繞。
《弗洛伊德機器人:數字時代的哲學批判》,劉 禾 著 ,何道寬 譯,中國大百科全書出版社2025年出版
劉禾指出,人類懷着對自身形象的迷戀製造仿人機器(如會對話的AI),賦予其人類的外觀、行爲模式乃至情感交互能力。在與機器的長期互動中,人類不自覺地在行爲、思維乃至情感層面向機器靠攏,比如刻意追求算法的高效精準,或是像界面般即時反饋,將“效率優先”“簡化決策”內化爲自身的行爲準則。而機器會捕捉到人類的這些新行爲、新習性,作爲訓練數據迭代升級,形成新一輪擬像輸出。最終,那個試圖控制技術的人類主體,將被這種循環重塑,成爲“弗洛伊德機器人”——一個看似自由、實則慾望與習性已被技術邏輯重新編碼的存在。
這無疑是一個發人深省的警示。劉禾提醒我們,比技術失控更隱蔽的風險,是人類在與技術的共生中悄然喪失主體性。
當智慧可以“湧現”,當技術持續迭代,我們真正需要關心的,或許不是對技術的絕對掌控,而是對“人之所以爲人”的清醒認知。那是無法被算法替代的共情與悲憫,是敢於質疑、善於反思的批判思維,是對真善美的永恆追求,更是自主選擇生命形態與價值方向的自由。
唯有守住主體性,人類才能在技術浪潮中不迷失方向,讓人工智能真正服務於人類文明的長遠進步,這或許正是我們在AI時代應該堅守的答案。