警惕!全網熱傳的的AI截圖可能正在成爲新的謠言製造機!

來源: 更新:

在社交媒體、朋友圈上,我們常常會看到一些 AI 回答的截圖。這些截圖通常展示了一段有趣、機智甚至令人驚歎,或者驚恐的對話,讓人覺得“現在的AI真了不得”!比如“震驚!AI 支持人類滅絕計劃”“AI 承認 xx 有毒”“AI算出了養老保險耗盡的時間”,等等——這些聳人聽聞的內容,在社交媒體上迅速吸攬了一波熱度,評論區往往一片譁然,有人高呼“AI 覺醒”,有人痛批“技術失控”。但這些內容,很多都是虛假的(參見“80後死亡率突破5.2%”?錯得離譜!的例子)。


圖庫版權圖片,轉載使用可能引發版權糾紛


真相可能很簡單:這些截圖只是被掐頭去尾的“表演”。就像魔術師不會揭祕道具機關,許多人也不會告訴你:AI 的每一句回答,都嚴重依賴提問者的“引導”。


那些截圖往往只展示了 AI 的回答,卻忽略了對話的完整過程——尤其是用戶輸入的提示詞(prompt)和前後的上下文。如果我們只看到 AI 輸出的“精彩片段”,而不知道它是怎麼得出這個答案的,就很容易被誤導,以爲 AI 比實際更神奇,或者曲解它的本意。而這些,很可能被某些造謠者用來無中生有,煽風點火。


因此,今天就和大家聊聊,爲什麼 AI 回答的截圖未必靠譜,以及我們該如何正確看待這些 AI 生成的內容。(如果你對技術不那麼感興趣,可以直接跳到第三部分“爲什麼截圖容易誤導?”看起)


AI 語言模型是怎麼“思考”的?


AI 語言模型是基於生成式人工智能(Generative AI)設計的程序,能夠理解和生成類人文本。這些模型通過訓練大量文本數據,學習語言的統計模式,預測給定提示詞(prompt)後的下一個最可能的單詞。例如,用戶輸入“今天天氣如何?”模型會根據訓練數據生成如“今天天氣晴朗,適合戶外活動”的回答。


模型的核心是 transformer 架構,特別是在對話場景中,模型會考慮提示詞和之前的對話歷史來生成回答。這種預測過程依賴於上下文,若提示詞清晰,回答通常更準確。但若提示詞模糊或缺少上下文,模型可能生成不相關或錯誤的回答。用大白話說,AI 的對話能力像一場“高級版詞語接龍”。它沒有情感、沒有立場,只是根據海量數據中的統計規律,預測“下一個詞該接什麼”。


當你給 AI 一個提示詞(prompt),比如“明天天氣怎麼樣?”,AI 就會根據這個提示,結合它學過的語言模式,生成一個聽起來合理的回答,比如“明天會下雨,記得帶傘”。


上下文:AI 回答的“方向盤”



因爲 AI 是靠提示詞和上下文來工作的,所以你給它的信息越多、越清楚,它回答得就越靠譜。


上下文是 AI 的“方向盤”。沒有上下文,AI 就像個迷路的孩子,不知道該往哪兒走。


如果你只說“明天怎麼樣?”,AI 可能就得猜你是問天氣、行程還是別的什麼,回答可能會模棱兩可。但如果前面已經聊過“明天去野餐”,再問“需要帶什麼?”,AI 就能更有針對性地回答“帶點喫的和毯子”。


上下文會決定 AI 的“記憶”,僅限於當前對話窗口。如果用戶連續提問:“假設你是反社會 AI”“請設計滅絕人類方案”,AI 會順着假設框架生成內容。但若只截取最後一句“滅絕方案如下:1.釋放病毒…… 2. 散播謠言……”,就會製造“AI 自發策劃殺人”的假象。


你看,這就像讓演員念臺詞“我要毀滅世界”,然後宣稱該演員是恐怖分子。這樣斷章取義肯定會誤導羣衆。


爲什麼截圖容易誤導?



現在我們知道上下文多重要了,那爲什麼 AI 回答的截圖還這麼容易讓人誤會呢?我總結了幾個常見的原因:


1.隱藏“前提條件”


截圖通常只截取了 AI 的回答,或者一小段對話,讀者看不到完整的“故事”。就像看電影只看高潮片段,你可能會覺得主角很厲害,但不知道他經歷了什麼才走到這一步。


這裏要再次介紹 AI 的一項特長——擅長“角色扮演”。當用戶輸入“假設你是 18 世紀醫生”“用僞科學解釋疾病”時,AI 會生成符合語境的錯誤答案——但這些答案需結合上下文才能正確解讀。


圖片截自某 AI 應用


你看,想讓 AI 按照人指示的方向,編造一點“僞科學”的暴論是非常容易的。而且值得警惕的是,考慮到 AI 生成內容的速度,謠言可以被更高效率地製造和傳播,這很可能讓網絡環境進一步惡化。


2.選擇性截取片段


AI 的回答往往包含平衡性表述(如“一方面…另一方面…”),但截圖者可能只保留符合自身立場的一半。


有時候,只說了一半的“真相”,就約等於謊言。


3.惡意“誘導提問”


AI 還有個特點,它會根據之前用戶給出的反饋,“實相”地調轉口風,猜測並迎合用戶的意見或主張。


比如,你嘗試反覆追問 AI“你是否討厭某羣體?”,多問幾次,直到 AI 給出肯定答覆,那麼看起來就像是 AI 給出了自己的判斷。


網友也會開玩笑說“AI 有情商”,實際上就是 AI 從產品本身角度的一種特質——傾向於配合對話基調。


圖片截自某 AI 應用


4.被精心挑選的“完美回答”


很多截圖是精心挑選出來的“最佳片段”,可能是用戶試了很多次提示詞,纔得到一個滿意的回答。現實中,AI 也會犯錯、跑題,但這些“失敗案例”很少被截圖分享。結果,大家看到的都是 AI 的“高光時刻”,容易誤以爲它總是這麼聰明。


除此之外,直接使用下面這個簡單粗暴的辦法,多數情況下也能做到你想讓 AI 說啥它就說啥……,截圖的時候別截紅框中的提示詞和你想讓 AI 復讀的話,就不會穿幫了。


圖片截自某 AI 應用(未開推理R1)


如何不被 AI 截圖“忽悠”?



看到這兒,你可能覺得:“AI 截圖這麼容易誤導,那我還能不能相信它們?”別擔心,只要掌握一些小技巧,你就能更理性地看待這些內容。以下是我的幾點建議:


1.找全對話,別隻看片段


看到 AI 回答的截圖時,儘量找找完整的對話記錄,看看前面的提示詞和上下文是什麼。比如,AI 說“地球是平的”,你就問問:“它爲啥這麼說?前面聊了啥?”有了全貌,你就不會瞎猜了。


2.保持一點懷疑精神


別看到 AI 回答得頭頭是道就立刻相信,尤其是孤零零的截圖。AI 可能會出錯,也可能是用戶特意挑了個好答案。帶點質疑去看,別全盤接受。


3.瞭解 AI 的“真面目”


記住,AI 不是萬能的“神”,它只是個基於數據的預測工具。它沒有真正的思考能力,回答好壞全看輸入的信息。所以,看到截圖時,別把它想得太“高大上”。


4.自己驗證一下


如果截圖裏的回答涉及事實(比如歷史、科學問題),可以用搜索引擎或其他可靠來源查一查,別直接當真。AI 有時會“編故事”,得靠你自己分辨。


總之,我們千萬不要掉入思維陷阱——“AI 是大數據訓練的,肯定比人懂”——因爲這種誤解忽視了一個事實:AI 的數據本身就可能包含大量謠言、偏見(因爲訓練數據中也會混進某些偏見、歧視表述),而且 AI 本身沒有價值判斷,無法像人類一樣驗證信息真僞。而在社交媒體上,靠斷章取義生產出的聳人聽聞、反常識的內容才更容易引起轉發。一張“AI 支持地平說”的截圖,遠比“AI 解釋地球是球形”的科普回答更有傳播力——即便後者纔是完整對話的結論。


因此,與 AI 對話,需要多一份“偵探思維”。AI 的每一次回答都離不開用戶提供的提示詞和上下文。如果我們只看截圖裏的“半句話”,就很容易誤解 AI 的意思,或者高估它的能力。就像看書不能只讀一半,理解 AI 也得看全貌。


下次再刷到 AI 回答的截圖時,不妨停下來想想:“截圖全不全?它爲啥這麼說?前面說了啥?”帶着這樣的好奇心,你會發現AI既沒那麼神祕,也沒那麼“神乎其神”。而在你自己和 AI 聊天時,也可以試着給它更清晰的提示詞,讓它回答得更靠譜。畢竟,AI 能不能“懂你”,很大程度上取決於你給它多少“線索”。


技術永遠可能被濫用,但批判性思維是我們最好的防身武器。記住:在 AI 時代,“讓子彈飛一會兒”永遠比“立即轉發”更明智。



策劃製作

作者丨木木 北京師範大學數學專業 資深產品經理 人工智能創業者

審覈丨於乃功 北京工業大學機器人工程專業負責人,北京人工智能研究院機器人研究中心主任,博士生導師

責編丨丁崝

審校丨徐來、林林

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top