探“真”訪談:張文宏說“像蝗災一樣”的事,可以治!
最近,復旦大學附屬華山醫院感染科主任張文宏“被帶貨”事件很受關注。不法分子利用AI技術,將張文宏在其他場合的講話視頻篡改爲“張文宏在推廣一種蛋白棒”,部分消費者信以爲真。對此,張文宏接受媒體採訪闢謠,並表示AI生成信息像蝗災一樣,一次又一次發生,雖然向平臺投訴,但感覺難以解決問題。
AI生成的視頻真的沒辦法識別、治理嗎?申城好網民專家、中國圖象圖形學學會(CSIG)文檔圖像分析與識別專委會常務委員、上海市圖像圖形學學會(SIGA)理事、合合信息圖像算法研發總監郭豐俊給出了積極的回答:可以治!
眨眼、轉頭、站立讓假視頻露餡
對一些粗製濫造或技術不太成熟的AI視頻,觀看者通過一些細節就能識別。
例如,“張文宏帶貨”屬於非實時視頻,觀看者可以從“動作重複性”“眼球運動”“面部細節”等來發現AI生成的漏洞。目前,社交平臺上的很多數字人也有同樣的瑕疵。
具體來看,AI生成的視頻可能會頻繁重複某種動作,因爲生成模型在動作匹配上存在侷限,只學習到幾個關鍵動作,然後通過重複來呈現一段視頻。眼球運動、面部細節等是AI生成視頻最容易“露餡”的地方,AI生成人物的眨眼頻率、嘴部動作等往往不自然、不真實。
AI生成的視頻人物的眼睛、嘴部等細節都不太自然(圖源:open-sora 模型生成)
針對AI生成的實時視頻,如用AI換臉等技術生成的“某位明星給你打電話”“某位朋友向你借款”等視頻,也有識別辦法。這個時候,觀看者可以要求對方做一些大幅度的動作,包括轉頭、站起來等,再根據畫面、面部扭曲程度來判定真僞。因爲AI合成的實時視頻往往無法在短時間內實現高質量渲染,從而出現漏洞。
郭豐俊說,這些經驗不僅能幫助普通人識別AI生成視頻,而且爲相關平臺、技術研究人員提供了鑑僞方向——設計對應的大模型,實現技術鑑別。
目前,很多AI生成視頻都存在缺乏個性化表情動作、畫面抖動、違反物理規律等現象,它們屬於“連續僞造畫面的時序瑕疵”,有針對性地對鑑僞模型進行優化,就能從技術層面識別這類造假行爲。
還有,不少AI生成的視頻人物面部會有明顯瑕疵,包括內臉區域的五官與外臉區域的髮型等不一致;在針對特定名人的AI造假視頻中,這類問題更明顯。技術研發者可以有的放矢地訓練對應的鑑僞大模型,從而提高鑑僞效率。
注入“數字水印”,進行主動防禦
隨着AI技術的發展,AI生成的視頻已經越來越“精美”乃至“完美”,不要說人眼無法識別,可能連普通的鑑僞大模型都無能爲力。這個時候,還有什麼辦法來識別AI造假?
郭豐俊表示,“用技術打敗技術”已經成爲很多AI開發者的共識,目前有不少開發者發佈了深度僞造(Deepfake)專業檢測器工具。比如,深度僞造檢測平臺Reality Defender可以爲企業和政府檢測圖像、視頻、音頻、文本中的深度僞造等。
不過,這類檢測都屬於“被動防禦”,就是利用技術來判斷圖像、視頻中是否存在AI造假的情況。在此基礎上,很有必要引入“主動防禦”策略,通過在圖像和視頻中注入“半脆弱性數字水印”,從源頭預防造假行爲,併爲“被動防禦”提供更有力的技術支撐。
所謂“半脆弱性數字水印”,是指在不破壞原有圖像、視頻內容的基礎上,在人臉等重要表徵上嵌入隱藏的、肉眼不可見的水印信息。圖像或視頻一旦被編輯修改,水印就會被破壞;而使用數字水印檢測器能很容易發現圖像或視頻是否進行過編輯,以及在哪裏進行了編輯。
簡而言之,“半脆弱性的數字水印”與目前AI生成圖像、視頻時產生的“水印”不一樣——它們並不直接呈現在圖像或視頻上,而是“刻”在圖像與視頻裏,一經剪輯就會被破壞。
植入“半脆弱性數字水印”的身份證圖像生動展示了這一新技術的價值:用肉眼看,這些身份證圖像沒有任何異常;但專業檢測系統一掃描,立刻提示它們進行過編輯,並標註出編輯的部分——因爲圖像的“半脆弱性數字水印”被破壞了。
專業檢測系統可識別圖像中被篡改、僞造的部分(圖源:textin平臺,證件信息爲AI生成)
郭豐俊說,AI鑑僞是一項社會性工作,事關立法、監管、前沿研究、技術實踐等多個維度,需要更多的跨界合作。一方面,通過教育和宣傳,能提高公衆對AI造假慣用場景、識別方法的瞭解。另一方面,也要強化視頻製作者、發佈平臺的責任感,除了在視頻發佈後有“被動防禦”舉措,更要有“主動防禦”意識。如果創作者在發佈原始視頻時,就使用“半脆弱性數字水印”,或者平臺爲始發的視頻、圖像注入這一數字水印,那麼此後不僅能通過數字水印檢測器驗證視頻的真實性和完整性,還能實現溯源管理。
微信編輯:何夕
還原事實,洞悉真相。
歡迎關注,留言舉報!