算力芯片重大突破登上《科學》,上海交大提出全光大規模智能生成芯片

來源: 更新:

從一句話生成一張圖,到幾秒鐘生成一段視頻,生成式人工智能正在走向更復雜的真實世界應用。模型越大、分辨率越高、生成內容越豐富,對算力與能耗的需求就越驚人,後摩爾定律時代,面向未來的研究焦點轉向光電計算等“下一代算力芯片”。如何讓下一代算力光芯片能運行復雜生成模型,成爲全球智能計算領域公認的難題。

上海交通大學集成電路學院陳一彤課題組在新一代算力光芯片方向取得重大突破,首次實現了支持大規模語義視覺生成模型的全光計算芯片LightGen。相關研究以《大規模智能語義視覺生成全光芯片》爲題,發表於國際頂級學術期刊《科學》上,並同步被《科學》官方選爲高光論文重點報道。

所謂“光計算”,可以通俗理解爲:不是讓電子在晶體管中運行,而是讓光在芯片中傳播,用光場的變化完成計算。光天然具備高速和並行的優勢,因此長期被視爲突破算力與能耗瓶頸的重要方向。然而,要把光計算真正用到生成式AI上,並非這麼簡單:生成模型往往規模更大,還需要在不同維度之間不斷變換;如果芯片規模較小,則不得不頻繁在光與電之間級聯或複用,速度優勢會被延遲與能耗迅速抵消。因此,全光計算,就顯得更爲重要和困難。

圖1 大規模全光生成計算芯片LightGen

LightGen之所以能夠實現驚人的性能飛躍,在於它在單枚芯片上同時突破了三項領域公認的關鍵瓶頸:單片上百萬級光學神經元集成、全光維度轉換,不依賴真值的光學生成模型訓練算法。這三項中的任意一項單獨突破都足以構成重要進展,而LightGen將它們同時實現,使得面向大規模生成任務的全光端到端實現成爲可能。

更重要的是,LightGen展示的並不是電輔助光去做生成,而是讓全光芯片完整實現“輸入—理解—語義操控—生成”的閉環:輸入圖像進入芯片後,系統能夠提取與表徵語義信息,並在語義操控下生成全新的媒體數據,實現讓光“理解”和“認知”語義。論文實驗驗證,LightGen可完成高分辨率(≥512×512)圖像語義生成、3D生成(NeRF)、高清視頻生成及語義調控,同時支持去噪、局部與全局特徵遷移等多項大規模生成式任務。

圖2 LightGen生成的採樣圖像示例

在性能評估上,LightGen採用了極嚴格的算力評價標準:在實現與電芯片上運行的Stable Diffusion、NeRF、Style Injection Diffusion等前沿電子神經網絡相仿生成質量的前提下,直接對端到端耗時與耗能進行測量。實測表明,即便採用較滯後性能的輸入設備,LightGen仍可取得相比頂尖數字芯片2個和2個數量級的算力和能效提升。而如果採用前沿設備使得信號輸入頻率不是瓶頸的情況下,LightGen理論可實現算力提升7個數量級、能效提升8個數量級的性能躍升。這不僅體現了在不犧牲生成效果的情況下,用全光方案替換現有方案可能帶來的巨大增益,也從側面印證了大規模集成、全光維度變換與無真值訓練等難點被系統性解決後,全光片上承載大規模生成網絡的現實意義。

該文也同步被《科學》官方選爲高光論文重點報道。文中提到,生成式AI正加速融入生產生活,要讓“下一代算力芯片”在現代人工智能社會中真正實用,勢在必行的是研發能夠直接執行真實世界所需前沿任務的芯片——尤其是大規模生成模型這類對端到端時延與能耗極高的任務。面向這一目標,LightGen爲新一代算力芯片真正助力前沿人工智能開闢了新路徑,也爲探索更高速、更高能效的生成式智能計算提供了新的研究方向。

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top