這個AI試衣功能,治好了我的衝動消費
每一次網購衣服,都是對自我認知的一次刷新。這不是最近 618 大促嗎,再次印證了那句“老話”——看買家秀以爲是東方不敗,到手一穿像衰神二代。
更別提尺碼合不合適了。誰知道我鼓起多大勇氣給客服報上身高體重,可每每都得不到準確建議,“親,還得偏大一丟丟哦。”算了算了,再多買件XL的吧......
最煩的是退貨。換個角度想想,店家也心累啊。七天無理由退貨政策,讓許多買家鑽空子,把淘寶店當試衣間,拍完照就退貨。反而是我們這些永遠網購不到合適衣服的人,生怕被店家拉黑。
AI 這不是越來越能耐了嗎,我之前在 GitHub 玩過幾個“AI 換裝”工具。上傳一張自己的照片和黃裙子圖片,靜待幾秒,滿懷欣喜地得到了一張“黃色大菠蘿”......
不過最近我在 Google I/O 上看到,Google 針對電商購物,推出了一個“Try On(試穿)”AI 功能。
效果終於有點 AI 量體裁縫的意思了。
“剁手黨”福音
衣服版型就像菜譜,身材就像食材。模特圖好看,線條順滑,垂感在線,那是因爲按着菜譜買對了食材。
可是普通人高矮胖瘦,身材各異,是直角肩還是溜肩,胸背寬還是窄、腰線高不高,這些身體細節都會影響衣服穿出來的效果。
同樣一套衣服,瘦人穿上顯清爽,壯人顯厚重。
所以最讓我驚豔的是這個功能會把衣服版型穿在你身上合不合適展示出來。
你們猜以下這組圖片,哪張是實拍,哪張是AI合成的?
答案:都是合成的。
深色顯瘦,白色顯胖,啤酒肚的鼓起,手揣兜帶來的衣服下襬褶皺,都很自然。
這麼說吧,感覺我能用它生成的照片去小紅書上做優衣庫穿搭博主了。
How To Geek 的記者在 Try On 後,嚇了一跳,他說“我上傳的圖片是穿長褲,結果試穿短褲,居然把我的小腿露出來了。我發誓,和我自己小腿一模一樣,說實話,讓我有點兒怕。”
左:試穿後 右:原圖|圖源:How To Geek
“這是我第一次覺得 AI 試衣服不是個噱頭。”來自科技博主 @MKBHD。
可惜 Try On 這功能纔開放內測,僅限於美區 IP+美區 Google 賬戶去申請 SearchLabs 後解鎖。
它生成的實際效果不同於之前“換裝貼圖”的工具,原因很簡單,P 圖是現有圖層之間的堆疊,而 Try On 是從頭生成一張全新圖層。
AI 高定裁縫
我扒了扒 Try On 背後的技術細節,
第一步,人像識別:
首先,依賴高精度分割模型建立一個準確的“人像輪廓模型”,其多尺度語義分割技術(multi-scale semantic segmentation)來識別髮絲、耳朵、手指間隙、腿部走向、服裝遮擋區......所以哪怕你披頭散髮,戴着耳環、手持手機,AI 都會測算出邊界,保留在後續生成裏。
第二步,生成式AI:
Try On 對比其他類似工具生成的模擬圖除了真實,還有一點,是立體的。不僅能看到正面,還能看到側面、微微轉身的角度。
這說明,光是把底圖裏的人“摳”出來還不夠。
AI 還得分析人的肩寬、胸圍、腰圍、體態、站姿,照片光線射入角度……做人像建模(body modeling),這部分基於 Google 自研的 Vision AI 模型和 pose estimation 模型。
動補也是這個原理|圖源:Google
這就是爲什麼沒露小腿,AI 也能根據對身材的建模,算出來“小腿應該長啥樣”。
同時,模型接收服飾圖片中的信息,比如布料是什麼質感、衣服有多少層、版型修身還是oversize......
通過交叉注意力機制,把兩張圖片信息融合,用擴散模型生成身着新衣的圖片。
我們知道知識圖譜是傳統谷歌搜索的“大腦”,存儲着用來回答用戶查詢的所有信息。購物圖譜(Shopping Graph)是其中關於購物意圖和產品信息提供的一個分支。
基於 Shopping Graph 中海量數據庫,訓練模型識別在各種體型、膚色和姿勢下的穿着效果,從而提高了模型的泛化能力。
不同身材的試穿圖作爲基礎數據|圖源:Google
但試妝到這一步還是略爲“粗糙”,好似你在服裝店,拿起衣服站在鏡子前比劃。穿上到底合不合身呢?
第三步:圖像合成
Google 用了圖像對齊和 pose-aware warping 網絡,讓服裝與人體姿勢對齊。比如你插兜、彎腰、舉手,AI 就可以讓衣服在這些動作下自然變形,比如膝蓋處鼓起一點,衣角飄起來,舉手肩膀處有褶皺。
先把本來的衣服建模,再通過 3D 渲染「換皮」|圖源:Google
一些“難點區域”會着重處理,交叉注意力機制會判斷披肩長髮和衣服如何自然銜接,“頭髮和領子誰在前”。
再比如,底圖中人身着深色內搭,想試穿一件半透明防曬服,“動態分層貼圖”技術會自動調整衣服的視覺層級,確保防曬服圖層在視覺上正確地覆蓋在襯衫圖層之上,保證光影、紋理、透明度都協調。
還有光照匹配,讓新衣光感匹配底圖中的光源。
不過現在這技術還“挑”衣服,遠沒到萬能衣櫃的程度。
目前它最擅長的是貼身、版型明確的上裝,比如 T 恤、襯衫、針織衫,底圖中人物也最好是正面站直、手別亂動、光線別太飄。這時候 AI 才能安心建模,不出紕漏。
版型過於鬆垮複雜,衣服疊穿好幾件,那 AI 就容易抓瞎。以及還不支持帽子、眼鏡、鞋子這些配飾,這不難理解,這些配飾的遮擋處理起來複雜。
動態試衣也還不支持——還沒法像《模擬人生》試衣間裏似的,轉個圈,走兩步,試個坐姿效果。
這技術在 1995 年電影裏就出現了?|圖源:《獨領風騷》
比網購真實,比逛街舒服
更重要的是,Try On 還可能催生一整套“服裝體驗鏈”。
比如,你在試穿一件古巴領襯衫時,它會給你搭配一條細細的金色項鍊、一雙白色球鞋加一塊皮質腕錶。這不一套“熱帶 OOTD”就有了。
再往前看,靜態的試衣還能發展成動態的,帶上頭顯進入虛擬試衣間,直接顛覆網購體驗。
要不說,這也是對商家的利好。退貨率,本來就是服裝電商最頭疼的問題,一件衣服從出庫到回倉,來回折騰物流、包裝、人力成本,還影響商品週轉效率。
Google 還演示了一個場景。看起來 AI 對電商的重塑,絕不會只有試衣服這麼簡單。
現在,我們在電商購物時還是得在搜索框裏輸入“羊絨地毯”或是“客廳簡約風地毯”等關鍵詞。
但在未來,你可以寫“我有一個淺灰色的沙發,想買一個搭配的地毯,能讓房間看起來更明亮。我有四個小孩,我們喜歡一起在沙發附近玩樂,但家裏有貓,不想讓貓把地毯抓花。”這類非常具體的需求,AI 就可以在成千上萬個商品裏找到最符合你需求的那幾個。
左側是用戶提的特別明確地需求,右側是推薦產品|圖源:Google
推薦算法的邏輯是“猜你想要”,而 AI 最終目的,是精確篩選,幫人節省時間,提升效率。
腦洞開完還得迴歸現實,目前這項新功能已經有技術濫用的苗頭了。
有人給美國副總統 J·D·萬斯穿女裝,讓“紅脖子“變”女裝大佬”。還有人拿未成年人照片去換上暴露的服裝。
畫風是這樣式的丨大西洋月刊
也就是說,不需經過本人同意,就可以拿着我的照片,給我“套上”一件不想穿的衣服。在穿衣自由的時代,穿衣反而不“自”由了。想想這還挺可怕的......
作者:糕級凍霧
編輯:沈知涵
![]()
本文來自果殼,未經授權不得轉載.
如有需要請聯繫[email protected]