完美摳圖王冰冰!實現4K60幀視訊實時摳圖 發絲根根分明

看這一頭蓬松的秀發,加上帥氣的動作,你以為是在綠幕前拍大片?

No、No、No

這其實是AI拿來視訊實時摳圖后的效果,

沒想到吧,實時視訊摳圖,現在能精細到每一根發絲。

換到alpha通道再看一眼,不用多說,德芙打錢吧(手動狗頭)。

這就是來自字節跳動實習生小哥的最新研究:實時高分辨率視訊摳圖大法,

無需任何輔助輸入,把視訊丟給這個名為RVM的AI,它分分鐘就能幫你把人像高精度摳出,將背景替換成可以任意二次加工的綠幕,

不信有這么絲滑?我們用線上Demo親自嘗試了一波,

相比之下,現在在線會議軟體里的摳圖,一旦頭發遮住臉,人就會消失……

頭發絲更是明顯糊了,

難怪看得網友直言:

不敢想象你們把這只AI塞進行動電話里的樣子,

目前,這篇論文已經入選WACV 2022,

你也可以上手一試

目前,RVM已經在GitHub上開源,并給出了兩種試玩途徑:

于是我們也趕緊上手試了試。

先來看看效果:

首先來點難度低的,

對于這種人物在畫面中基本不移動的情況,RVM可以說是表現的非常好,和人工摳圖幾乎無差別。

現在,王冰冰進入動森都毫不違和了。

于是開腦洞,也變得簡單了許多……

咳咳,言歸正傳。人物動作幅度加大會怎樣呢?

對于多人舞蹈視訊而言,RVM的表現也很nice,

即便動來動去、頭發亂甩,也沒有影響它的摳圖效果。

只有在人物出現遮擋的情況下,才會出現瑕疵,

對比前輩方法MODNet,確實有不小的進步。

不過我們也發現,如果視訊的背景較暗,就會影響RVM的發揮。

比如在這種背景光線昏暗的情況下,摳圖的效果就非常不盡人意了。

可以看到,原PO老哥的頭發完全糊了,

而且身體的邊界線也不夠清晰,

所以,如果你想自己拍視訊試玩,就一定要選擇光線充足的場景。

利用時間資訊

那么這樣的“魔法”,具體又是如何實現的?

照例,我們先來扒一扒論文~

實際上,有關視訊摳圖的算法如今已不鮮見,其中大多數采用的是將視訊中的每一幀作為獨立圖像來實現摳圖的方法。

不同與此,在這篇論文中,研究人員構建了一個循環架構,利用上了視訊的時間資訊,在時間一致性和摳圖質量上取得了明顯改進。

從上圖中可以看出,RVM的網路架構包括3個部分:

特征提取編碼器,用來提取單幀特征;

循環解碼器,用于匯總時間資訊;

深度引導濾波(DGF)模塊,用于高分辨率上采樣,

其中,循環機制的引入使得AI能夠在連續的視訊流中自我學習,從而了解到哪些資訊需要保留,哪些資訊可以遺忘掉,

具體而言,循環解碼器采用了多尺度ConvGRU來聚合時間資訊,其定義如下:

在這個編碼器-解碼器網路中,AI會完成對高分辨率視訊的下采樣,然后再使用DGF對結果進行上采樣,

除此之外,研究人員還提出了一種新的訓練策略:同時使用摳圖和語義分割目標數據集來訓練網路。

這樣做到好處在于:

首先,人像摳圖與人像分割任務密切相關,AI必須學會從語義上理解場景,才能在定位人物主體方面具備魯棒性,

其次,現有的大部分摳圖數據集只提供真實的alpha通道和前景資訊,所以必須對背景圖像進行合成,但前景和背景的光照往往不同,這就影響了合成的效果,語義分割數據集的引入可以有效防止過擬合,

最后,語義分割數據集擁有更為豐富的訓練數據,

經過這一番調教之后,RVM和前輩們比起來,有怎樣的改進?

從效果對比中就可以明顯感受到了:

另外,與MODNet相比,RVM更輕更快。

從下面這張表格中可以看出,在1080p視訊上RVM的處理速度是最快的,在512 x 288上比BGMv2略慢,在4K視訊上則比帶FGF的MODNet慢一點,研究人員分析,這是因為RVM除了alpha通道外還預判了前景,

更直觀的數據是,在英偉達GTX 1080Ti上,RVM能以76FPS的速度處理4K視訊,以104FPS的速度處理HD視訊。

一作字節跳動實習生

這篇論文是一作林山川在字節跳動實習期間完成的。

他本科、碩士均畢業于華盛頓大學部,曾先后在Adobe、Facebook等大廠實習。

2021年3月-6月,林山川在字節跳動實習,8月剛剛入職微軟,

事實上,林山川此前就曾憑借AI摳圖大法拿下CVPR 2021最佳學生論文榮譽獎,

他以一作身份發表論文《Real-Time High-Resolution Background Matting》,提出了Background Matting V2方法,

這一方法能夠以30FPS的速度處理4K視訊,以60FPS的速度處理HD視訊。

值得一提的是,Background Matting這一系列方法不止一次中了CVPR,此前,第一代Background Matting就被CVPR 2020收錄。

兩次論文的通訊作者都是華盛頓大學部副教授Ira Kemelmacher-Shlizerman,她的研究方向為計算機視覺、計算機圖形、AR/VR等。

此外,本次論文的二作為Linjie Yang,他是字節跳動的研究科學家。本科畢業于清華大學部,在香港中文大學部獲得博士學位。

對了,除了能在Colab上試用之外,你也可以在網頁版上實時感受一下這只AI的效果,

地址拿好:https://peterl1n.github.io/RobustVideoMatting/#/demo

GitHub地址:https://github.com/PeterL1n/RobustVideoMatting

論文地址:https://arxiv.org/abs/2108.11515

參考鏈接:https://www.reddit.com/r/MachineLearning/comments/pdbpmg/r_robust_highresolution_video_matting_with/

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧