當互聯網大佬們集體唱歌,會擦出怎樣的火花?
現在,火爆抖音的AI特效,一鍵就可以實現夢幻聯動,
瞧!馬云、馬化騰、馬斯克等大佬們,正在集體演唱神曲《螞蟻呀嘿》,
不光演唱,表情也是十分的賣力(傲嬌的小眼神很是傳神啊),
完全看不出是被迫的樣子呢。(手動狗頭)
效果之魔性,引得網友直呼:
短短的幾秒,要用一生去治愈…..
還有網友表示,最近是咋滴啦?!一打開抖音,好像捅了螞蟻窩。
大家一起《螞蟻呀嘿》!
這款AI特效,只需要一張照片,就可以火速讓anyone“螞蟻呀嘿”。
正因為這么便捷,果不其然,馬上成為了抖音網友們的“新寵”。
各路名人開始搞起!
首先登場的是四大天王:劉德華、張學友、郭富城和黎明!
或許天王們太久沒有同框過了,網友們用這種方式將他們“召集”在一起,也是別有一番風味,
“永不過時”的《還珠格格》,也趕上了這趟潮流列車。
王者峽谷里的英雄們,網友們也是沒有放過。
不得不感慨二次元的顏值,不論怎么惡搞、變形,還是能保持俊美的樣子(程咬金除外),
除了上面這種九宮格模式外,高端的操作還可以實現集體同框,
于是,“愛玩”的德云社就以這種方式亮相了,
不知道是不是因為特效太過逼真、還是脖子有點短(不是),竟然還有人以為是真的,
第一眼我以為是特效,
當然,此等名場面,怎么少得了量子位本位!集體《螞蟻呀嘿》表演,隆重登場!
OK,各種效果、各種玩法已經展示完畢。
接下來,是時候上手實操了!
如何制作專屬的“螞蟻呀嘿”?
首先需要準備三個工具:
Avatarify、任意一款加速器APP、剪映(可有可無)。
第一步,打開加速器,啟動加速模式,
第二步,打開這款軟體Avatarify,選擇一張照片即可進入選擇特效頁面(臉正一點食用效果更佳),
然后向下拉,找到布拉德·皮特的特效即可,
是不是很簡單?
不過有點遺憾的是,暫時只有蘋果行動電話才OK(安卓用戶淚目)。
一個人演唱“螞蟻呀嘿”的效果就已經實現了。
如果想要多人演唱、九宮格那樣式兒的,那就需要剪映來加持了,這里就不詳細展開了,
當然,這款軟體除了《螞蟻呀嘿》之外,還有很多模板可選,
例如,李開復老師便友情上演了一首《Only You》。
隨著這波潮流,Avatarify及其他相關軟體,已經超過微信、拼多多、抖音的下載量,登頂蘋果App Store免費榜“前三甲”!
什么原理?
那么問題來了。
AI,是如何搞定各位大佬來唱歌的呢?
讓一張照片動起來,人臉跟著音樂一起擠眉弄眼,需要一個叫做一階運動模型 (First Order Motion Model)來搞定,
技術原理借鑒了去年義大利特倫托大學部的一項研究,入選了NIPS 2019。
當時的例子是這樣的。
以川建國同志為參考,來自《冰與火之歌》的演員照片瞬間做到了神同步。
不光是臉動,一個模特換pose、奔騰的馬也都不在話下。
模型框架主要由2部分構成,運動估計模塊和圖像生成模塊。
運動估計模塊的目的,是預測一個密集的運動場,研究人員假設存在一個抽象的參考框架,并且獨立估計兩個變換,分別是「從參考到源」和「從參考到驅動」,這樣就能夠獨立處理源幀和驅動幀,
而這兩種變換,通過使用以自監督方式學習的關鍵點來獲得,利用局部仿射變換對每個關鍵點附近的運動進行建模,
隨后,密集運動網路結合局部近似得到密集運動場。
這個網路還能輸出遮擋的mask,指示哪些圖像的驅動部分可以通過源圖像的扭曲(warping)來重建,哪些部分應該被繪制(根據上下文推斷),
在生成模塊按照驅動視訊中,提供的源對象移動的圖像進行渲染。
此處,研究人員還使用一個生成器網路,根據密集的運動對源圖像進行扭曲,并對源圖像中被遮擋的圖像部分進行著色,
訓練階段,研究人員采用了大量的視訊序列集合來訓練模型,這當中包含了相同類別的對象,
隨后在測試階段,研究人員將模型應用于由源圖像和驅動視訊的每一幀組成的對,并執行源對象的圖像動畫。
最終在質量評估中,這一方法在所有基準上都明顯優于當前先進技術,
此前類似研究也很火爆
這種AI特效能夠如此火爆,甚至“破圈”,讓大家玩得不亦樂乎,最主要的原因是方便——不需要任何編程知識,便可完成,
但在此之前,其實這種AI特效在圈里也是有火過,但都需要一定的計算機能力才可以實現。
比如,一張名人照片和一個你說話的視訊,就可以讓夢露學你說話,
還有,印度程式員開發的實時動畫特效。你一動,蒙娜麗莎跟著你一起動~
那么現在,你被“螞蟻呀嘿”洗腦了嗎?
快去體驗下吧。