新特效火爆抖音!各路神仙齊唱《螞蟻呀嘿》

當互聯網大佬們集體唱歌,會擦出怎樣的火花?

現在,火爆抖音的AI特效,一鍵就可以實現夢幻聯動,

瞧!馬云、馬化騰、馬斯克等大佬們,正在集體演唱神曲《螞蟻呀嘿》,

不光演唱,表情也是十分的賣力(傲嬌的小眼神很是傳神啊),

完全看不出是被迫的樣子呢。(手動狗頭)

效果之魔性,引得網友直呼:

短短的幾秒,要用一生去治愈…..

還有網友表示,最近是咋滴啦?!一打開抖音,好像捅了螞蟻窩。

大家一起《螞蟻呀嘿》!

這款AI特效,只需要一張照片,就可以火速讓anyone“螞蟻呀嘿”。

正因為這么便捷,果不其然,馬上成為了抖音網友們的“新寵”。

各路名人開始搞起!

首先登場的是四大天王:劉德華、張學友、郭富城和黎明!

或許天王們太久沒有同框過了,網友們用這種方式將他們“召集”在一起,也是別有一番風味,

“永不過時”的《還珠格格》,也趕上了這趟潮流列車。

王者峽谷里的英雄們,網友們也是沒有放過。

不得不感慨二次元的顏值,不論怎么惡搞、變形,還是能保持俊美的樣子(程咬金除外),

除了上面這種九宮格模式外,高端的操作還可以實現集體同框,

于是,“愛玩”的德云社就以這種方式亮相了,

不知道是不是因為特效太過逼真、還是脖子有點短(不是),竟然還有人以為是真的,

第一眼我以為是特效,

當然,此等名場面,怎么少得了量子位本位!集體《螞蟻呀嘿》表演,隆重登場!

OK,各種效果、各種玩法已經展示完畢。

接下來,是時候上手實操了!

如何制作專屬的“螞蟻呀嘿”?

首先需要準備三個工具:

Avatarify、任意一款加速器APP、剪映(可有可無)。

第一步,打開加速器,啟動加速模式,

第二步,打開這款軟體Avatarify,選擇一張照片即可進入選擇特效頁面(臉正一點食用效果更佳),

然后向下拉,找到布拉德·皮特的特效即可,

是不是很簡單?

不過有點遺憾的是,暫時只有蘋果行動電話才OK(安卓用戶淚目)。

一個人演唱“螞蟻呀嘿”的效果就已經實現了。

如果想要多人演唱、九宮格那樣式兒的,那就需要剪映來加持了,這里就不詳細展開了,

當然,這款軟體除了《螞蟻呀嘿》之外,還有很多模板可選,

例如,李開復老師便友情上演了一首《Only You》。

隨著這波潮流,Avatarify及其他相關軟體,已經超過微信、拼多多、抖音的下載量,登頂蘋果App Store免費榜“前三甲”!

什么原理?

那么問題來了。

AI,是如何搞定各位大佬來唱歌的呢?

讓一張照片動起來,人臉跟著音樂一起擠眉弄眼,需要一個叫做一階運動模型 (First Order Motion Model)來搞定,

技術原理借鑒了去年義大利特倫托大學部的一項研究,入選了NIPS 2019。

當時的例子是這樣的。

以川建國同志為參考,來自《冰與火之歌》的演員照片瞬間做到了神同步。

不光是臉動,一個模特換pose、奔騰的馬也都不在話下。

模型框架主要由2部分構成,運動估計模塊和圖像生成模塊。

運動估計模塊的目的,是預測一個密集的運動場,研究人員假設存在一個抽象的參考框架,并且獨立估計兩個變換,分別是「從參考到源」和「從參考到驅動」,這樣就能夠獨立處理源幀和驅動幀,

而這兩種變換,通過使用以自監督方式學習的關鍵點來獲得,利用局部仿射變換對每個關鍵點附近的運動進行建模,

隨后,密集運動網路結合局部近似得到密集運動場。

這個網路還能輸出遮擋的mask,指示哪些圖像的驅動部分可以通過源圖像的扭曲(warping)來重建,哪些部分應該被繪制(根據上下文推斷),

在生成模塊按照驅動視訊中,提供的源對象移動的圖像進行渲染。

此處,研究人員還使用一個生成器網路,根據密集的運動對源圖像進行扭曲,并對源圖像中被遮擋的圖像部分進行著色,

訓練階段,研究人員采用了大量的視訊序列集合來訓練模型,這當中包含了相同類別的對象,

隨后在測試階段,研究人員將模型應用于由源圖像和驅動視訊的每一幀組成的對,并執行源對象的圖像動畫。

最終在質量評估中,這一方法在所有基準上都明顯優于當前先進技術,

此前類似研究也很火爆

這種AI特效能夠如此火爆,甚至“破圈”,讓大家玩得不亦樂乎,最主要的原因是方便——不需要任何編程知識,便可完成,

但在此之前,其實這種AI特效在圈里也是有火過,但都需要一定的計算機能力才可以實現。

比如,一張名人照片和一個你說話的視訊,就可以讓夢露學你說話,

還有,印度程式員開發的實時動畫特效。你一動,蒙娜麗莎跟著你一起動~

那么現在,你被“螞蟻呀嘿”洗腦了嗎?

快去體驗下吧。

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧