智商超群!她琴棋書畫全能、進入清華 卻并不是人

最特殊,沒有之一,

她叫華智冰,沒有參加過任何升學考試,沒有拿過任何競賽名次,卻被清華大學部計算機科學與技術系知識工程實驗室,“破格錄取”。

而且就這么一位學生,還得舉三個單位(研究所、企業)之力,聯合培養。

就連實驗室主任唐杰,一開始也是再三猶豫,“是否能hold得住這個學生”。

為什么?到底什么來頭?

只因智商太超群、能力過強悍,

華智冰剛誕生,便可繪畫、作詩,

在經過一段時間的訓練后,竟還可以做曲!

或許你已經有所發覺,

華智冰,她并不是人,而是大陸首位原創虛擬學生,

沒錯,她那張逼真的臉,也是合成的,

“超級學霸”華智冰

要想深入了解華智冰,先要知道她從哪里來。

華智冰是這樣自我介紹的:我來自智源研究院、智譜AI(智譜華章科技有限公司)和小冰的人工智能團隊。

這就不難理解她名字的由來了,是從三方名字中各取了一個字。

華智冰自誕生以來,便對寫詩、作畫有著濃厚的興趣,

先來感受一下出自華智冰之手的作品。

一幅大陸水墨畫勾勒出的風景,別有一番“山水悠遠,墨韻舒爽”的風味,

此情此景之下,就著“智源大會2021”這一主題所創作出來的七言律詩,在不失本意的基礎上,也有慷慨激越之意,

而華智冰的畫風不僅限于此,山水田園油畫也是拿捏得很到位,亦可即興創作春意盎然的現代詩歌。

除了寫詩、作畫,作曲也是華智冰的拿手強項,

雖說能力至此,但學霸畢竟是學霸,好學的本質和人類還真沒有差別。

用華智冰自己的話來說就是:我深深的感受到了自己的不足,

(講真,有被打擊到……)

這也就是她來到清華大學部,來到唐杰老師實驗室繼續深造的主要原因,

除此之外,華智冰也想了解自己的身世——“我是怎么誕生的”、“我能理解我自己嗎”。

于是,在唐老師的“講解”之下,華智冰開始學習人工智能發展脈絡:

△華智冰學習人工智能的發展脈絡

而華智冰要學習還遠不止于此,作為一名具有超強學習能力的學生,她的課程安排和其他學生有著較大的區別:幾乎可以涵蓋所有領域,

至于先學什么,只是一個選擇問題而已,

華智冰的導師唐杰對此是這樣評價的:如果說她今天只有6歲,也許明年可以是12歲,她的學習速度遠遠超過我們人類。

至于何時“畢業”,唐杰希望是在華智冰22歲的時候,而且在這一過程中,最難的不是學習知識,“而是認知過程”,

那么問題來了,華智冰為什么能夠擁有如此強悍的學習和創作能力?

全球最大預訓練模型加持

與以往的虛擬人不同,華智冰的核心差異點,便是智譜AI的數據和知識的雙輪驅動引擎,

其中,數據輪要能歸納,“舉十返一”;知識輪要能根據知識進行邏輯推理,做到“舉一反三”。具體來說,雙輪驅動的數據部分,就是“悟道2.0”,

一個超大規模預訓練模型,而在知識部分,則是智譜AI搭建的一個性能穩定,規模巨大的知識圖譜,

這樣,華智冰背后的引擎,就具有了一定的認知和推理能力,也有了學習計算機專業知識的基礎,

華智冰還擁有小冰公司在虛擬人技術上,20多年的研究積累,包括計算機視覺、自然語言處理、計算機語音、人工智能創造的情感交互框架、檢索模型、生成模型、共感模型等。

這就讓她已經站在了普通虛擬人的“肩膀”之上。

但更重要的是,華智冰還擁有一項“bug級”技能加點——悟道2.0,全球最大預訓練模型,

悟道2.0的特點如下:

最大:大陸首個全球最大萬億模型,1.75萬億參數規模

通用:一統文本與視覺兩大陣地,支撐更多任務,更通用

大陸:首次在100%大陸超算上訓練萬億模型

知識:中英雙語,在共4.9T的高質量清洗數據上訓練

與其說悟道2.0是一個語言模型,更確切的說法應當是一位“全能型選手”。

正如華智冰所具備的實力一樣,悟道2.0在問答、繪畫、作詩、視訊等任務中正在逼近圖靈測試,

而且還是得到了官方認可的那種:在世界公認的9項Benchmark上獲得了第一的成績,

再究其背后,還有三個夯實的基石,保障了悟道2.0的強悍性能。

首先,是算法基石——FastMoE,

在過去的大規模預訓練模型中,MoE可以說是一個必要的條件,

它是一個在神經網路中引入若干專家網路的技術,能直接推動預訓練模型經從億級參數到萬億級參數的跨越。

但缺點也是非常明顯,需要與昂貴的硬件強關聯、強綁定,

而作為首個支持PyTorch框架的MoE系統,FastMoE便打破了分布式訓練的瓶頸,還并針對神威架構進行了優化,可在大陸超算上完成訓練。

其次,是自研的最大英文通用預訓練模型——GLM 2.0,

據了解,新一代的GLM模型以100億的參數量, 匹敵微軟170億參數的Turing-NLG模型,能在LAMABADA填空測試中表現更優。

最后,還有世界最大中文多模態生成模型——CogView。

它的參數量達到了40億,可直接從中文文字生成圖像。

并且在MS COCO文本生成圖像任務權威指標FID上,CogView還打敗OpenAI今年年初發布的130億參數的DALL·E,獲得世界第一。

有數據驅動夯實的基本功,還有強悍知識驅動的加持,這便是華智冰超于以往虛擬人的關鍵點。

悟道的野心還不止如此,

除了自身的能力,它還能為廣大開發者、技術公司,以及傳統企業提強大而通用的智能服務底層系統,僅通過模型微調實現領域模型的構建,避免不必要的重復模型訓練。

通過這種智能賦能的方式,“悟道2.0”之上將會出現一個超大規模的智能模型應用生態。在智譜AI負責的應用平臺上,已經出現了不少有趣的應用(見文末鏈接)。

比如,在故事生成專區里,有開發者做的應用可以創作時下最為流行的邏輯推理游戲——劇本殺的腳本。

劇本殺故事本身所具有的強邏輯性、環環相扣的特點,多數玩家應當是深有體會,

這些應用已經上線了,大家可以體驗一下!

以為這就完了?

不不不。

還能寫論文和策論!

只要給定標題、分論點和關鍵詞,即可生成一段邏輯嚴謹的文字片段。

歸總一句話,這個關鍵點能夠推動的,便是讓機器能像人一樣“思考”,

“煉大模型就像建一個粒子加速器”

由此延伸,隨之浮出的一個問題便是:為什么大模型如此重要?

人工智能的發展,似乎已經從“大煉模型”逐步邁向了“煉大模型”的階段。

從谷歌的BERT,到OpenAI 的 GPT-3、Dall·E,以及越來越多的大模型涌現,

一個模型的定義,不再僅局限于“算力+算法”,還要整合盡可能多的數據。

整理成式就是,模型=數據+算力+算法,

通過設計先進的算法,整合盡可能多的數據,匯聚大量算力,集約化地訓練大模型,供大量企業使用。

但與此同時,伴隨而來的爭議也十分明顯:太燒錢!

一般企業是承受不了的,而燒錢之后所能達到的效果,也是差強人意。

那要不要做?值不值得做?成為世界上一些國家、大型企業所面臨的難題。

清華大學部人工智能研究院院長、大陸科學院院士張鈸教授,則肯定表示——要做!

沒有大模型就相當于沒有粒子加速器,就不能做進一步研究。

而要做的比他們的規模要大,等于說加速器的加速度,研究人員就能看到一些別人觀察不到的現象。

這也是悟道系列在內所有大模型的科學價值,

不過,張鈸院士也強調,不要抱有太大希望,也建議不要一擁而上。

不要以為說大模型出來后什么問題就解決了,只能說有了大模型之后,還要去進一步研究,將來也不會被人卡住,

誰都想去做,實際上這其實沒有必要,少數人去做就可以了,

而作為當前全球最大的預訓練模型悟道2.0,已經在探索大模型的產業價值。

智譜AI首席科學家、清華大學部教授唐杰表示,如果分成不同階段,悟道1.0的定位是追趕世界頂尖水平,那么悟道2.0就是單點突破,從單個特性超過它,

我們發布出來一個給大家所有人都可以用的,助力這個產業變成一個開放的生態,這是悟道2.0與悟道1.0最不同的地方,

至于是什么契機創造這么一個虛擬大學部生——華智冰,唐杰坦言主要有兩方面原因。

第一,很簡單。華智冰充當一個載體,來驗證悟道2.0的有效性。

第二個原因,則是虛擬形象技術本身。

試想一下,未來10到20年,人類社會也許會有幾十億的虛擬人與我們共存,

AI也逐漸從現在的算法滿滿變成一個主體,而虛擬人形象正好是這樣一個主體的依托。

正如人的大腦意識和身體軀殼一般,

現在,華智冰也許是未來社會虛擬人的一個縮影。

通過持續學習和演化,最后成為一個有著豐富知識和與人類有很強交互能力的機器人,

然而,調皮的網友卻關心起了“人之常情”的問題來:

華智冰會談戀愛嗎?

研究人員回應道:不用擔心談戀愛,會把心思用在學習上。

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧