北大95后女學神回來了!被贊“AI蘿莉”:顏值實力都太能打

曾有一位北大碩士生,在校期間一次性在國際頂會ACL中標8篇論文,其中2篇一作,還登上了知乎熱搜。

在那次熱搜之后,這位“論文大戶”似乎逐漸銷聲匿跡。

今天,她帶著阿里達摩院深度語言模型體系AliceMind回來了,

這位被外界稱為“AI蘿莉”的羅福莉,就負責這次AliceMind中7個模型的開源。

她的經歷說起來有點“傳奇”,

上大學部之前沒怎么接觸過電腦,卻誤打誤撞進了北師大計算機專業。

剛入學時因沒有基礎成績墊底,靠著努力躍升到前一、二名。

大三時進入北大語言計算實驗室實習,選擇了NLP作為自己的科研方向,在3個月內自學Python并投出一篇頂會論文(非一作)。

保研進入北大,碩士兩年間在國際頂會上發表了超過20篇論文,

但她出人意料地沒有選擇繼續讀博,而是在2020年畢業之后就加入了阿里達摩院,想做點實在的研究。

進入工業界這兩年,她發的論文明顯減少了。

在讀書的時候,周圍的評價機制都是非常在意你的論文數量,但是到工業界,我現在已經不追求數量了,主要是追求做這個工作是不是真的有落地價值,是不是在這個領域有一些影響力,

她在達摩院主導開發了跨語言預訓練模型VECO,成為AliceMind八大模型之一。這次AliceMind集體開源,她挑起了大梁,

簡單的才是最贊的

羅福莉在業界工作這一年,與在學術界時相比心態上有了很大的轉變:

在學校的時候總是追求提出一個很復雜的模型,大家看不懂,論文評審人也看不懂,但是到工業界的時候就會發現一眼就能看懂并且還有效的模型才是最贊的。

這也是她所在的達摩院深度語言模型團隊的思路,他們打造的AliceMind八大模型先后登頂了GLUE、CLUE、XTREME、VQA Challenge、DocVQA、MS MARCO六大NLP權威榜單。

AliceMind中Alice的含義其實很簡單,就是Alibaba’s Collection of Encoder-decoders。

其中的模型也像這個名字一樣樸實,都是從實際業務需要出發,在Encoder-decoder的基礎上進行創新和改進。

通用語言模型StructBERT,在BERT的基礎上增加了詞級別和句級別的兩個新目標函數,相當于讓AI掌握了“漢字序順不響影讀閱”這個能力,

這是因為團隊在阿里的業務中發現,用戶在電商、娛樂產品等輕松的使用場景時,經常出現語法、語序不正確等現象,

這就需要讓語言模型在面對語序錯亂、語法不規范的詞句時,仍能準確理解并給出正確的表達和回應,

AliceMind剛剛還再次登頂了多模態權威榜單VQA Challenge 2021。

VQA Challenge的比賽任務類似看圖問答,給定一張圖像和關于圖像的自然語言問題,AI需要提供準確的自然語言答案,

對此,AliceMind的多模態模型StructVBERT,在通用模型StructBERT的基礎上,同時引入文本和圖像模態,

利用更高效的視覺特征和創新的交叉注意力機制,在統一的多模態語義空間進行聯合建模,

除了跨模態,羅福莉主導的跨語言模型VECO也被頂會ACL2021錄用,

VECO中也引入了交叉注意力機制,改變了以往跨語言資訊在隱藏層中自動建模的不穩定性,而是“顯式”地完成。

VECO的另一項創新是在預訓練的過程中,充分學習用于語言理解(NLU)和生成(NLG)任務,并讓二者互相學習提高彼此,

如今羅福莉再回顧VECO這個工作,也有一些感慨:

如果是兩年前還在學校的我,會覺得這好簡單,我可以加上很多的花式技巧,但是到了工業界要考慮到架構在不同業務場景下的通用性,只好犧牲一些復雜有趣的模型設計,

AliceMind中的生成式語言模型PALM,則是將預訓練目標從重構輸入文本,改成了預測后續文本,

這樣一個改動就促使模型對輸入文本進行更深入地理解,在問答生成、文本復述、回復生成、文本摘要等任務上都取得了更好的效果。

還有結構化語言模型StructuralLM、機器閱讀理解模型UED和知識驅動的語言模型LatticeBERT,都在各自的領域取得了明顯地優勢,

除了此次開源的7個模型,AliceMind中還包括了超大規模中文理解和生成統一模型PLUG,

AliceMind中的模型,看起來有一個共同特點,就是擅長”跨界“,

從跨語言、跨模態到語言理解和生成的統一,都是基于Transformer架構將不同的輸入在一個更大的編碼空間上統一建模。

羅福莉補充道:

AliceMind的這種將Transformer作為統一模型架構的解決方案已經比較成熟,但要做到更好“跨界”,接下來努力的方向是解決不同類型或粒度輸入的深度融合和匹配問題,

從基礎模型擴展出能力多樣的模型,再把它們在實際業務中結合使用,讓AliceMind成了業界能力最全面的深度語言模型體系。

那么AliceMind都用到了哪些地方?

落地是個系統化的工程

AliceMind已經上線到阿里內部的NLP平臺,可以提供給不同部門的業務使用。

在官方網站上也提供了Demo,比如這個基于PLUG模型的語言生成模塊。

輸入紅樓夢選段:

就能生成一段續寫:

而像這樣可供大家試玩的Demo還有幾十個。

不過這些官網上的服務并非都是由AliceMind提供技術支持,很多都只是這一體系啟發下的小模型。

那么這次開源的幾大核心目前都在哪里打工呢?

應用最廣泛的,就是電商,

尤其是阿里巴巴國際事業部(ICBU)或像速賣通(AliExpress)這樣擁有跨境電商業務的部門,就是多語言模型VECO的直接受益者,

VECO是AliceMind體系中的8大模型之一,用于多語言理解和跨語種的文本嵌入、分類,掌握了100多種語言。

阿里內部基于AliceMind的翻譯平臺日調用量約10億次,創造了數億美元的國際跨境貿易和其他國際業務商業價值。

就像達摩院深度語言模型團隊負責人黃松芳所說“語言模型落地是個系統化的工程”:

語言模型從訓練、微調到蒸餾、壓縮,到整個部署上線都在平臺上面完成,上線之后跟業務方的系統連在一起,能夠直接嵌到他們的業務邏輯、業務系統里面去。

我們更熟悉的淘寶拍照識圖、天貓精靈智能音箱中也有AliceMind的貢獻,

目前,AliceMind已經在阿里內部數十個核心業務落地,日均調用50億次,活躍場景超過200個。

在阿里之外,醫療領域尤其是癌癥治療上,AliceMind同樣出力不少。

作為一個具有自主學習能力的深度學習語言模型體系,AliceMind應用在搜索引擎上時會有一個重排機制,

以具體某一類醫學文獻為目標,AliceMind在粗排先撈了一批相關文本后,還會再次結合文章類型、引用圖譜等資訊,進行不斷地重排,

同時將抽取獲得的資訊與已知的結構化知識做融合,構建知識體系,最終得到最高質量的臨床文獻。

在最近16支世界知名團隊參加的精準醫學國際評測中,憑借這一精準醫學搜索引擎,阿里團隊在兩項臨床證據質量評估上均取得第一:

這樣高精度的專業醫學搜索引擎能夠在疾病治療時,為臨床醫生做提供高質量的臨床決策輔助。

法律領域也有AliceMind的出沒。

浙江省高級人民法院就與達摩院合作,實現了從立案到裁判文書生成的全流程智能化審判系統,

而在這一試點單位中,AI對法官工作量的分擔使當庭宣判率提升至90%,結案時間也從平均40天縮短到50分鐘。

現在,基于AliceMind的AliNLP平臺日均累計調用量超過數萬億次,每天有超過每天有超過1000個業務方使用,

電商、教育、醫療、能源,通信、法律、內容搜索、城市大腦……越來越多的領域在AliceMind的加入下變得更加便利,更加智能。

開源之后要做什么?

現在,預訓練語言模型目前在NLP領域以及整個學習界都非常熱門,超大規模參數的模型已成為一種趨勢。

對此,達摩院深度語言模型團隊的負責人,也是AliceMind的總負責人黃松芳表示:

我們這邊其實不會一味地追求大,而是非常強調它的落地。

一個語言模型從研究開發到投入實際應用,不是一家企業就能做到的,

還需要整個社區的開發者都參與,才有可能將學術論文中的公式算法用到大家的生活便利上。

達摩院希望通過開源,能降低業界研究和創新應用的門檻,使語言AI進入大工業時代。

下一步,AliceMind打算與語言學、神經科學等跨學科的單位加強合作,將語言AI擴展到更大的應用中。

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧