被寄予厚望的深度學習,是否會讓人工智能陷入又一輪 AI 寒冬?
人工智能存在于許多我們每天與之交互的技術中,比如最常見的語音助手和個性化推薦,以及不斷成熟的自動駕駛。從去年到現在,AI 領域更是好消息不斷,OpenAI 的GPT-3從自然語言處理衍生出了畫畫、敲代碼等能力,DeepMind 推出“進階版 AlphaGo”——MuZero,它在下棋和游戲前完全不知道游戲規則,完全通過自己摸索贏得棋局。一時間,“AI 將替代人類”的聲音不絕于耳。
但另一面,人類豐滿的 AI 夢,也正在撞上骨感的現實,近期,IBM 旗下的 Watson Health 被傳出將甩手賣掉,這個曾想替人類解決腫瘤治療的 AI 部門 6 年來從未盈利。更致命的是,Watson Health 的診斷精度和專家結果只有 30% 的重合。
看向大陸,“AI 四小龍”中的商湯科技和曠視科技,時不時傳出計劃上市的消息,但似乎都中了“上市難”的魔咒。曠視科技的創始人印奇在去年 7 月,曾對媒體表示 AI 的快速爆發期發生在五六年前,現在正處于“死亡之谷”的泡沫期,繁榮表象之外的冰冷現實,都能讓人想到“人工智能的寒冬”:與 AI 有關的研究或其他項目難以獲得資金,人才和公司停滯不前,
清華大學部人工智能研究院院長張鈸曾表示,行業崇尚深度學習,但它本身的“缺陷”決定了其應用的空間被局限在特定的領域——大部分都集中在圖像識別、語音識別。而目前深度學習似乎已經到了瓶頸期,就算財力和算力仍在不斷投入,但深度學習的回報率卻沒有相應的增長,
“目前基于深度學習的人工智能在技術上已經觸及天花板,此前由這一技術路線帶來的奇跡在 AlphaGo 獲勝后未再出現,而且估計未來也很難繼續大量出現,”張鈸說,
被寄予厚望的深度學習,是否會讓人工智能陷入又一輪寒冬?“在每一次人工智能寒冬到來之前,科學家都會夸大他們的研究的潛力,僅僅說他們的算法擅長某一項任務還不夠,他們恨不得說 AI 能解決所有事。”長期研究數據科學和 AI 的作者 Thomas Nield 說道,但真正的通用人工智能,離我們似乎還很遙遠,
深度學習是什么?
就在 AI 慢慢沉寂,變成“隱學”的時候,Geoffrey Hinton、Yoshua Bengio 和 Yann LeCon 三位學者默默開始了 AI 的一個重要分支——神經網路——的研究。
神經網路通常被比喻成一塊有很多層的三明治,每層都有人工神經元,這些神經元在興奮時會把信號傳遞給相連的另一個神經元
簡單來說,神經網路就是一層層的數字,這些數字又被稱為“神經元”,之所以這樣命名,是因為科學家認為這些數字相互聯系,傳遞信號,就像大腦里的神經元通過突觸來傳遞神經刺激一樣。而神經網路里的每一層數字都通過一些約定的數學規則從上一層的數字計算得到。
而“深度學習”的概念源于神經網路的研究,是研究神經網路的學問,這里的“深度”,指的就是神經網路含有無數隱層,深不可測,
機器要模擬人類行為,要先獲取數據,然后經過預處理、特征提取、特征選擇,再到推理、預測或識別。其中最關鍵的,就是中間的三個步驟,同時也是系統中最耗費計算的部分。在現實中,一般都是靠人工提取特征,而深度學習的思路是自動學習特征,
深度學習模型一般由輸入層,隱層和輸出層構成。基本思想是:上一層的輸出作為下一層的輸入,來實現對輸入資訊的分級表達,進而通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發現數據的分布式特征。也就是說,機器學會“抽象思考”了,
上述三位 AI 泰斗堅持著自己的學術方向,把神經網路推廣到了更多的領域,比如計算機視覺、自然語言處理等等。終于在幾十年后,他們等來了屬于深度學習的時代,互聯網和移動端的興起讓海量的數據唾手可得,而計算機硬件在人類一次又一次挑戰著納米世界的極限中,順著摩爾的預言一路狂奔。2012 年,深度學習暴得大名,因為 Geoffrey Hinton 基于卷積神經網路的 AlexNet 以驚人優勢贏下 ImageNet 視覺識別挑戰賽。另外在這個實驗中,人們發現,只有圖像的樣本量夠大,隱層夠多,識別率就能大幅提高,這極大地鼓舞了學界和企業。
數據越多,越智能?
OpenAI 最新的自然語言處理模型 GPT-3,幾乎是把整個互聯網的浩瀚內容全部讀完了。它總共閱讀了大約 5000 億次,模型大概有 1750 億參數,系統有上萬個 CPU/GPU,它們 24 小時不間斷地“閱讀”任何領域的資訊,半個月讀完了整個互聯網的內容。猛灌數據量,是這個 AI 模型的“暴力”所在,
但 GPT-3 也并不能因此變得完全像人,比如,它對不符合人類常理的“偽問題”也會應答,這恰恰證明它并不理解問題本身,前 Uber 人工智能實驗室的負責人 Gary Marcus 就曾對深度學習多次潑冷水:“人類可以根據明確的規律學習,比如學會一元二次方程的三種形式以后就可以用來解各種題目;見過了京巴、柴犬之后,再見到德牧就知道它也是一種狗,然而深度學習不是這樣的,‘越多的數據 = 越好的模型表現’,就是深度學習的基本規律,它沒有能力從字面上給出的規律學習,”
“深度學習是尋找那些重復出現的模式,因此重復多了就被認為是規律(真理),因此謊言重復一千遍就被認為真理,所以為什么大數據有時會做出非常荒唐的結果,因為不管對不對,只要重復多了它就會按照這個規律走,就是誰說多了就是誰,”張鈸院士也表示深度學習“沒有那么玄”。
由于它不能真正理解知識,“深度學習學到的知識并不深入,而且很難遷移,”Marcus 說道。而 AI 系統動輒擁有千億參數,儼然就是一個黑匣子一般的謎。深度學習的不透明性將引致 AI 偏見等一系列問題,最主要的是,AI 還是要為人所用,“你要它做決策,你不理解它,飛機就讓它開,誰敢坐這架飛機?”張鈸強調 AI 必須擁有可解釋性,
最主要的是,給 AI 猛灌數據的做法極其考驗算力。MIT 研究人員理解深度學習性能和算力之間的聯系,分析了 Arxiv.org 上的 1058 篇論文和資料,主要分析了圖像分類、目標檢測、問題回答、命名實體識別和機器翻譯等領域兩方面的計算需求:
1、每一網路遍歷的計算量,或給定深度學習模型中單次遍歷(即權值調整)所需的浮點運算數。
2、訓練整個模型的硬件負擔,用處理器數量乘以計算速度和時間來估算,
結論顯示,訓練模型的進步取決于算力的大幅提高,具體來說,計算能力提高 10 倍相當于 3 年的算法改進成果。換言之,算力提高的背后,其實現目標所隱含的計算需求——硬件、環境和金錢等成本將變得無法承受,
摩爾定律假定計算能力每兩年翻一番。OpenAI 一項研究表明,AI 訓練中使用的計算能力每三到四個月翻一番,自 2012 年以來,人工智能要求計算能力增加三十萬倍,而按照摩爾定律,則只能將 AI 提升 7 倍。人們從來沒有想到芯片算力極限會這么快到來,
算力供不起是一回事,但業界甚至認為這種“暴力”模式方向錯了,“知識、經驗、推理能力,這是人類理性的根本。現在形成的人工智能系統都非常脆弱容易受攻擊或者欺騙,需要大量的數據,而且不可解釋,存在非常嚴重的缺陷,這個缺陷是本質的,由其方法本身引起的,”張鈸表示,“深度學習的本質就是利用沒有加工處理過的數據用概率學習的‘黑箱’處理方法來尋找它的規律,它只能找到重復出現的模式,也就是說,你光靠數據,是無法達到真正的智能。”
深度學習紅利將盡,但 AI 還在發展
在張鈸看來,既然深度學習在根子上就錯了,那么技術改良也就很難徹底解決 AI 的根本性缺陷。正是這些缺陷決定了其應用的空間被局限在特定的領域——大部分都集中在圖像識別、語音識別兩方面。“我看了一下,大陸人工智能領域 20 個獨角獸 30 個準獨角獸企業,近 80% 都跟圖像識別或者語音識別有關系。”
他表示,“只要選好合適的應用場景,利用成熟的人工智能技術去做應用,還有較大的空間。目前在學術界圍繞克服深度學習存在的問題,正展開深入的研究工作,希望企業界,特別是中小企業要密切注視研究工作的進展,及時地將新技術應用到自己的產品中。當然像谷歌、BAT 這樣大規模的企業,他們都會去從事相關的研究工作,他們會把研究、開發與應用結合起來,”
一直在給深度學習潑冷水的 Gary Marcus, 提出要為深度學習祛魅:“我不認為我們就要放棄深度學習,相反,我們需要將它重新概念化:它不是一種萬能藥,而僅僅是作為眾多工具中的一種,在這個世界上,就像我們還需要錘子、扳手和鉗子。”
“深度學習只是目前人工智能技術的一部分,人工智能還有更大更寬的領域需要去研究,知識表示、不確定性處理、人機交互,等等一大片地方,不能說深度學習就是人工智能,”張鈸說,
另外,中科院自動化研究所副所長劉成林曾表示,“如今的 AI 熱潮其實主要依賴模式識別和深度學習的成功。深度學習的紅利將逐漸用盡,但 AI 的很多方向(感知、認知、學習語言理解、機器人、混合智能、博弈等)還會繼續發展,總體上不會跌入深谷,”
題圖來源:視覺大陸
責任編輯:靖宇
未來有無限可能!