如何讓機器說話更像人?清華和京東的三位大牛給出答案 | CCF C³

金磊 夢晨 發自 凹非寺
量子位 報道 | 公眾號 QbitA

顧客:“我想給父母買一臺電視。”

客服:“您好,這一款可能會適合您的需求(附帶商品鏈接),”

顧客:“看著不錯,但價格好貴啊。”

客服:“因為如果是老年人的話,更加推薦4K超清大屏。”

顧客:“感謝推薦,”

客服:“感謝詢問,若有問題隨時找我。”

隨著電商、網購的普及,諸如上述的場景,相信大多數人都或多或少地經歷過。

能夠根據客戶的問題,如此熟練作答的背后,卻很可能不是人,而是AI


然而,當問題變得復雜、棘手之時,這種對話AI有時卻顯得不夠智能,往往也因此被客戶詬病。

近日,由大陸計算機學會(CCF)主辦、京東承辦的第一期CCF C3活動,在京東集團總部如期舉行,

近30位CCF CTO Club成員和特邀嘉賓參與了此次活動,就“智能客服”這一主題進行了分享和討論,

那么針對這一話題,學界和產業界的大牛,又會擦出怎樣的火花?

下一代的對話系統,又該何去何從?

何曉冬:不僅要響應請求,還要做到情感陪護

對于產業界來講,智能對話機器人或系統,發展現狀又是如何?

針對這一問題,京東集團副總裁何曉冬帶來了《多模態智能交互技術打造有溫暖的智能客服體驗》的主題演講。


△CCF企工委副主任、TF主席、京東集團副總裁,何曉冬

何曉冬介紹道,近幾年,在特定領域對話與交互系統中,出現了許多應用,例如京東智能客服、微軟小冰、亞馬遜智能音箱等等。

而早在2018年,谷歌發布的Duplex電話AI,一度被認為通過了圖靈測試。

但后來卻被外媒曝光25%是由人工打出;而在通過自動系統打的電話中,約有15%會需要人工干預,

對此,何曉冬直言道:

對話AI距離通過圖靈測試還有一段距離,

若是要達到這一“理想狀態”,難點和挑戰又是什么?

何曉冬認為:

對話機器人不僅需要響應用戶的請求,完成任務,還需要滿足用戶對溝通和情感的需求,與用戶建立情感聯系,

為此,何曉冬提出了“多模態人機對話與交互技術”,


具體而言,包括三大層:

  • 基礎技術層:詞法句法分析、語義分析、知識構建、知識推理等;
  • 核心能力層:語言理解、NLP、多倫對話和跨模態交互;
  • 應用層:交互式主動營銷導購、智能情感客服、機器閱讀理解與問答等。

在這種模式下,以“情感分析”為例,基于遷移學習、反向翻譯、噪聲處理等技術,AI可以在與客戶對話過程中,識別客戶的情緒變化,使得滿意度提升了58%,


但與此同時,何曉冬也對“多模態智能對話與交互”提出了五大難點,包括復雜場景下的多輪對話與決策技術、知識獲取與推理、深度語義理解、對話內容生成和多模態交互技術,

……

這便是智能對話系統在產業界的現狀與痛點,那么在學界,又有哪些進步與難點呢?

黃民烈:下一代對話系統


△清華大學部計算機系長聘副教授,黃民烈

接下來,來自清華大學部智能技術與系統實驗室的黃民烈教授,從研究的角度分享了對話系統的現狀、挑戰和未來趨勢,

黃民烈將下一代對話系統定義為“社交哈拉機器人”,他認為,傳統對話系統有三大問題,

  • 對語義的理解不準確,經常答非所問。
  • 在對話中展現的身份、個性不一致,難以獲得人類用戶的信任,
  • 與人類交互中會有社會倫理方面的問題,無法理解其給出的答復中存在的道理、倫理風險,對可能產生的風險視而不見。



針對以上問題,下一代對話系統應該結合任務導向型對話系統中的強語義方法,與弱語義的開放域對話系統中端到端框架,使之能夠scalable,并且做到有知識、有個性、有溫度

對話系統要與結構化的知識相結合,把知識加入到對自然語言的編碼和解碼過程中,在對話交互中做到言之有物。


與此同時,賦予對話系統固定的外在的身份特征,和內在的性格特征,在對話中展現出一致性,并根據這些特征選擇適合的語言風格,做到擬人化,體現出人性化的特征。


還提出情緒對話生成模型,可以讓對話系統能表達喜怒哀樂。同時又借鑒了心理咨詢的理論和方法,使對話系統有情感、有溫度,能進行情緒支持和社交支持。



最后,黃民烈提到現在以GPT3為代表的語言模型,訓練參數和使用的非結構化數據已達到千億規模,但僅以大模型和大數據還不能做好對話系統。未來下一代的對話系統一定是在一個scalable的框架中融合強語義方法,才能做到有知識、有個性、有溫度。


劉知遠:知識指導的預訓練語言模型


△清華大學部計算機系副教授,劉知遠

來自清華大學部的劉知遠教授的報告聚焦于技術層面,具體介紹了如何將語義化的知識引入預訓練語言模型,解決智能客服技術中存在的問題。

預訓練語言模型是2018年左右NLP領域的出現的新突破,

其優勢是突破了人工標記的數據難以大量獲取的限制,可充分利用大量互聯網上不斷產生的為標記數據進行預訓練,再輔以少量有標記數據進行微調。

預訓練語言模型雖在GLUE測試中的表現已超過人類基準,但對語言的理解還停留在淺層。劉知遠老師認為,預訓練語言模型的進一步發展需要將知識圖譜與深度學習兩大技術相結合。


具體做法有:

知識增強:將知識引入到預訓練模型的輸入階段,與文本的輸入相配合
知識支撐:用多個知識適配器將不同類型的知識(如語言學層面的知識和事實層面的知識)統合到模型中。
知識約束:在輸出階段加入知識有關的任務,優化目標的同時,將抽取出來的知識返哺到知識圖譜中。


劉知遠表示未來的研究方向之一將是深化知識的層級,從實體知識中抽象出概念性的知識。


最后,劉知遠介紹了與黃民烈老師及多方團隊合作在北京智源研究院算力支持下開發的中文預訓練語言模型“清源CPM”,該項目已在GitHub上開源,感興趣的話可以掃描下圖二維碼獲取。

劉知遠老師還將研究其研究成果整理出版成中英文書籍,其中《Representation Learning》這本書可以免費獲取!傳送門在文章末尾,


關于CCF CTO Club和C3活動

CCF C3活動是CCF CTO Club發起的,面向企業技術專家的熱門技術和戰略分享會。

在此次活動中,CCF副理事長周明在開場致辭過程中,官宣了C3活動的LOGO及其含義:

  • CCF CTO Club首字母:覆蓋領域(Computer, Communication and Control);
  • 目標:Connection, Culture and Continuum;
  • 怎么搞好:Capability,Creativity and Colorfulness。


△ CCF副理事長、 創新工場首席科學家,周明

周明希望第一期的C3活動,在10年20年后,也為計算產業發展培養國之棟梁,為我們計算機產業更好更強做出貢獻,

[1]清源CPM:https:http://cpm.baai.ac.cn
[2]《Representation Learning》:https:http://arxiv.org/pdf/2102.03732.pdf

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧