您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

15 facebook權重算法(騰訊算法高級研究員陳松堅:智能問答技術及其應用)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-29 14:24:29【】5人已围观

简介呈現出概念的關系,比如king-man+woman的結果非常接近于queen,因此說明詞向量能夠一定程度刻畫語義。那對句子如何做向量表示呢?一個簡單的想法是直接求和平均,WMD是另一個比較有意思且有效

呈現出概念的關系,比如king-man+woman的結果非常接近于queen, 因此說明詞向量能夠一定程度刻畫語義。那對句子如何做向量表示呢?一個簡單的想法是直接求和平均,WMD是另一個比較有意思且有效的做法,他將計算句子到句子的相似度建模成一個運輸的問題,把句子p的各個詞,運輸到q的各個詞上,也可以說是變換;運輸成本是詞向量的買粉絲sine相似度,而要運輸的是各個詞在句子中的權重,用線性規劃求解一個最優解,即為p到q的距離。另外還有個有效的方法是SIF,思路是做詞向量加權求和,但是突顯出句子中非通用的部分,即權重用詞頻倒數來計算權重,實驗效果也很不錯。

上面的方法有一個問題就是沒有利用有監督信息,所以效果有明顯的天花板。下面介紹這個工作是基于深層網絡做有監督學習的匹配的,做法也比較簡單,首先把句子文本用one-hot編碼,假如詞典大小是500K,那編碼完長度就是500K維,其實等于是詞袋模型,然后輸入到一個多層的神經網絡去學習,最終得到一個128維的向量作為句子的語義表示,然后用買粉絲sine計算兩個句子與文檔的相似度作為模型輸出。這個方法其實是將高維稀疏的token特征映射到低維語義空間,跟詞向量的思路很類似,只不過訓練目標不同,并且這里使用了深層網絡結構。

但是CNN對上下文的處理能力依賴于窗口大小,遠距離就沒辦法處理了,因此要考慮另一種網絡單元RNN,這種單元是專門為時序模型量身打造的,簡單來說,每一時刻t上的隱藏狀態,或者說第t個詞上的語義編碼,都由兩個輸入共同決定,即上一時刻的隱藏狀態和當前時刻的原始輸入,而為了解決遠距離傳遞導致的梯度消失和梯度爆炸等問題,RNN有一些變種結構來應對,比如 LSTM和GRU等。

CNN和RNN都是對原始輸入進行語義編碼的基本單元,編碼后的向量就可以接入多層感知機進行相似度計算,如果是直接計算買粉絲sine相似度,那就是dssm的升級版,而更常見的做法是把兩個句子的編碼向量拼接在一起,再經過一個多層感知機計算相似度,而這種方法統稱為表達式建模;

另一種方案考慮到兩個句子之間的交互信息對學習他們是否匹配顯然更為重要,這一類方案被稱為交互式建模,右邊是一個典型的例子,他最大的不同是首先對兩個句子的所有窗口組合進行拼接和卷積,得到交互信息。然后再進行多次卷積和池化得到表示。其他的交互方式還包括編碼之后,進行交互操作,如作差,點乘等,還有計算attention表示,也是常見的交互方式。

下面介紹我們的方案,跟上面介紹的模型相比,我們的方案主要做了兩處改動,一個是使用了稠密連接的網絡結構,讓rnn層的輸入和輸出拼接在一起做為下一層的輸入,第二個是混合注意力機制,即在計算attention向量進行交互式建模的基礎上,增加self-attention向量計算,然后把兩個attention向量經過門機制進行融合,這樣做一方面引入了問句間的交互信息,同時又增強了對自身的表達建模。

上面的模型是比較復雜的模型,參數量有5.8M。在實際中應用中訓練語料會嚴重不足,為了解決這個問題,我們引入了遷移學習的策略。首先第一種是多任務聯合學習,比如在擬合兩個問句是否匹配的同時,也對問句進行分類預測;另外還可以同時對匹配的問題對做seq2seq的翻譯模型訓練。這兩個策略都證明能有效提升準確率。

而另一個思路更加直觀,即引入其他領域的語料,所謂多語料遷移。Fine-tune即參數微調是其中一種做法,即先用通用語料訓練網絡,固定底層表達層的參數,然后再使用領域語料調整上層參數;另一種思路參考了對抗學習的思想,即引入一個新的任務“混淆分類器”去判別當前樣本是來自源語料還是目標語料,通過在損失函數中增加反向的混淆分類損失項,讓混淆分類器盡可能地無法區分樣本的來源,從而保證共享了參數的表達網絡能夠學習到兩部分語料中共性的部分。

以上的介紹都是為了完成一個基本的單輪對話機器人,而實際應用中,往往存在需要需要交互的場景,比如查詢社保余額,就需要用戶提供指定信息,如姓名,身份證號,手機號等。這種是所謂任務導向型機器人,而另一種,基于知識圖譜的機器人也往往會涉及到多輪交互。這里簡單介紹一下多輪對話機器人的架構,整體上是一個對話管理系統,總的來說是管理會話狀態,包含4個模塊,分別是輸入部分:自然語言理解模塊NLU,負責意圖識別和抽取槽位實體,比如這里匹配到了意圖是查詢社保余額,抽取到了社保號1234。得到的意圖和槽位值會送入到對話狀態追蹤模塊,DST,他負責會話狀態的更新,形式化來說是一個函數,輸入是當前狀態s和當前的query經過NLU處理過得到的意圖和槽位值q, 輸出新的狀態s‘,下一步是把s’送入DPL,對話策略模塊,這個模塊是根據新的狀態s‘輸出行動a,通常這個決策選擇會依賴于一個外部數據庫或知識圖譜,最后,由輸出部分,自然語言生成模塊NLG負責將行動轉換為自然語言文本,返回給用戶。

前面提到的單輪FAQ機器人,有一個問題是問答準確率依賴于問答庫的質量,而問答庫的構建耗時費力,所以針對數據較大的非結構化文檔,如果可以直接從中抽取答案,是非常理想的做法。比如斯坦佛大學開源的drQA,就是基于wikipedia的語料做的一個開放域上的問答機器人,我們來看看這種閱讀理解機器人的架構示意,他也是基于檢索重排的思路,首先把可能的文段從語料庫中摘取出來,然后送入閱讀理解模型進行答案定位,打分,排序和選擇得分最高的答案。閱讀理解模型與匹配模型是類似的,需要先對問題和候選文段進行編碼表示,不同之處在于最終預測的目標是答案的起始和結束位置。我所在的團隊在去年,在閱讀理解的權威公開測評Squad v1中取得過第一的成績,同時參加這個測評的包括了google, facebook, 微軟,阿里idst, 科大訊飛等國內外同行。說明業界對這種技術還是非常看重的。

下面分享小知在把以上技術落地產品化的經驗。首先我們來看看小知的整體架構圖,核心引擎有兩部分,一塊是上面重點闡述的深度語義匹配模型,另一塊是本次分享沒有展開的知識圖譜引擎,在此之上,我們構建了FAQ機器人,多輪會話機器人(任務機器人),閑聊機器人等。以下是我們單輪和多輪機器人的示例。

在我們實際的落地項目中,得益于深度遷移模型的語義匹配能力和行業知識圖譜的的精準匹配和輔助追問,小知機器人能夠做到95%左右的問答準確率,并且節省了50%以上的服務人力,切實為政府和企業提升效率和降低成本。

在智能客服的基礎上,我們又打造了基于語音的電話機器人,力主融合智能客服,人工在線客服,工單系統和電話機器人,為客戶打造從售前售中售后的整體解決方案。

以下是電話機器人的整體架構圖,核心是自然語言理解NLU模塊,負責識別用戶提問意圖

提取相關實體。根據NLU輸出的結果,內置的對話管理引擎會進行流程狀態流轉和跟蹤。

另外,ASR語音識別和TTS語音合成是不可或缺的重要服務,這三個模塊相互協作,共同完成與用戶的交互。

最后對智能問答的未來發展提幾點我的看法。目前學術界比較公認的一個方向是,需要更有機地結合模型和規則,而在問答領域,規則的一大組成部分就是知識圖譜,包括開放領域的知識圖譜和專業領域知識圖譜。而更進一步地,我們需要研究帶有推理性質的事理型知識圖譜去描述領域內的規則和知識,讓機器人能夠處理帶有復雜條件的問題,提供更智能的回復。在我看來,智能問答的一個突破口就在于解決以上三個問題。以上就是今天分享的內容,謝謝大家。

主講人介紹:

陳松堅,騰訊數據平臺部算法高級研究員,有著8 年的 NLP 研發經驗,2017 年加入騰訊 TEG 數據平臺部,負責智能客服產品騰訊小知的算法規劃和落地。負責過多個智能客服項目,對封閉領域的智能問答有豐富的實戰經驗。

很赞哦!(9661)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:河南新乡长垣县

工作室:小组

Email:[email protected]