0
| 本文作者: AI科技評論 | 2020-04-15 11:48 | 專題:ACL 2019 |

2020年4月3日,備受矚目的NLP頂會 ACL 2020 公布了錄用論文情況。本屆ACL 共收到 3429 篇投稿,相比于去年增加了500多篇,盡管接收論文數量還沒有統計,但相比于去年必然將只多不少。作為國內頂尖的自然語言處理團隊之一,哈工大社會計算與信息檢索研究中心 (HIT-SCIR) 不負所望,延續8篇 EMNLP 2019 ,8篇 AAAI 2020 之后,在這次 ACL 2020 中再次有 8 篇論文錄用,且皆為 long paper。國內頂尖,當之無愧!
為促進學術交流,讓更多師生及時了解最新前沿研究,AI科技評論聯合 HIT-SCIR,重磅推出「ACL 2020 -哈工大系列論文解讀」,其中包括兩場直播,一場錄播,以及多篇文字解讀內容。
在4月16日,將首先推出一場有關「對話系統」的直播。主講人為著名青年學者車萬翔教授高徒覃立波,他的分享主題為「多領域端到端任務型對話系統」。覃立波目前在西湖大學張岳教授的組里訪問,因此這項工作也有張岳教授的指導在。
緊隨其后,也將在4月17日,推出車萬翔教授另一名高徒侯宇泰的直播,其工作探究了少樣本槽位提取問題(Few-shot Slot-Tagging)。此次直播,他將分享針對few-shot序列預測任務帶來的建模序列標簽依賴等獨有挑戰,給出全新的方法。
除此之外,我們也將通過錄播形式展示劉挺教授和張偉男副教授共同指導的博士生宋皓宇的研究工作,主題為「生成、刪除和重寫:提高對話生成中人物角色一致性的三階段框架」,聽著就很帶感。簡單來說便是,提出一個全新的三階段對話生成框架,解決對話過程中角色一致性問題。
上述三場直播/錄播的論文簡介如下:
1、題目:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐嘯,車萬翔,張岳,劉挺
摘要:最近,端到端的任務型對話系統的研究已經取得了巨大的成功。但是,大多數神經網絡模型都依賴于大量的訓練數據,這些數據往往局限于一些特定的領域,例如導航和查詢天氣等領域。這使得現有模型很難泛化到標注數據以外的新領域下。并且,如何有效利用源領域的標注數據來提升較少標注數據的新領域,或者是沒有標注數據的新領域的性能,這樣的工作很少。因此,我們首次在端到端任務型對話系統中提出一個shared-private 框架去顯式學習領域特有的和領域共享的知識。此外,我們提出了一種新穎的動態融合網絡(DF-Net)來動態探索目標領域與每個領域之間的相關性。在兩個公開的數據集上的實驗結果表明我們的模型不僅達到SOTA性能,并且,在few-shot的場景下,我們模型的性能要比之前的最佳模型平均高13.9% F1 score,這進一步驗證了我們模型的可遷移性。
2、題目:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,車萬翔,賴勇魁,周之涵,劉一佳,劉晗,劉挺
摘要:在本文中,我們研究了少樣本槽位提取問題(Few-shot Slot-Tagging)。與其他廣泛研究的少樣本問題相比,少樣本槽位提取面臨著“建模標簽間依賴關系”的獨特挑戰。但是,由于不同領域間存在標簽集的差異,我們很難將先前學習的標簽依賴應用于新的領域。為了解決這個問題,我們在CRF中引入了折疊的依賴關系遷移機制(Collapsed Dependency Transfer),通過建模抽象的標簽依賴關系來實現這種遷移。在小樣本和元學習的情景下,CRF的發射概率可以用利用度量學習得到:計算為單詞與每個標簽類別的相似度。為了計算這種相似性,我們在近期的圖像小樣本分類模型TapNet基礎上,利用標簽名稱語義來表示標簽,提出了一種標簽增強的任務自適應投影網絡(L-TapNet)。實驗結果表明,我們的模型在1-shot實驗中以14.14 F1的分數明顯優于最強現有相關系統。
3、題目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,張偉男,劉曉江,劉挺
摘要:在對話過程中保持一致的角色屬性信息對人類來說是很容易的,但對機器來說,這仍然是一項有待探索的任務。近幾年,基于角色屬性的對話生成任務被提出來,旨在通過在對話生成模型中加入顯式的角色文本來解決屬性一致性問題。雖然現有的基于角色的對話生成模型在生成類似人類的回復上取得了成功,但是它們的單階段解碼框架很難避免生成不一致的角色詞。在這項工作中,我們提出了一個三階段的對話生成框架。該框架使用生成-刪除-重寫機制從生成的原型回復中刪除不一致的詞語,然后進一步將其改寫為屬性信息一致的回復。我們通過人工評價和自動指標進行了評估。在PersonaChat數據集上的實驗表明,我們的方法獲得了非常好的性能。
如何上課?
掃碼關注[ AI研習社頂會小助手(AIyanxishe2) ] 微信號,發送關鍵字“ACL 2020+直播”,即可進群觀看直播和獲取課程資料。


ACL 2020原定于2020年7月5日至10日在美國華盛頓西雅圖舉行,因新冠肺炎疫情改為線上會議。為促進學術交流,方便國內師生提早了解自然語言處理(NLP)前沿研究,AI 科技評論將推出「ACL 實驗室系列論文解讀」內容,同時歡迎更多實驗室參與分享,敬請期待!
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。