<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給camel
      發送

      0

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      本文作者: camel 2018-01-15 23:35 專題:AAAI 2018
      導語:AAAI 2018 下月就要舉行了!

      雷鋒網 AI 科技評論按:1 月 6 日,由中國中文信息學會青年工作委員會(簡稱「青工委」)主辦,哈爾濱工業大學社會計算與信息檢索研究中心(HIT-SCIR)承辦的『AAAI 2018 預講會』在哈爾濱工業大學成功舉辦。本次會議由華為和云孚科技提供贊助,雷鋒網作為獨家合作媒體,提供了在線直播,并對本次預講會做全程報道。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      來張講者合照鎮樓!其中有教授、博士、研究生、本科生,覆蓋了學術研究的各個年齡層。

      照片由哈工大李家琦提供

      本次 AAAI 2018 預講會邀請了來自全國各地 15 所高校和研究單位的老師和同學分享他們在 AAAI 2018 中接收的 25 篇論文,內容覆蓋有聊天機器人、語義依存圖、文本摘要、機器翻譯、信息抽取、表示學習等多個領域的最新研究成果。會議吸引了 200 多名老師和學生來此參會并進行交流。

      我們在《AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(上)》中已經詳細介紹了其中的12篇文章,分別為:

      Session 1

      [1] Adversarial Learning for Chinese NER from Crowd Annotations

      作者:楊耀晟,張梅山,陳文亮,張偉,王昊奮,張民

      單位:蘇州大學人類語言技術研究所

      [2] Adaptive Co-attention Network for Named Entity Recognition in Tweets

      作者:張奇,傅金蘭,劉曉雨,黃萱菁

      單位:復旦大學

      [3] Large Scaled Relation Extraction with Reinforcement Learning

      作者:曾祥榮,何世柱,劉康,趙軍

      單位:中科院自動化所

      [4] Event Detection via Gated Multilingual Attention Mechanism

      作者:劉健,陳玉博,劉康,趙軍

      單位:中國科學院自動化研究所

      [5] Neural Networks Incorporating Dictionaries for Chinese Word Segmentation

      作者:張奇,劉曉雨,傅金蘭

      單位:復旦大學

      [6] Learning Multimodal Word Representation via Dynamic Fusion Methods

      作者:王少楠, 張家俊, 宗成慶

      單位:自動化所

      Session 2

      [7] Inferring Emotion from Conversational Voice Data: A Semi-supervisedMulti-path Generative Neural Network Approach

      作者:周素平,賈珈,王琦,董宇飛,尹宇峰,雷克華

      單位:清華大學

      [8] Long Text Generation via Adversarial Training with Leaked Information

      作者:郭家賢,盧思迪,蔡涵,張偉楠,汪軍,俞勇

      單位:上海交通大學

      [9] Style Transfer in Text: Exploration and Evaluation

      作者:付振新,譚曉燁,彭楠赟,趙東巖,嚴睿

      單位:北京大學計算機科學技術研究所

      [10] Meta Multi-Task Learning for Sequence Modeling

      作者:陳俊坤,邱錫鵬,劉鵬飛,黃萱菁

      單位:復旦大學

      [11] RUBER: An Unsupervised Method for Automatic Evaluation of Open-DomainDialog Systems

      作者:陶重陽,牟力立,趙東巖,嚴睿

      單位:北京大學計算機科學技術研究所

      [12] Exploring Implicit Feedback for Open Domain Conversation Generation

      作者:張偉男,李凌志,曹東巖,劉挺

      單位:哈爾濱工業大學

      我們接下來將詳細介紹另外13場報告的內容。分別為:

      Session 3

      [13] Neural Character Dependency Parsing for Chinese

      作者:李浩楠,張智松,琚毓琪,趙海

      單位:上海交通大學

      [14] A Neural Transition-Based Approach for Semantic Dependency Graph Parsing

      作者:王宇軒,車萬翔,郭江,劉挺

      單位:哈爾濱工業大學

      [15] Asynchronous Bidirectional Decoding for Neural Machine Translation

      作者:張祥文,蘇勁松,秦悅,劉洋,紀榮嶸,王鴻吉

      單位:廈門大學

      [16] Knowledge Graph Embedding with Iterative Guidance from Soft Rules

      作者:郭舒,王泉,王麗宏,王斌,郭莉

      單位:中國科學院信息工程研究所

      [17] Embedding of Hierarchically Typed Knowledge Bases

      作者:張日崇,孔繁爽,王晨玥,茆永軼

      單位:北京航空航天大學

      [18] Faithful to the Original: Fact Aware Neural Abstractive Summarization

      作者:曹自強,韋福如,李文婕,李素建

      單位:香港理工大學

      [19] Twitter Summarization based on Social Network and Sparse Reconstruction

      作者:賀瑞芳,段興義

      單位:天津大學

      Session 4

      [20] Improving Review Representations with User Attention and ProductAttention for Sentiment Classification

      作者:吳震 ,戴新宇,尹存燕,黃書劍,陳家駿

      單位:南京大學

      [21] Chinese LIWC Lexicon Expansion via Hierarchical Classification of WordEmbeddings with Sememe Attention

      作者:曾祥楷,楊成,涂存超,劉知遠,孫茂松

      單位:清華大學

      [22] Learning Structured Representation for Text Classification withReinforcement Learning

      作者:張天揚,黃民烈,趙立

      單位:清華大學

      [23] Assertion-based QA with Question-Aware Open Information Extraction

      作者:閆昭,唐都鈺,段楠,劉樹杰,王文迪,姜大昕,周明,李舟軍

      單位:微軟亞洲研究院

      [24] End-to-End Quantum-like Language Models with Application to QuestionAnswering

      作者:張鵬,牛嘉斌,蘇展,王本友,馬力群,宋大為

      單位:天津大學

      [25] EMD Metric Learning

      作者:張子昭,張宇博,趙曦濱,高躍

      單位:清華大學

      Session 3(7場報告)

      主持人:楊亮副教授,大連理工大學

      [13] Neural Character Dependency Parsing for Chinese

      作者:李浩楠,張智松,琚毓琪,趙海

      單位:上海交通大學

      經過一個半小時的午間休息和討論后,Session 3 由來自上海交通大學的趙海教授開啟。

      2009 年,趙海教授針對中文分詞過程中會受到詞義模糊影響的問題,提出了字符級依存分析的方案。這種方案有兩個好處:1)使用字符級樹避免了中文分詞不存在通用標準的問題;2)單詞內部的深層次結構為更深層次的處理提供了額外的信息,能夠更好地理解整個句子。

      在此基礎上,這篇文章利用神經模型來探索字符依存分析,提出了一個開放的字符級依存樹庫 SCDT(首次提供了豐富的字符級 POS 標簽和依存類別標簽)以及首個字符級別的神經中文依存分析器。

      實驗顯示字符級 POS 標簽和依存標簽對解析性能起著重要的作用。另外在主分析指標方面,神經字符依存分析要比無神經網絡的分析器更有效。

      (感謝趙海教授指正)

      [14] A Neural Transition-Based Approach for Semantic Dependency Graph Parsing

      作者:王宇軒,車萬翔,郭江,劉挺

      單位:哈爾濱工業大學

      隨后由來自哈工大 SCIR 的王宇軒博士分享了他們在語義依存圖上的研究工作。

      語義依存圖是近年來提出的對樹結構句法或語義表示的擴展,它與樹結構的主要區別是允許一些詞擁有多個父節點,從而使其成為有向無環圖 (directed acyclic graph,DAG)。因此要獲得句子的語義依存圖,就需要對這種 DAG 進行分析。目前大多數工作集中于研究淺層依存樹結構,少有人研究如何對 DAG 進行分析。

      這篇文章提出一種基于轉移的分析器,使用 list-based arc-eager 算法的變體對依存圖進行分析。

      [15] Asynchronous Bidirectional Decoding for Neural Machine Translation

      作者:張祥文,蘇勁松,秦悅,劉洋,紀榮嶸,王鴻吉

      單位:廈門大學

      來自廈門大學的張祥文介紹了他們在機器翻譯中一項有趣的工作。

      傳統的機器翻譯中都是按照單向順序編碼。這種方法的一個缺點就是,一旦中間出現翻譯錯誤,隨后的內容就會出現很大的差錯。本文作者提出了一種雙向編碼的新思路。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      15-1,雙向編碼

      實驗結果相較之前的方法有顯著提升。但是這種效果的提升是以消耗計算量為代價的。Poster 環節中,張祥文也表示他們也曾考慮過跳序編碼的方法。

      [16] Knowledge Graph Embedding with Iterative Guidance from Soft Rules

      作者:郭舒,王泉,王麗宏,王斌,郭莉

      單位:中國科學院信息工程研究所

      隨后由來自中科院信息工程研究所的王泉副研究員報告了他們在知識圖譜表示學習方面的研究。

      學習知識圖譜在低維向量空間中的分布式表示是當前研究的熱點。最近,將分布式知識表示與傳統符號邏輯相結合引起了越來越多的關注。但是,以往的大多數嘗試采用一次性注入邏輯規則的方式,忽略了分布式知識表示學習和邏輯推理之間的交互性。此外,以往的方法只專注于處理硬規則,即那些總是成立、不能被違反的規則。這類規則通常需要耗費大量的人力來編寫或驗證。

      本文作者提出了一種新的知識圖譜分布式表示學習方法——規則引導嵌入(rule-guided embedding,簡記為 RUGE),借助軟規則的迭代引導完成知識圖譜表示學習。所謂軟規則,就是那些不總是成立、帶置信度的規則。這類規則可以經由算法從知識圖譜中自動抽取。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      16-1,框架概述

      具體來說,RUGE 同時利用標注三元組、未標注三元組、自動抽取出的軟規則這三種資源以迭代的方式進行知識圖譜表示學習。每一輪迭代在軟標簽預測和表示修正這兩個步驟間交替進行。前者利用當前學到的表示和軟規則為未標注三元組預測軟標簽;后者進一步利用標注三元組(硬標簽)和未標注三元組(軟標簽)對當前表示進行修正。通過這個迭代過程,RUGE 可以成功建模分布式知識表示學習和邏輯推理二者間的交互性,邏輯規則中蘊含的豐富知識也能被更好地傳遞到所學習的分布式表示中。

      (感謝王泉副研究員指正!)

      [17] Embedding of Hierarchically Typed Knowledge Bases(孔繁爽,北航)

      作者:張日崇,孔繁爽,王晨玥,茆永軼

      單位:北京航空航天大學

      孔繁爽是來自北京航空航天大學的碩士生。她在報告中介紹了他們在 embedding 過程中考慮實體類型的研究工作。

      Embedding 已經成為基于知識庫和各種嵌入模型的預測、推理、數據挖掘和信息檢索的重要手段。但是大多數模型都是「無類型的」,也即將知識庫僅僅視為一個實例集合,而不考慮實體的類型。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      17-1 ,embedding過程中考慮實體類型

      在這篇文章中,作者研究了實體類型信息在知識庫 embedding 中的應用。他們提出了一個框架,將一個通用的「無類型」嵌入模型添加到一個「有類型」嵌入模型中。這個框架將實體類型解釋為對所有實體集合的一個約束,并使這些類型約束在嵌入空間中同構地引入一組子集。然后引入額外的 cost 函數來模擬這些約束與實體和關系的嵌入之間的適應性。

      (感謝孔繁爽指正!)

      [18] Faithful to the Original: Fact-Aware Neural Abstractive Summarization

      作者:曹自強,韋福如,李文婕,李素建

      單位:香港理工大學

      來自香港理工大學的曹自強博士在隨后的報告中提出,生成摘要不僅要保持信息充分,更重要的是信息的忠實性。

      與抽取摘要不同,生成式摘要在融合原文本的過程中往往會創造出虛假的事實。曹自強在報告中介紹,目前有近 30% 的最先進的神經系統都會受到這種問題的困擾。以前生成式摘要主要著眼于信息性的提高,但作者認為忠實性(也即「信」)是生成摘要的前提,非常重要。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      18-1,模型框架

      為了避免在生成摘要中產生虛假事實,作者使用了開放的信息抽取和依存分析技術從源文本中提取實際的事實描述,然后提出 dual-attention sequence-to-sequence 框架來強制以原文本和提取的事實描述為條件的生成。實驗表明,他們的方法可以減少 80% 的虛假事實。

      (感謝曹自強博士指正!)

      [19] Twitter Summarization based on Social Network and Sparse Reconstruction

      作者:賀瑞芳,段興義

      單位:天津大學

      來自天津大學的賀瑞芳副教授介紹了她們基于社交網絡和稀疏重構的 Twitter 摘要研究工作。

      隨著 Twitter 等微博服務的快速增長,數百萬用戶產生了大量短小而嘈雜的信息,使得人們很難快速掌握自己感興趣話題的概要信息。作者通過 Twitter summarization 來嘗試這個問題的解決,即從大量 Twitter 文本中提取摘要信息。

      傳統摘要方法一般只考慮文本信息,現有推特摘要方法考慮了社會媒體的用戶級靜態特性,但卻忽視了推文之間的社交關系。受社會學理論的啟發(在社會網絡中有表達一致性和表達傳染性),作者提出了一種新的稱之為 Twitter Summarization based on Social Network and Sparse Reconstruction(SNSR)的微博摘要方法,這種方法能夠用于社交媒體情景中大規模、短小和嘈雜的文本上,采用稀疏重構進行推理。

      作者在文章中將推文之間的關系建模為社會正則,將其整合到組稀疏優化的微博摘要框架之中,并設計了多樣性正則來消除社交網絡帶來的強冗余信息。

      由于缺乏公共語料庫,作者構建了 12 個不同話題的標準 Twitter 摘要數據集。在這個數據集上的實驗結果表明,這個框架在處理社交媒體中大規模、短小及嘈雜消息的有效性。

      (感謝賀瑞芳副教授指正!)


      Session 4(6場報告)

      主持人:丁效副教授,哈爾濱工業大學

      [20] Improving Review Representations with User Attention and Product Attention for Sentiment Classification

      作者:吳震 ,戴新宇,尹存燕,黃書劍,陳家駿

      單位:南京大學

      來自南京大學的吳震在 Session 4 環節介紹了他們在文檔級別情感分類方面的研究工作。

      在網絡平臺上有大量由用戶寫的文檔類型的評價,其中有些是表達用戶情感的,有些則是對產品本身的評價。如何根據這些評價信息推斷出用戶的情感表達是一個非常有意思的工作。

      在這方面,唐都鈺等人(2015)在 CNN 網絡的基礎上添加了用戶和產品的偏置矩陣和表示矩陣來表示這些信息;陳慧敏等人(2016)在層次網絡中融入用戶和產品的這些信息。這兩個研究都獲得了很好的提升。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      20-1,UPNN

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      20-2,USC+UPA

      作者注意到,評論文本中有些詞表現出很強的用戶喜好,而有些詞則傾向于評價產品特點。其中觀點(理性評價)與產品更相關,而情緒(感性評價)則與用戶喜好關系更緊密。在此基礎上,作者提出了一個對稱的網絡模型:

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      20-3

      在這個網絡中,左邊用來抽取用戶喜好的感性評價,右邊用來抽取產品評價的理性評價。此外為了綜合兩種視角,作者補充了一個組合策略。整體來看,損失函數表示為

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      其中三個參數可以調整以觀看不同的效果。其實驗表明,這種模型要比目前 state-of-art 的一些模型有更好的效果。

      [21] Chinese LIWC Lexicon Expansion via Hierarchical Classification of Word Embeddings with Sememe Attention

      作者:曾祥楷,楊成,涂存超,劉知遠,孫茂松

      單位:清華大學

      來自清華大學孫茂松組的楊成博士報告了他們在中文語言查詢和字數統計(LIWC)詞義擴展的研究工作。

      LIWC 是一個字數統計軟件工具,已被用于許多領域的定量文本分析之中。由于其成功和普及,核心詞典已被翻譯成中文和許多其他語言。然而,其中的詞典只包含數千個單詞,與漢語常用單詞的數量相比是遠遠不足的。目前的方法通常需要手動擴展詞典,但是這往往需要太多時間,并且需要語言專家來擴展詞典。

      為了解決這個問題,作者提出了自動擴展 LIWC 詞典的方法。具體而言,作者認為這個問題是一個層次分類的問題,并利用 seq2seq 模型來給詞典中的單詞分類。另外,作者還使用關注機制的義元信息來捕捉一個詞的確切含義,以便可以擴展一個更精確、更全面的詞典。

      (感謝楊成博士指正!)

      [22] Learning Structured Representation for Text Classification via Reinforcement Learning

      作者:張天揚,黃民烈,趙立

      單位:清華大學

      隨后楊成博士代表黃民烈副教授介紹了他們在學習文本分類的結構表示方面的研究內容。

      表征學習是自然語言處理中的一個基本問題。這篇文章研究如何學習文本分類的結構化表示。

      與大多數既不使用結構也不依賴于預定義結構的現有表示模型不同,作者提出了一種強化學習(RL)方法,通過自動地優化結構來學習句子表示。

      作者在文章中提出兩種結構表示模型:Information Distilled LSTM (ID-LSTM) 和 Hierarchically Structured LSTM (HS-LSTM)。其中 ID-LSTM 只選擇重要的任務相關的單詞,HS-LSTM 則去發現句子中的短語結構。兩種表示模型中的結構發現被表述為一個順序決策問題,結構發現的當前決策影響隨后的決策,這可以通過策略梯度 RL 來解決。

      結果表明,這種方法可以通過識別重要的詞或任務相關的結構而無需明確的結構注釋來學習任務友好的表示,從而獲得有競爭力的表現。

      [23] Assertion-based QA with Question-Aware Open Information Extraction

      作者:閆昭,唐都鈺,段楠,劉樹杰,王文迪,姜大昕,周明,李舟軍

      單位:微軟亞洲研究院

      接下來由哈工大的馮驍騁博士代替微軟亞洲研究院的唐都鈺博士,介紹了他們在自動問答方面的研究工作。

      在這項工作中,作者提出了一個基于斷言的問答任務(Assertion-based QA),這是一個開放的領域問題問答任務。在搜索引擎中,用戶提出問題后,引擎會反饋回一個相關的段落作為響應。但是這并不利于用戶快速得到想要的信息。為了簡化引擎反饋信息,作者提出將問題和段落作為輸入,輸出包含主、謂、賓三元組表示的斷言的 ABQA 問題。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      為了解決這個問題,作者構建了一個名為 WebAssertions 的數據集,其中包括 55960 個(question,passage)和 358427 個(question,passage,assertion)。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      隨后為了從段落中提取出斷言,作者開發了提取式和生成式兩種方法。實驗結果表明,這兩種方法都能夠較好地直接從段落中給出問題的具體答案,并包含部分支撐信息。(文中斷言泛指三元組)

      (感謝馮曉騁博士指正!)

      [24] End-to-End quantum language models with Application to Question? Answering

      作者:張鵬,牛嘉斌,蘇展,王本友,馬力群,宋大為

      單位:天津大學

      來自天津大學的蘇展做了一場極為有意思的報告,他們的工作是通過借鑒量子統計物理中的方法來表示語言模型,并用于語問答任務。

      語言建模(LM)是自然語言處理領域的基礎研究課題。最近(Sordoni,Nie 和 Bengio 2013)利用量子統計物理中的數學形式,提出了量子語言模型(Quantum Language Model,QLM)。具體來說就是,QLM 借鑒了量子力學中密度矩陣的概念,將 single term 和 term dependency 的概率不確定性 encoding 到密度矩陣中,且與傳統 n-gram 模型相比,量子語言模型在表示 n 階 dependency 時不會增加參數規模。

      這種方法在理論上是非常重要的,因為它是首次用量子理論的公式來推廣 LM。但是其也有一些限制:1)QLM 中每個詞的表示是一個 one-hot 向量,它只能編碼 local 事件,而不能考慮全局語義信息;2)QLM 通過密度矩陣表示文本(例如 query, document),它通過迭代求解而非解析求解,因此在端到端的設計中很難更新和優化密度矩陣;3)QLM 中密度矩陣的表示、訓練和匹配,這三個步驟無法共同優化,限制了 QLM 的適用性。

      針對這些問題,這篇文章首次將詞向量作為單個詞的狀態向量,單個詞表示一個純態系統,整個句子就可以對應于由密度矩陣表示的混合態系統。這樣就可以在沒有迭代估計的情況下導出密度矩陣,密度矩陣表示也可以被集成到神經網絡結構中并通過反向傳播算法自動更新。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      24-1,單句表示,Question 和 Answer 分別用密度矩陣表示

      基于這種思想,作者提出了一種端到端的模型(即基于神經網絡的類量子語言模型(NNQLM)),并設計了兩種不同的體系結構。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      24-2,框架一 由于密度矩陣是一個半正定的矩陣,其聯合表示的跡內積可以反映密度矩陣相似度,為了將其應用于 End-to-End 模型,將聯合表示矩陣的對角線元素和跡作為全連接層的輸入。

      跡內積 (Trace Inner Product) 可表示兩個量子系統的相似度。在問答任務中,Question (Q) 和 Answer (A) 所對應的兩個密度矩陣的乘積可作為 Q 和 A 的聯合表示,其聯合表示的跡(即跡內積)可計算 Q 和 A 的相似度,每個對角線元素表示各個潛在語義子空間的相似度。

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      24-3,框架二 對密度矩陣的聯合表示進行卷積操作,實驗結果表明卷積可以更加充分地挖掘聯合表示中潛在語義子空間的相似性信息

      作者將這個模型用在經典的 QA 任務中,即答案選擇(從預選的候選答案中找出正確的答案)。實驗結果表明,NNQLM 在 WIKI 數據集上顯著提升了 QLM 的效果,并在 TREC-QA 數據集接近了 state-of-art 的結果。

      目前,量子力學和神經網絡的交叉領域已經衍生出量子機器學習和量子人工智能等新興研究方向,已有相關重要論文發表在 Science 等高水平期刊。該論文以語言模型為切入點,對量子力學和神經網絡這一交叉領域進行研究,并在自然語言處理領域的問答任務中實現了端到端訓練的類量子語言模型,擴展了量子語言模型的理論和應用。

      (感謝蘇展指正!)

      [25] EMD Metric Learning(張子昭,清華)

      作者:張子昭,張宇博,趙曦濱,高躍

      單位:清華大學

      最后來自清華的本科生張子昭做了本次預講會的最后一個報告,報告內容為對 EMD 度量的一個優化工作。

      Earth Mover's Distance (EMD) 是 2000 年 IJCV 期刊文章《The Earth Mover's Distance as a Metric for Image Retrieval》提出的一種多維分布相似度量方法,被廣泛應用于計算機視覺等任務當中。所謂 EMD,是傳統運輸問題的最優解問題,簡單來說就是給定兩個 signature(P 和 Q),把一個變成另一個所需要的最小工作量。EMD 越小,實體之間就越相似。

       AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      25-1,EMD。其中 f_ei 是 P_i(Q_i)的中心的特征,w_i 是 P_i(Q_i)的相應的權重。d_ij 是從 P_i 到 Q_j 運送一個供給單位的成本,f_ij 是相應的流量

      EMD 求解公式為

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      目前大多數設計 EMD 的工作都集中在 EMD 的加速和應用上,很少有工作對 EMD 進行優化。為了解決這樣的問題,這篇文章提出了一個 EMD 度量學習的算法。

      從上面的公式可以看出 ground distance matrix D 對 EMD 有很大影響。所以要想優化 EMD,那么就去優化 D。從另一方面 D 又由相應的度量 A 來決定,因此可以通過優化 Ground Distance Metric A 來優化 EMD。

       AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      25-3,EMD 度量學習框架

      其方法是從訓練數據中選擇出一個子集,對這些數據進行采樣,得到一些三元組來減少整個方法的計算量;隨后構建一個目標函數,通過交替優化模型,最后得到一個穩定的度量 A。

      在實驗部分,作者將這種方法應用于多視角對象分類和文檔分類當中。實驗結果表明,與傳統的 EMD 方法和最新的方法相比,他們提出的 EMD 度量學習方法具有更好的性能。此外,這種 EMD 度量學習方法也可以應用于其他領域。

      (感謝張子昭指正!)


      !!!NOTE!!!

      預講會已經結束,頂會將要開始。屆時雷鋒網 AI 科技評論也將到現場進行一線報道。如果你也有論文被 AAAI 錄用 ,歡迎在后臺留下你的聯系方式,我們將與您聯系,并進行更多交流!

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      AAAI 2018預講會在哈工大成功舉辦,25篇頂會文章講了什么(下)

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 高清无码午夜福利视频| 色婷婷亚洲精品天天综合| 国产一区二区三区怡红院| 国产精品秘?久久久久久| 国产97色在线 | 中国| 奎屯市| 日韩精品射精管理在线观看| 国产精品久久久影院色| 96精品久久久久久久久久| 国产精品亚洲二区在线播放 | 日本一区二区视频在线播放| 开心婷婷五月激情综合社区| 久久精品视频在线看15| 亚洲欧美精品午睡沙发| 亚洲制服无码一区二区三区| 免费人妻无码不卡中文字幕系| 久在草影院| 国产乱人妻精品秘?入口-国产精品亚| 富婆熟妇熟女二区三区| 色www视频永久免费| 亚洲国产成人精品av区按摩| 日本一卡2卡3卡4卡无卡免费| 亚洲欧美另类久久久精品 | 337p粉嫩大胆噜噜噜| 丁香婷婷五月| 在线视频 亚洲精品| 亚洲a免费| 成人精品日韩专区在线观看| 亚洲国产韩国欧美在线| 精品少妇人妻AV无码久久| 吃奶呻吟打开双腿做受在线视频| 久久久精品人妻一区二区三区| 日本免费视频| 甘肃省| 久久久久免费看黄a片app| 91碰碰| 人妻少妇白浆| 丝袜美腿在线观看播放一区| www.日韩av| 亚洲av午夜福利精品一区二区| 精品国产网红主播在线观看|