<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給貝爽
      發送

      0

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      導語:多模態能否破解大模型的“阿喀琉斯之踵”?

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      大規模預訓練語言模型能否實現認知智能?

      自GPT-3問世以來,關于這個問題的討論從來沒有停止,也一直沒有定論。作為NLG領域的標桿模型,GPT-3在X-to-Text系列任務中表現極佳,文章寫作、圖表分析、聊天對話都能輕松實現。

      NLG(Natural Language Generation)是自然語言處理領域的一個分支,區別于NLU,更側重自然自然語言的表述過程,主要用于將文本、表格、圖片或結構化數據,輸出為一段準確且易于理解的文本描述。

      近幾年,NLG已經從幕后走向臺前,成為了NLP領域的新寵。

      GPT-3被看做是“暴力美學”的一次勝利,驗證了”模型越大,性能越好“的邏輯,業界也普遍形成了一種煉大模型的競賽趨勢。雖然大規模預訓練模型的NLG能力已經接近人類,但它仍存在一個“阿喀琉斯之踵”——缺乏常識。

      如何解決這一問題,業界似乎也達成了共識:引入多模態。今年OpenAI和智源研究院相繼推出的CLIP和悟道2.0,稱得上是多模態在大規模預訓模型中的應用典范,從圖像-文本的生成能力突破了一個新高度。目前,阿里、百度、微軟亞洲研究院等大型企業和科研機構早已開啟多模態的研究。

      毫無疑問,大模型+多模態+先驗知識成為了NLG前沿探索的新方向。其實,從產業的角度來看,GPT-3等大模型性能雖佳,但仍“不識人間煙火”,因為計算資源過大,終端設備難部署,目前幾乎沒有重大的落地項目。

      不過,這也并不影響NLG在產業方向如火如荼的落地趨勢。從RNN、CNN到Tranformer,NLG已經基本解決了“語義不順、語義不通、關聯度不高”等問題,并在金融、媒體、電商等行業獲得了大范圍的應用。

      Gartner預測,在未來20%的業務內容將通過使用自然語言生成的機器編寫,其中法律文件、股東報告、新聞稿或案例研究將不再需要人類創建。當然,號稱“最難落地”的NLG,現階段仍在可控性、評價機制、結構化數據等方面存在不足,這也在一定程度上影響了它的應用場景。結合以上問題和現象,這幾個問題非常值得探討:


      • 大規模預訓練語言模型能否實現認知智能?

      • 業界的大模型競賽現象反映了什么問題?

      • 多模態在NLG研究中究竟有多大潛力?

      •  NLG模型的可控性與可解釋性問題如何解決?

      •  NLG產業應用所面臨的主要難點是什么?


      10月28-30日,計算機領域年度盛會CNCC 2021將在深圳召開,本屆大會共開設了111個技術論壇,涉及32個研究方向,其中在NLP領域,大會開設了“自然語言生成前沿與產業應用”分論壇。

      該論壇由北京大學王選計算機研究所教授萬小軍擔任主席(作報告),中國人民大學高瓴人工智能學院長聘副教授宋睿華擔任共同主席。

      屆時,清華大學計算機科學與技術系長聘副教授黃民烈,百度主任架構師肖欣延,字節跳動AI Lab高級研究員周浩以及微軟亞洲研究院高級研究員/研究經理段楠等產學專家將發表主旨演講,深入解讀當前NLG技術前沿與產業發展。

      在論壇開始之前,AI科技評論有幸采訪了萬小軍教授以及產業界的三位分享嘉賓,與他們聊了聊關于本次論壇的情況和NLG的產學現狀。

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      萬小軍,北京大學王選計算機研究所博士生導師,語言計算與互聯網挖掘研究室負責人,在北京大學獲得學士、碩士與博士學位。主攻自然語言處理研究,側重自動文摘與文本生成、情感分析與語義計算、多語言與多模態NLP等方向。 

      2017年榮獲ACL Outstanding Paper Award、吳文俊人工智能技術發明獎、CCF NLPCC青年新銳獎等;2018年榮獲 IJCAI Distinguished Paper Award。此前,與字節跳動、南都、三菱綜研、科學網等單位合作推出多款AI寫作機器人。

      目前擔任TACL、ARR執行編輯、NLE、JCST編委;CCF自然語言處理專委會秘書長、CIPSC自然語言生成與智能寫作專委會副主任;曾擔任國際期刊Computational Linguistics編委與國際會議EMNLP 2019程序委員會主席,10多次擔任相關領域重要國際會議高級領域主席或領域主席,包括ACL、NAACL、EMNLP、EACL、AACL等。


      第三屆NLG論壇,有哪些獨到之處?


      Q:為什么在CNCC大會開設自然語言生成(NLG)技術論壇? 

      萬:不同于10年前、20年前,NLG已經不是一個冷門的小眾研究方向。我們可以明顯的感覺到,越來越多的現實場景需要NLG的技術落地,尤其是媒體、教育、電商等行業已經有了相當多的應用案例。產業需求的激增是近幾年NLG發展的一個核心驅動力,它推動了技術發展,同時又反哺學術研究,吸引了更多的科研人才,這樣一種良性循環,使其成為了自然語言處理領域最熱門的分支之一。

      在CNCC開設NLG論壇既迎合了主流研究趨勢,也體現了CNCC年度盛會的專業性,我們希望通過這場論壇,為學術界和產業界的專家和從業者提供一個相互切磋和學習的機會。

      Q:今年的NLG技術論壇與往年有哪些不同?在邀請嘉賓和報告主題方面有哪些規劃?

      萬:CNCC大會首次開設NLG論壇是在2008年,不同于往年,今年論壇反映了當前NLG發展的兩大主流趨勢:一是多模態研究;二是產業應用。我們邀請了三位產業界嘉賓做主題分享,就像剛才提到的,在市場需求的推動下,互聯網巨頭以及大大小小的企業都在做NLG研究。NLG模型在實際應用中會遇到哪些問題?有哪些解決思路或針對性的解決方案,這些內容都會在論壇中呈現。另外,當下大熱的多模態研究也將成為本次論壇討論的重點。


      在演講嘉賓方面,我們優先選擇了來自百度、字節跳動、微軟三家大廠的資深研究員肖欣延、周浩和段楠,一是他們的研究有特色,二是成果比較突出,既發表了不少論文,也有具體的落地案例。從這個角度來講,其實企業界的研究要比高?;蚩蒲袡C構更實用更全面,因為它們兼顧了學術和應用。


      同時,我們邀請了清華大學計算機科學與技術系長聘副教授黃民烈博士,他的分享主題為故事理解與生成,以及我自己也會做關于問題自動生成的學術報告,這些方向都是NLG領域最前沿、熱門的研究方向,這也是區別于往年論壇的一大亮點。嘉賓報告之后,來自中國人民大學高瓴人工智能學院的宋睿華長聘副教授將主持圓桌討論環節,與現場觀眾互動。

      Q:預計有多少參會者?他們能夠收獲什么? 

      萬:通過CNCC論壇,我們希望參會者能夠了解NLG最前沿的技術趨勢,最新的落地成果,與各位分享嘉賓碰撞出更多不一樣的火花。這也是為什么我們集結了學術界與產業界兩撥同仁,既可以把握前沿動態,也可以深入落地場景,探討更細節更具體的問題,這對于他們而言,是一個行業探底的好機會。

      去年,CNCC論壇的報名人數超過7000人。如果不受疫情影響,組委會預計參會者會超過1萬人。CNCC以及NLG論壇每年的嘉賓陣容都很強大,報告主題也緊跟前沿趨勢,相信今年也如往年一樣座無虛席。 


      基于多模態前沿探索,潛力有大?


      Q:如何看待GPT-3的性能神話? 這種“簡單粗暴”的模式為NLG任務帶來了哪些局限性和可能性? 

      萬:GPT-3確實明顯提升了文本生成任務的性能指標,但它的生成結果仍具有不可控性,甚至在實際應用中會帶來風險。我們無法預判GPT-3生成的文本是好還是壞,也就無法確定它是否可以使用。 大多數場景下的文本生成任務對文本質量、容錯率要求很高,這在一定程度上限制了模型的使用范圍。 

      Q:GPT-3之后,智源出品的悟道2.0將模型參數提升到了1.75萬億,在其影響下,“煉大模型”逐漸成為業內主流,您是如何看待這種競賽趨勢的?

      萬:我們說GPT-3相當于一個公共基礎設施,通過它,下游任務只需微調就可以提升性能,也可以減少對標注數據的依賴。但從實驗室到真正的產業落地,大規模預訓練模型仍面臨以下應用部署中的難點:一是模型存儲空間過大,二是計算資源開銷大,手機等終端設備難以離線支持。大模型的訓練成本非常高,這也是為什么研究大模型的機構多出自產業界,普通科研機構和高校往往難承其重。

      從1750億到1.75萬億,雖然“煉大模型”成為了業界的主流研究趨勢,但并不能說它是唯一的走向認知智能的研究模式,也不一定是最優的模式。以GPT-3為代表的大規模預訓練模型仍有進一步探索的潛力,但它不應該是突破NLG研究瓶頸的唯一路徑。

      Q:大規模預訓練是否實現認知智能?就目前的技術發展來看,我們距離認知智能還有多遠?

      萬:回答這個問題之前,我們首先要清晰地定義什么叫認知智能?換言之,要實現認知智能,機器需要掌握哪幾種能力,如何評價這些能力?到目前為止,大家對這一基本概念的界定并沒有達成一致,以至于是否會實現認知智能也有不同的看法。 

      當前有一種觀點認為,大規模預訓練模型本質是一種泛化的記憶能力,而不是人類所具有的主動思考和理解的能力,它的生成能力取決于預訓練數據的規模和質量。從這一點來看,現有預訓練模型距離理想的認知智能還有很遠的一段距離。

      Q:如何看待多模態在NLP領域的發展前景?它要核心解決的問題以及興起的原因是什么?

      萬:多模態是計算機視覺與自然語言處理之間的交叉研究領域,它最典型的任務包括跨模態生成,即給定一張圖像或者一段視頻生成對應的文本,或者反之。我們本身就生活在一個多模態交互環境中,融合圖像、視頻、語音、文字等不同的模態信息進行學習,所以多模態更接近人類的認知方式,是一個非常有潛力的發展方向。

      在應用層面上,多模態的落地場景非常豐富,常見的有多模態導航、多模態對話等。例如,顧客發了一張存在質量問題的產品圖,并配文鞋子破了,機器人客服能夠結合文字說明和上傳的圖片進行驗證,并給出有效的回復。類似的應用場景還有很大的想象空間,如我們日常的視頻會議、在線云課堂,這些場景會涉及視頻、圖像、語音、文本等多種模態,利用這些多模態信息能夠實現更加準確的內容理解、生成、檢索與推薦。 

      Q:當前多模態模型的普遍現狀如何,存在哪些局限性?

      萬:多模態模型在視頻或圖像上的理解能力還比較簡單,比如給定一張風景照,它能夠識別圖中的狗、草坪或者天空等物體或場景,但不具備更抽象的理解能力,無法準確理解這張圖中發生的事件或者表達的觀點。這個問題可能與數據集有關,比如ImageNet等數據集多為一些特定類型的自然場景,無法反映現實生活中豐富多彩的場景,基于這類數據集訓練出來的多模態模型也難以理解真實場景。

      此外,多模態信息的融合方式目前還比較簡單和直接,某些場景下所得到的多模態模型性能不一定優于對應的單模態模型。

      Q:如何看待NLG可控性差的問題,它會在哪些行業在多大程度上影響技術的應用?

      萬:關于可控性差的問題目前沒有一個特別完美的解決思路。以摘要生成為例,模型生成的摘要文本中包含的事實信息可能與輸入文本中的信息不一致,比如輸入文本中小張的工作是科學家,但摘要生成的結果中可能小張的工作是醫生。信息的不一致性必然會影響模型的使用場景,如何去解決或者控制這個問題,學術界和產業界已經有不少的研究,但都存在一定的局限性。例如常見的文本糾錯法,如果模型糾錯能力不夠,也只能修正一部分錯誤。

      當然,可控性問題會影響模型的使用,但并不代表完全不可用,它取決于應用場景對模型生成結果的容錯率。例如媒體行業的一些專業報道容錯率很低,要求文字嚴謹、邏輯縝密,如果使用機器生成文本則需要人工進行檢查和校對,考慮到質量和成本的問題,模型可能很難廣泛的應用,但這并不妨礙它做一些基礎工作或者在相對寬松的場景下使用,例如體育快訊、摘要生成,資料收集和整理等任務,所以在應用層面要具體場景具體分析。

      Q:從技術角度來講,模型可控性差的原因在哪,現階段是否有一些好的解決思路?

      萬:生成模型的訓練目標一般基于最大似然估計,讓生成文本與參考文本重疊度盡可能大,這個目標并不能全面反映與控制文本生成的質量,比如連貫性、信息一致性等。如果我們能設計更加精巧更加全面的訓練目標,則有可能進一步提升生成文本的質量,但是并不能完全避免錯誤。

      另一方面,我們目前仍未有一套客觀、精準的文本質量評估機制。如果不能準確評估生成結果,也就無從談起如何控制。所以我們需要設計一種全面評估文本質量的方法,有了這樣一把尺子,可以用這把尺子作為訓練的目標,對模型進行矯正進而達到更好的效果。 


      NLG應用將進入黃金期

      與學術屆相比, 產業界在計算資源、落地數據、算法評估方面有著天然的優勢。

      三位產業界分享嘉賓一致認為,通過多樣化化現實場景和面向用戶的算法應用,企業能夠掌握更豐富、更真實的業務數據,對NLG生成結果的評估也更嚴格、更細致。當前各行各業對NLG技術的落地需求非常龐大,現有技術也取得了很多不錯的應用案例。

      NLG在可控性、評估機制、準確性方面仍然需要深入探索,但并不影響其在學術與產業界的快速發展趨勢,未來3-5年內NLG技術與應用將邁入黃金發展期。

      肖欣延:百度主任架構師

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      A:在具體的應用場景中,通常會遇到領域訓練語料不足,模型效果與應用需求存在差距、預測速度較慢,影響用戶體驗等問題。以百度輸入法為例,在上線AI助聊、AI創作等NLG功能時,我們采取了以下解決方案:(1)使用文學作品作為替代語料;(2)依據結果中存在的問題調整模型設計,同時采用后處理策略提升質量;(3)采用預測加速技術,設計多層緩存機制,降低對線上實時預測的需求。

      現階段各類NLG算法都取得了不同程度的落地成果,例如:智能創作算法提升了媒體、金融、能源、辦公等行業的內容生產力;自動摘要算法加快了搜索、信息流等場景的信息獲取效率;對話技術在機器人閑聊中增強了交互體驗;機器翻譯、同聲傳譯算法成為了日常工具。不過,它仍面臨可控性不足、可靠性不足以及通用性不足等方面的挑戰。

      我認為未來3-5年,隨著生成結果可用性的不斷提升,NLG技術將在藝術創作、開放域對話以及人機交互等方向有更廣闊的應用前景。

      周浩,字節跳動AI Lab高級研究員


      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇


      A:在NLG應用方面,我分享兩個常見的問題;一是生成結果的領域適應性;二是結果的可信性。前者表示由大規模預訓練生成結果的文本風格與場景需求往往不一致,現有模型的文本輸出多偏正式、呆板,而現實場景的的文本需求應該是多樣化的,更多時候需要口語化、輕松的文案。針對這個問題,我們目前提出了一種蒙特卡洛方法,該方法通過模型的概率密度剪裁,不用微調就能得到適用于目標領域的預訓練模型。相關研究成果已發表了在了ACL2020上。 

      后者代表輸出結果的準確性和穩定性。任何模型的生成結果都不可能避免地會出現錯誤,實際應用中需要不斷人工質檢,一旦發現模型在在線服務中錯誤率過高就需要重新對模型進行訓練,這在大范圍產業應用中會帶來很高的成本。因此,如何優化算法和提高準確率是應用過程中需要解決的關鍵問題。

      我認為,未來3-5年小數據、短文本的生成算法會變得越來越成熟,目前尚不成熟的篇章內在邏輯性強的長文本生成可能也會有新的技術新突破。在應用方面,NLG應用場景廣泛,一般在人機交互中機器輸出內容的場景下都會有NLG的應用空間,同時文本生成技術本身在蛋白質設計、小分子生成等前沿科學研究領域也展現了極大的應用前景。

      段楠,微軟亞洲研究院高級研究員/研究經理

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      A:如何平衡生成質量和生成效率是所有NLG模型都要解決的常見問題。例如,傳統NLG模型在推斷過程中使用的非自回歸解碼,雖然改善了自回歸解碼速度慢的問題,卻影響了生成質量。以此問題為例,我們提出一種新型預訓練模型BANG。該方法在預訓練中通過考慮遮蓋任意長度的前文來溝通自回歸和非自回歸生成,并提出跨流可見的多流注意力機制來實現高效預訓練。

      除此之外,NLG模型在多樣性、上下文一致性、知識覆蓋性以及自動評價等問題上都需要進一步的深入探索和研究。從場景角度看,基于預訓練的文本生成技術已經在很多新領域中展示出強大的遷移能力,例如多語言場景下的跨語言文本生成任務、軟件工程領域的代碼生成任務和計算機視覺領域的圖片和視頻生成任務等??梢灶A見,未來的3-5年將是NLG研究在多語言、多模態、高性能、基于知識和精準評測等場景下繼續高速發展的黃金時期。 


      NLG論壇報告主題



      報告主題:問題自動生成:讓機器掌握自動提問的本領 

      報告人:萬小軍,北京大學

      本報告將總結問題自動生成方向的研究現狀與挑戰,同時介紹本團隊在開放問題自動生成、序列問題自動生成、多跳問題自動生成等方面所取得的研究進展。


      報告主題:故事理解與生成

      報告人:黃民烈,清華大學

      本報告將關注如何理解故事中人物動機、反應、常識、哲理,如何處理故事生成這類長文本生成任務中的長范圍連貫性,如何評價故事生成這類非開放端生成任務的生成質量,如何評價生成質量衡量指標的可靠性等問題。


      報告主題:基于多模態預訓練的文本和視覺生成

      報告人:段楠,微軟亞洲研究院

      本報告將重點關注多模態預訓練模型在內容生成上的最新進展,尤其是基于視頻的文本生成和基于文本的視頻生成。除此之外,還將總結目前在技術和評測上遇到的一系列挑戰,并指出若干未來研究方向。

      報告主題:大規模并行文本生成技術的創新和實踐

      報告人:周浩,字節跳動AI Lab

      本次報告我們將介紹字節跳動在大規模文本生成技術方面的探索,深入討論高效且不損失精度甚至提高精度的并行文本生成技術是否可行,并且嘗試從理論和實踐兩個角度給出一些初步結果。


      報告主題:多模態智能創作

      報告人:肖欣延,百度

      本報告首先介紹語言與視覺一體的統一模態預訓練,然后介紹文生圖、圖生文等多模態創作任務,最后重點從多模角度介紹百度的智能創作平臺。

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

       Tip:論壇將在10月30日以線上+線上的方式同步開放~ 

      CNCC大會官網:
      https://mobile.ccf.org.cn/web/html15/dayMeetZhibo.html?dayMeetNewsId=8a9e362c7ac879d4017ae1a45015001d&globalId=m8271748750546083841617255458379

      雷鋒網雷鋒網雷鋒網雷鋒網

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      6位產學專家共話NLG:從大模型競賽到多模態應用 | CNCC 2021技術論壇

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: www.yw尤物| 天天做天天爱夜夜爽女人爽| 午夜DY888国产精品影院| 欧美日本精品一本二本三区| 三级片久久| 亚洲日本三级| 无码日日模日日碰夜夜爽| 日韩AV一区二区三区| 裸体女人高潮毛片| 国产成人麻豆亚洲综合无码精品| 国产精品jizz在线观看软件| 97se亚洲精品一区| 国产欧美日韩另类在线专区| 亚洲中字幕日产av片在线| 亚洲中文字幕久久精品无码喷水| 日韩av一区二区三区不卡| 91纯肉动漫| 四虎av永久在线精品免费观看| 日日麻批免费40分钟无码| 国产无遮挡aaa片爽爽| 色香色欲综合网| 丰满多毛的大隂户视频| 超碰免费公开| 亚洲鸥美日韩精品久久| AV在线影院| 精品国产中文一级毛片在线看| 蜜桃在线免费观看网站| 成人综合色图| 台湾佬中文娱乐网址| 激情内射亚州一区二区三区爱妻| 综合AV| 福利在线视频导航| 亚洲人成人网站色www| 久久精品免视看国产成人明星| 人妻少妇乱子伦精品无码专区电影| 久久国产欧美日韩精品图片| 女同AV在线播放| www黄色com| 国产欧美精品一区二区色综合| 一本大道人妻中字幕在线视频| 精品无码专区久久久水蜜桃|