<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給鄭佳美
      發送

      0

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      本文作者: 鄭佳美   2025-02-24 14:14
      導語:DeepSeek 革命性 NSA 注意力機制問世。

      2 月 18 日,馬斯克發布 Grok 3 的熱度還沒過去,梁文鋒就作為 co-authors 帶著 DeepSeek 研究團隊殺了回來。

      公布新研究的推文發布不到 3 個小時,就帶來了三十多萬的瀏覽量,火爆程度不遜 OpenAI。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      而這次 DeepSeek 團隊最新的研究論文更是重磅,論文中介紹了一種全新的,可用于超快速的長上下文訓練與推理的注意力機制 —— NSA,值得一提的是,NSA 還具有與硬件對齊的特點,十足的硬件友好。

      論文中提到的 NSA 核心組成主要包括三點:分別是動態分層稀疏策略、粗粒度的 token 壓縮以及細粒度的 token 選擇。有了這三點核心技術的加持,就能夠在有效降低預訓練成本的情況下,同時顯著提升推理速度,特別是在解碼階段實現了高達 11.6 倍的提升。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      更讓人感到眼前一亮的是,DeepSeek 創始人兼 CEO 梁文鋒這次也出現在了合著名單之中,不僅親自上陣,還親自提交了論文。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      看熱鬧不嫌事大的網友甚至還借此調侃奧特曼:DeepSeek 又發了一篇很強的新論文了哦!

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      DeepSeek 填補了稀疏注意力機制存在的缺陷

      隨著 AI 領域的不斷發展,長上下文建模能力的關鍵性日益凸顯,尤其在現實世界的應用中有著廣泛需求,比如深度推理、代碼庫級代碼生成和多輪自主代理系統。就比如 DeepSeek 自家的 R1 模型就是突破了這個技術,使其能夠處理整個代碼庫、長篇文檔,并保持成千上萬 token 的對話連貫性,同時也能在長距離依賴的情境下進行復雜推理。

      但序列越來越長,傳統的注意力機制就開始因為太過復雜成為了造成運行延遲的最大因素。理論分析顯示,使用 softmax 架構的注意力計算在解碼 64k 長度的上下文時,幾乎占據了總延遲的 70-80%,傳統注意力機制存在明顯缺陷,提升速度成了一件非常重要的事情。

      并且自然的實現高效長上下文建模的方法是利用 softmax 注意力的固有稀疏性,選擇性地計算關鍵的 query-key 對,從而大幅降低計算開銷,并保持模型性能。

      近年來,相關研究在這一方向取得了進展,提出了如 KV 緩存淘汰、塊狀 KV 緩存選擇,以及基于采樣、聚類或哈希的選擇方法等策略。盡管這些方法展示了很大的潛力,但現有的稀疏注意力技術在實際部署時種仍未能達到預期效果。并且大部分研究主要集中于推理階段,缺乏對訓練階段有效支持,因此并不能充分發揮稀疏模式的優勢。

      為實現更高效的稀疏注意力,DeepSeek 研究團隊提出了一種原生可訓練的稀疏注意力架構 NSA,這個架構的核心內容是通過動態分層稀疏策略,結合粗粒度的 token 壓縮和細粒度的 token 選擇,從而保留全局上下文感知能力和局部精確性。

      同時 NSA 通過精妙的算法設計和針對現代硬件的優化,實現在計算速度上的顯著提升,并支持端到端訓練,既提高了推理效率,又減少了預訓練計算量,同時保持了模型性能。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      除此之外,新研究還通過使用 Triton,開發了與硬件高度兼容的稀疏注意力內核。

      DeepSeek 的優化策略則是采用不同的查詢分組方法,并通過以下特性實現接近最優的計算強度平衡:

      1、組內數據加載:每次內循環加載該組所有頭的查詢及其共享的稀疏 KV 塊索引。

      2、共享KV加載:內循環中連續加載 KV 塊,減少內存加載的開銷。

      3、網格循環調度:由于內循環長度在不同查詢塊間幾乎相同,將查詢/輸出循環與 Triton 的網格調度器結合,簡化并優化了內核的執行。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      DeepSeek:NSA 已在多面碾壓全注意力

      在對 NSA 進行技術評估時,研究人員分別從通用基準性能、長文本基準性能、思維鏈推理性能三個角度,分別將 NSA 與全注意力基線和 SOTA 稀疏注意力方法進行比較。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      測試中 NSA 的預訓練損失曲線相比全注意力基線呈現出更加穩定和平滑的下降趨勢,且始終優于全注意力模型。

      除此之外,為了驗證 NSA在實際訓練和推理中的效果,DeepSeek 研究團隊采用了當前領先的 LLM 常用實踐,選擇了一個結合分組查詢注意力(GQA)和混合專家(MoE)架構的模型作為樣本,該模型的總參數量為 27B,其中 3B 為活躍參數。

      在這個基礎上,DeepSeek 對 NSA、全注意力和其他注意力機制分別進行了評估。結果顯示,盡管 NSA 采用了稀疏性,但其整體性能仍然優于所有基線模型,包括全注意力模型,并且在 9 項評測指標中有 7 項表現最好。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      另外,在長上下文任務中, NSA 在 64k 上下文的“大海撈針”測試中表現出了極高的檢索精度。這歸功于其分層稀疏注意力設計,通過粗粒度的token壓縮實現了高效的全局上下文掃描,同時通過細粒度的選擇性標記來保留關鍵的信息,從而有效平衡了全局感知與局部精確度。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      同時研究團隊還在 LongBench 基準上,也對 NSA 進行了評估。最終 NSA 以最高平均分0.469,優于其他所有基準。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      在思維鏈推理性能評估方面,研究人員通過從 DeepSeek-R1 進行知識蒸餾,并借助 100 億條 32k 長度的數學推理軌跡進行了監督微調(SFT)。

      最后用 AIME 24 基準來評估所生成的兩個模型Full Attention-R(全注意力基準模型)和 NSA-R(稀疏變體模型)的表現。

      在 8k 上下文設置下,NSA-R 的準確率超過了 Full Attention-R,差距為 0.075。即使在 16k 上下文環境中,NSA-R 仍然保持著這一優勢,準確率高出 0.054。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      NSA 驗證清華姚班早期論文

      值得一提的是,論文末尾提到的處理復雜數學問題的示例,再次驗證了兩年前清華大學姚班一篇論文中的結論。

      由于 Transformer 架構在注意力機制上的局限,處理復雜數學問題時,tokens 數量過多常常會導致性能下降,特別是在任務復雜度較高時。

      DeepSeek 的最新研究通過優化問題理解和答案生成,將所需的tokens數量減少至 2275,從而成功得出了正確答案。而與之對比的基線方法,盡管消耗了 9392 個 tokens,最終卻得出了錯誤的答案。這一顯著的提升展示了新方法在效率和準確性上的優勢。

      清華大學姚班的那篇論文探討了在 Transformer 架構下,模型在計算兩個四位數乘法(例如 1234 × 5678 )時的表現。研究發現,GPT-4 在處理三位數乘法時的準確率為 59%,然而當任務變為四位數乘法時,準確率卻驟降至 4%。這一現象揭示了在面對更復雜計算時,Transformer 架構的推理能力受到顯著限制。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      這些研究結果表明,盡管 Transformer 架構在某些任務中表現出色,但在處理復雜推理任務,尤其是需要大量信息處理時,仍然存在瓶頸。

      關于 DeepSeek 論文結尾的復雜數學題,雷峰網(公眾號:雷峰網)也用 GPT o3-mini 進行了解讀,最終呈現的解題過程比 DeepSeek 論文中給出的解題過程要長出 2 倍之多。


      由此可見,大模型的發展就是一個不斷推陳出新的過程。

      而反觀 DeepSeek,未來的研究可能會更加專注于如何優化模型在長文本和代碼庫分析中的表現,以進一步提升其推理能力和實用性。

      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。

      梁文鋒親自掛名,DeepSeek 最新論文丟出注意力新機制,推理速度直線提升 11 倍

      分享:
      相關文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 中国亚洲女人69内射少妇| 另类一区| 国产AⅤ爽aV久久久久成人小说| 亚欧乱色精品免费观看| 日本免费有码中文字幕| 口爆av| 少妇人妻88久久中文字幕| 亚洲av无码牛牛影视在线二区| 色婷婷av久久久久久久| 久久发布国产伦子伦精品| 日韩一级亚洲一午夜免费观看中文版国语版 | 免费又爽又大又高潮视频| 祥云县| 欧美性大战xxxxx久久久| 欧美videosdesexo吹潮| 国产亚洲精选美女久久久久 | 中文字幕高清在线观看| 久久国产成人免费网站| 国产精品久久..4399| 亚洲成人性爱网站| 国产一区二区在线观看我不卡| 香蕉eeww99国产在线观看| 国产精品导航一区二区| 亚洲国产精品18久久久久久| 九江县| 精品人妻无码中文内容| 国产一区二区三区美女| www.伊人五月天| 成人免费看片又大又黄| 国产一区二区在线视频观看| 乌克兰少妇xxxx做受野外| 亚洲男人天堂网| 成人综合站| 亚洲AV成人无码久久精品黑人| 在线欧美精品二区三区| 乱人伦人妻中文字幕不卡| 日本一卡2卡3卡4卡无卡免费| 国产免费无码一区二区三区| 亚洲AV中文| 中文人妻无码| 国产欧美成人一区二区a片|