<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給我在思考中
      發送

      0

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      本文作者: 我在思考中 2021-11-15 10:19
      導語:秘密藏在神經正切核中。
      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量
      經典的「沒有免費午餐定理」表明:如果某種學習算法在某些方面比另一種學習算法更優,則肯定會在其它某些方面弱于另一種學習算法。

      也就是說,對于任何一個學習問題,沒有最優的算法,只有最合適的算法。

      而在這項最新研究中,作者向我們揭示了這一現象背后的數學原理:每個神經網絡,都是一個高維向量。

      在高維向量空間中,不存在單調的大小比較。如果兩個向量A、B是垂直的,則內積為零,通常也反映兩者更加不相關,比如作用在物體運動方向的垂直方向的力就不做功。

      類似地,如果兩個神經網絡對應的向量內積為零,則反映它們的相似程度更低。

      在擬合第三個向量C,也就是通過數據進行訓練和學習時,如果A和C內積更大,則表示A更容易學習C,也反映B更不容易學習C。

      另一方面,當A通過訓練變得更加接近C時,與C垂直的另一個神經網絡D也會因此和A更加不相關,也就是A變得更加難以學習D。

      此即本文提出的「沒有免費午餐定理」加強版。

      利用這個數學描述,我們就可以量化神經網絡的泛化能力。

      該研究主要基于寬神經網絡,而表示神經網絡的高維空間的每一個維度,都是由神經正切核的特征向量構成的。

      神經正切核與寬神經網絡的聯系,在之前的文章中已有介紹,參見:
      深度學習為何泛化的那么好?秘密或許隱藏在內核機中

      同時,作者也指出,該發現在寬度較小的網絡中也成立。

      在高維空間中,神經網絡泛化性的非單調數學關系一覽無余。
      作者 | Mr Bear、杏花

      編輯 | 青暮

      長期以來,探尋神經網絡泛化性能的量化方法一直是深度學習研究的核心目標。

      盡管深度學習在許多任務上取得了巨大的成功,但是從根本上說,我們還無法很好地解釋神經網絡學習的函數為什么可以很好地泛化到未曾見過的數據上。

      從傳統的統計學習理論的直覺出發,過參數化的神經網絡難以獲得如此好的泛化效果,我們也很難得到有用的泛化界。

      因此,研究人員試圖尋找一種新的方法來解釋神經網絡的泛化能力。

      近日,加州大學伯克利分校的研究者于 Arxiv 上在線發表了一篇題為「NEURAL TANGENT KERNEL EIGENVALUES ACCURATELY PREDICT GENERALIZATION」的論文,指出「神經正切核」的特征值可以準確地預測神經網絡的泛化性能。

      「神經正切核」是近年來神經網絡優化理論研究的熱點概念,研究表明:通過梯度下降以無窮小的步長(也稱為梯度流)訓練的經過適當隨機初始化的足夠寬的神經網絡,等效于使用稱為神經正切核(NTK)的核回歸預測器。

      在本文中,作者指出:通過研究神經網絡的神經正切核的特征系統,我們可以預測該神經網絡在學習任意函數時的泛化性能。具體而言,作者提出的理論不僅可以準確地預測測試的均方誤差,還可以預測學習到的函數的所有一階和二階統計量。

      此外,通過使用量化給定目標函數的「可學習性」的度量標準,本文作者提出了一種加強版的「沒有免費午餐定理,該定理指出,對于寬的神經網絡而言:提升其對于給定目標函數的泛化性能,必定會弱化其對于正交函數的泛化性能。

      最后,作者將本文提出的理論與寬度有限(寬度僅為 20)的網絡進行對比,發現本文提出的理論在這些寬度較小的網絡中也成立,這表明它不僅適用于標準的 NTK,事實上也能正確預測真實神經網絡的泛化性能。

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      論文地址:https://arxiv.org/pdf/2110.03922.pdf


      1

      問題定義及研究背景

      作者首先將上述問題形式化定義為:從第一性原理出發,對于特定的目標函數,我們是否高效地預測給定的神經網絡架構利用有限的個訓練樣本學習到的函數的泛化性能?

      該理論不僅可以解釋為什么神經網絡在某些函數上可以很好地泛化,而且還可以預測出給定的網絡架構適合哪些函數,讓我們可以從第一性原理出發為給定的問題挑選最合適的架構。

      為此,本文作者進行了一系列近似,他們首先將真實的網絡近似為理想化的寬度無限的網絡,這與核回歸是等價的。接著,作者針對核回歸的泛化推導出了新的近似結果。這些近似的方程能夠準確預測出原始網絡的泛化性能。

      本文的研究建立在無限寬網絡理論的基礎之上。該理論表明,隨著網絡寬度趨于無窮大,根據類似于中心極限定理的結果,常用的神經網絡會有非常簡單的解析形式。特別是,采用均方誤差(MSE)損失的梯度下降訓練的足夠寬的網絡等價于 NTK 核回歸模型。利用這一結論,研究者們研究者們通過對核回歸的泛化性能分析將相同的結論推廣至了有限寬的網絡。

      Bordelon 等人于 2020 年發表的 ICML 論文「Spectrum dependent learning curves in kernel regression and wide neural networks」指出,當使用 NTK 作為核時,其表達式可以精準地預測學習任意函數的神經網絡的 MSE。我們可以認為,當樣本被添加到訓練集中時,網絡會在越來越大的輸入空間中泛化得很好。這個可學習函數的子空間的自然基即為 NTK 的特征基,我們根據其特征值的降序來學習特征函數。

      具體而言,本文作者首先形式化定義了目標函數的可學習性,該指標具備 MSE 所不具備的一些理想特性。接著,作者使用可學習性來證明了一個加強版的「沒有免費午餐定理,該定理描述了核對正交基下所有函數的歸納偏置的折中。該定理表明,較高的 NTK 本征模更容易學習,且這些本征模之間在給定的訓練集大小下的學習能力存在零和競爭。作者進一步證明,對于任何的核或較寬的網絡,這一折中必然會使某些函數的泛化性能差于預期。


      2

      特征值與特征向量

      令A為n階方陣,若存在數λ和非零向量x,使得Ax=λx,則λ稱為A的特征值,x為A對應于特征值λ的特征向量。

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 1:特征值與特征向量的定義

      簡而言之,由于λ為常量,矩陣A并不改變特征向量的方向,只是對特征向量進行了尺度為λ的伸縮變換:
      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 2:特征值與特征向量的幾何意義

      通過在特征向量為基構成的向量空間中將神經網絡重新表示,我們得以將不同初始化的神經網絡以及學習后的神經網絡進行量化對比。


      3

      神經正切核

      一個前饋神經網絡可以代表下面的函數:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      其中,θ是一個參數向量。令訓練樣本為x,目標值為y,測試數據點為x',假設我們以較小的學習率η執行一步梯度下降,MSE 損失為UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量。則參數會以如下所示的方式更新:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      我們希望知道對于測試點而言,參數更新的變化有多大。為此,令θ線性變化,我們得到:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      其中,我們將神經正切核 K 定義為:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      值得注意的是,隨著網絡寬度區域無窮大,UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量修正項可以忽略不計,且UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量在任意的隨機初始化后,在訓練的任何時刻都是相同的,這極大簡化了對網絡訓練的分析。可以證明,在對任意數據集上利用 MSE 損失進行無限時長的訓練后,網絡學習到的函數可以歸納如下:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量


      4

      近似核回歸的泛化

      為了推導核回歸的泛化性,我們將問題簡化,僅僅觀察核的特征基上的學習問題。我們將核看做線性操作,其特征值/向量對UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量滿足:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      直觀地說,核是一個相似函數,我們可以將它的高特征值特征函數解釋為「相似」點到相似值的映射。在這里,我們的分析重點在于對泛化性的度量,我們將其稱之為「可學習性」,它量化了標函數和預測函數的對齊程度:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      我們將初始化的神經網絡f和學習目標函數f^分別用特征向量展開:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      并以內積的形式提出可學習性的表達式:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量


      這樣就可以計算f和f^之間的接近(可學習)程度。

      作者還推導出了學習到的函數的所有一階和二階統計量的表達式,包括恢復之前的 MSE 表達式。如圖 3 所示,這些表達式不僅對于核回歸是相當準確的,而且也可以精準預測有限寬度的網絡。

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 3:為四種訓練集大小不同的布爾函數訓練神經網絡的泛化性能度量。無論是對 MSE 還是可學習性而言,理論預測結果(曲線)與真實性能(點)都能夠很好地匹配。


      5

      核回歸的沒有免費午餐定理

      除了對泛化性能的近似,本文作者還針對核回歸問題提出了一種加強版的「沒有免費午餐定理」。經典的「沒有免費午餐定理」的結論是:由于對所有可能函數的相互補償,最優化算法的性能是等價的。

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 4:經典的沒有免費午餐定理(來源:《機器學習》,周志華)

      簡單地說,如果某種學習算法在某些方面比另一種學習算法更優,則肯定會在其它某些方面弱于另一種學習算法。具體而言,沒有免費午餐定理表明:

      • 1)對所有可能的的目標函數求平均,得到的所有學習算法的「非訓練集誤差」的期望值相同;

      • 2)對任意固定的訓練集,對所有的目標函數求平均,得到的所有學習算法的「非訓練集誤差」的期望值也相同;

      • 3)對所有的先驗知識求平均,得到的所有學習算法的「非訓練集誤差」的期望值也相同;

      • 4)對任意固定的訓練集,對所有的先驗知識求平均,得到的所有學習算法的的「非訓練集誤差」的期望值也相同。

      對于核回歸問題而言,所有可能的目標函數UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量的期望滿足:

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      所有核特征函數的可學習性與訓練集大小正相關。

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 5:可學習性的特征函數之和始終為訓練集的大小。

      如圖 5 所示,堆疊起來的柱狀圖顯式了一個在十點域上的十個特征函數的隨機 D 可學習性。堆疊起來的數據柱顯示了十個特征函數的 D-可學習性,他們都來自相同的訓練集 D,其中數據點個數為 3,我們將它們按照特征值的降序從上到下排列。每一組數據柱都代表了一種不同的網絡架構。對于每個網絡架構而言,每個數據柱的高度都近似等于 n。在圖(A)中,對于每種學習情況而言,左側的 NTK 回歸的 D-可學習性之和恰好為 n,而右側代表有限寬度網絡的柱與左側也十分接近。


      6

      實驗結果

      在本文中,作者通過一系列實驗證明了對有限寬度網絡和 NTK 回顧IDE所有理論預測。在實驗過程中,所有的實驗架構為帶有 4 個隱藏層的全連接網絡,使用的激活函數為 ReLU,網絡寬度為 500。由于使用了全連接網絡,因此其核為旋轉不變性 NTK。實驗使用了三個不同的輸入空間x(離散的單位元、超立方體、超球面)。對于每個輸入空間而言,x的特征模會被劃分到k∈N的退化子集中,其中 k 越大則空間中的變化越快。在所有情況下,隨著k的增大,特征值會減小,這與人們普遍認為的神經網絡傾向于緩慢變化函數的「頻譜偏置」(Spectral bias)是一致的。

      神經核的譜分析結果

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 6:神經核的譜分析使我們可以準確地預測學習和泛化的關鍵度量指標。

      圖 6 中的圖表展示了帶有四個隱藏層、激活函數為 ReLU 的網絡學習函數UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量的泛化性能,其中訓練數據點的個數為 n。理論預測結果與實驗結果完美契合。

      • (A-F)經過完整 batch 的梯度下降訓練后,模型學到的數據插值圖。隨著 n 增大,模型學到的函數UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量越來越接近真實函數。本文提出的理論正確地預測出:k=2 時學習的速率比 k=7 時更快,這是因為 k=2 時的特征值更大。

      • (G,J)UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量為目標函數和學習函數之間的 MSE,它是關于 n 的函數。圖中的點代表均值,誤差條代表對稱的 1σ方差。曲線展示出了兩盒的一致性,它們正確地預測了 k=2 時 MSE 下降地更快。

      • (H,K)UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量為偽本征模的傅里葉系數,UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量。由于 k=2 時的特征值更大,此時的傅里葉系數小于 k=7 時的情況。在這兩種模式下,當UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量被充分學習時,傅里葉系數都會趨向于 0。實驗結果表明理論預測的 1UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量與實驗數據完美契合。

      • (I,L)可學習性:對于目標函數和學習到的函數對齊程度的度量。隨著 n 增大,UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量在[0,1]的區間內單調遞增。由于 k=2 時的特征值更大,其可學習性也更高。

      預測可學習性UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 7:理論預測值與任意特征函數在多種輸入空間上的真實的可學習性緊密匹配。每張圖展示了關于訓練集大小 n 的特征函數的可學習性UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量。NTK 回歸和通過梯度下降訓練的有限寬度網絡的理論曲線完美匹配。誤差條反映了1UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量由于數據集的隨機選擇造成的方差。(A)單位圓上正弦特征函數的可學習性。作者將單位圓離散化為 M=2^8 個輸入點,訓練集包含所有的輸入點,可以完美地預測所有的函數。(B)8d 超立方體頂點的子集對等函數的可學習性。k值較高的特征函數擁有較小的特征值,其學習速率較慢。當 n =2^8 時,所有函數的預測結果都很完美。虛線表示 L-n/m 時的情況,所有函數的可學習性都與一個隨機模型相關。(C)超球諧函數的可學習性。具有較高 k 的特征函數有較小的特征值,學習速率較慢,在連續的輸入空間中,可學習性沒有嚴格達到 1。

      可學習性的統一形式

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 8:本征模的可學習性 vs. 特征值的統一函數形式。

      對于任意的數據集大小和輸入域而言,本征模的可學習性嚴格符合曲線UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量的形式,其中 C 為與問題無關的參數。理論曲線(實線)在每種情況下都是類似于 Sigmoid 函數的形狀。NTK 回歸和有限寬度網絡的真實的本征模可學習性UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量完美地契合。垂直的虛線代表每個學習問題下的 C 值。(A-C)可學習性 vs. 單位圓本征模的特征值。(D-F)n=64 時的可學習性曲線。此時每條曲線上的本征模都高于(A-C)中的情況,這說明由于 n 的增大導致可學習性也得以提升。(G)中的點來自(A-F),經過了放縮處理,放到了同一張圖中。

      非均方誤差曲線

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 9:本文提出的理論可以正確預測,對于特征值較小的特征函數。

      MSE會隨著數據點被加入到較小的訓練集中而增大。(A-C)在給定的 n 個訓練點的 3 個不同域上分別學習 4 個不同特征模時,NTK 回歸和有限網絡的泛化 MSE。理論曲線與實驗數據非常吻合。

      寬度有限網絡下的情況

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      圖 10:即使是對于寬度非常窄的網絡,本文理論上對可學習性的預測仍然十分準確。

      上圖顯式了 8d 超立方體上的四個特征模式的可學習性和訓練集大小的關系,作者使用了一個包含 4 個隱藏層的網絡進行學習,其網絡寬度可變,激活函數為 ReLU。所有圖表中的理論曲線都相同,虛線表示了樸素的、泛化性能極差的模型的可學習性。(A)嚴格的 NTK 回歸下的可學習性(B-F)有限寬度網絡的可學習性。隨著寬度的減小,平均的可學習性微弱增大, 1σ誤差增大。盡管如此,即使在寬度僅僅為 20 時,平均學習率也與理論預測值十分契合。


      7

      質疑

      在reddit上,有人指出,這種量化計算的前提是要學習的函數f^是已知的,“但如何應用于學習函數完全未知的情況呢?”

      對此,一作回應道:沒錯,我們的理論假設知道完整的目標學習函數 f^,而在實踐中我們只能看到一個訓練集。

      “但從折中的角度來使用該理論也是可行的。假設我們知道目標學習函數屬于少數可能函數之一。 該理論原則上包含足夠的信息來優化內核,因此它在所有可能函數上都具有很高的平均性能。 當然,目標學習函數永遠不會只是少數幾個離散選項中的一個。但是如果擁有一些關于目標學習函數的先驗——例如,自然圖像可能服從某些統計。另外,或許也可以從數據-數據內核矩陣中獲得足夠的信息來使用該理論,我們以后可能會探索這個方向!”


      8

      結語

      在本文中,作者提出了一種神經網絡泛化的第一性原理,該理論能有效、準確地預測許多泛化性能指標。這一理論為神經網絡的歸納偏置提供了新的視角,并為理解它們的學習行為提供了一個總體框架,為許多其他深度學習之謎的原理研究打開一扇嶄新的大門。

      參考鏈接:
      https://www.reddit.com/r/MachineLearning/comments/qfy76l/r_neural_tangent_kernel_eigenvalues_accurately/

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      雷鋒網雷鋒網


      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      UC伯克利發現「沒有免費午餐定理」加強版:每個神經網絡,都是一個高維向量

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 美女被躁出白浆视频播放| 91视频大全| 久久av高潮av喷水av无码| 91精品国产综合久久久不打电影| 成年男女免费视频在线观看不卡 | 四虎永久在线精品免费视频观看| 十八岁以下禁止观看黄下载链接| 国产在线精品无码二区| yy19影院| 俺也来俺也去俺也射| 黑人变态另类videos| 伊人久久大香线蕉精品,亚洲国产一成人久久精品,久久99精品久久久久久三级,亚 | 成人另类稀缺在线观看| 亚洲欧美日韩在线不卡| 另类专区欧美在线亚洲免费| 国产97色在线 | 日韩| 遂川县| 成a人片亚洲日本久久| 五月综合色| 国产精品爽爽v在线观看无码| 国产乱子伦一区二区三区| 久久亚洲精品人成综合网| 欧美老肥妇做爰bbww| 天堂无码在线| 日日插中文字幕| 精品人妻一区介绍| 人人妻人人澡人人爽国产一区| 日日爽日日操| 无码人妻一区二区三区AV| 国产精品99久久久久久宅男| 国产在线观看第一页| 久久一本人碰碰人碰| 黄网免费观看| 中文字幕亚洲综合久久| 国产V视频| 亚洲色图综合| 婷婷亚洲五月花视频| 欧美色A?V| 丰满熟女人妻一区二区三| 成年女人免费毛片视频永久| 亚洲日韩中文字幕在线播放|