<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能學術 正文
      發私信給我在思考中
      發送

      0

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      本文作者: 我在思考中 2021-11-01 09:51
      導語:深度學習構建工程中的大殺器。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      身處機器學習時代的我們通常頭腦被目標函數和優化算法所充斥。這可能會將我們禁錮到認知的角落中無法脫身。

      當我們跳出這個怪圈兒,將一直所追求的“優化目標”變成“泛化能力”時,說不定能夠事半功倍,得到意想不到的好處。比如,我們甚至可以去要求那種高深莫測的“直覺”。

      編譯 | Don

      編輯 | 青暮

      在這篇文章中,谷歌機器人方向研究科學家Eric Jang將介紹一個深度學習構建工程中的大殺器,也是他在工作學習中經常使用、總結和堅信的一個關鍵的工程設計原則。

      “這個原則指導著我,并讓我形成如今的“研究品味”,也構成了我工作中的設計思路。這樣的習慣或者設計原則讓我走的更遠,指導著我構建出大規模、通用的機器學習系統?!?/span>

      以下為全文分享:

      近年來,隨著“神經網絡縮放法則(Neural Scaling Laws)”的誕生,人們能夠更加方便的利用起互聯網上大規模的數據,也就是使用無監督的方法進行預訓練操作,當然還有一些其他關于模型的工作。這就為機器學習未來的發展指出了一條令人興奮的道路:

      1. 對于泛化來說,數量巨大而內容豐富的數據是很重要的,遠比那些巧妙的模型設計技巧更加有效。

      2. 如果你相信上一點的話,那么你所訓練的模型的泛化能力,將和你喂給模型的數據的多樣性以及速度,呈現出明顯的正比例關系。

      所以很多人認為,如果你使用有監督的數據去訓練你的深度學習模型,那么你的模型就會像個容量很大的“數據海綿”一樣——它們可以記住大量的數據,并且可以通過數以萬計的批量訓練過程,快速的學習、記憶并且輸出模型結果。

      也許你會說數據多了也沒用,好多模型的學習容量就僅此而已。但是目前來看,ResNet和Transformers這樣的現代深度學習架構還處于一種“沒有吃飽”的狀態,他們在訓練的過程中還能吃下更多的有監督數據。

      我們知道,在模型訓練的過程中,如果損失函數(或者叫經驗風險)降低到最低的時候,這個模型在理論上就已經“記住”了喂入的訓練集。從傳統的意義上來講,當損失函數降低到最小之后,如果繼續訓練的話,會出現過擬合的問題。

      但是對于參數量和泛化能力驚人的深度學習模型來說,似乎即便是過擬合了,它的泛化能力表現的也還不錯。以下是“Patterns, Prediction, and Actions”一書中關于“雙重下降(Double Descent)”現象的描述:它說明了在某些問題上,即使訓練損失完全最小化,過度的訓練模型也能繼續減少測試誤差或測試風險。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      在最近ICLR的一個Workshop中的論文也研究了這一現象,他們在一個合成數據集上進行了實驗。

      結果表明,如果你的模型已經收斂,損失函數很低,并且在這種零訓練損失的模式下仍然繼續訓練,當訓練的時間足夠長的時候,模型就會突然有一種“頓悟Epiphany”,并在接下來的訓練過程中學著去歸納總結(作者將之稱作“摸索Grokking”)。此外,該論文還提出了證據,表明增加訓練數據,實際上減少了歸納所需的優化操作次數。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      這就像我的同事Chelsea Finn曾經跟我說的那樣:“記憶是走向泛化的第一步!”

      結果中表示,如果我們過度訓練,用這樣的方式訓練出來的最先進的神經網絡模型,能夠做出真正讓人印象深刻的事情。我們在這里展示一個DALL-E模型。當我們告訴它,要生成一個“一只香蕉在表演脫口秀”的時候,它畫出了這樣的圖片:

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      一張不過癮?再來一個。如果我們讓DALL-E生成“一個戴著耳機的熊貓寶寶盯著鏡子里的倒影”的圖片。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      請注意,在我們喂給模型的訓練數據中并沒有“熊貓照鏡子”或者“香蕉樣子的喜劇演員”這樣的圖片(我覺得),所以這些結果表明,DALL-E模型已經學會從文本中區分并解釋不同的概念,然后在圖像中渲染對應的事物實體,并讓它們在一定程度上做出我們想要的動作或狀態。

      細思極恐,我們只要通過這種“單純命令(Just Ask)”的語言命令,就能指導深度學習模型來輸出或執行一些我們甚至都不知道是什么玩意兒的東西。這啟發了我們!讓我們覺得,這種“提示工程Prompt engineering”式的模型,能夠用來改善我們的機器學習模型。這里我們展出一條推文,討論了用“虛幻引擎Unreal Engine”這個詞兒給VQGAN+CLIP模型打底,是怎么讓圖像質量大幅提高的。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      進一步來說,如果我們能夠將“只要求泛化”這一原則擴展到其他無法進行性能分析的挑戰性問題上呢?



      1

      強化學習:不是塊好的數據海綿

      與監督學習相比,強化學習算法在面對大量差異化的數據時,其利用能力和計算效率要低的多。為了深入了解為什么會這樣,讓我們考慮一個思想實驗:我們要去訓練一個通用的機器人,讓這個機器人在非結構化的環境中完成數百萬的任務。

      標準的馬爾可夫決策過程設置如下:策略被表示為行動的狀態條件分布,p(a|s);而環境則由獎勵函數組成:r(st,at);轉換函數表示為p(st+1|st,at)。初始狀態和任務目標被編碼在初始狀態s0中,它是一個從分布p(s0)中取樣的。

      我們算法的目標是使整個事件中的獎勵函數之和最大化,在不同的初始狀態下取樣自p(s0):

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      讓我們假設存在某種“最優策略”,該策略可以實現最大化的激勵max0(R0)?!癝upremum”可能在這種情況下更合適,但是為了讓這個式子更好的計算和記憶,我們簡化之。我們想讓模型p(theta(a|s)盡可能的接近于p*(a|s).

      如果我們能夠得到最優策略p*(a|s),并將之稱作“上帝視角Oracle”,并可以像有監督的數據集一樣通過查詢上帝視角來獲取其標簽。這樣的話,我們就可以去訓練一個前饋策略,將狀態映射到上帝視角上,并且享受一切監督學習方法所特有的優點:穩定的訓練過程和操作、大批量、多樣化的離線數據集,不用費勁兒和環境互動。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      然而,在強化學習中,我們往往沒有專家系統可以查詢,所以,我們必須從模型自身所收集的經驗數據中找到監督信息,并據此改進我們的策略。要做到這一點,我們需要估計出,能夠使模型策略更接近于最優點的梯度,這就需要得到當前策略在這個環境中的平均偶發回報值(average episodic return of the current policy),然后估計該回報相對于參數的梯度。如果你把環境收益當做一個關于某些參數的黑箱來看的話,你可以使用對數衍生技巧(log-derivative)來估計這些梯度。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      這個梯度估計包含兩個期望組成,我們需要對其進行數學近似。首先是計算其本身,它是對起始狀態的一個期望值。在我之前的文章中,我提到過對二項式變量(例如機器人在單一任務上的成功率)的精確估計可能需要成千上萬次的實驗,這樣才能達到百分之幾的統計確定性。這是對于當時我那篇文章中假設的通用型機器人來說的。

      但是我們的任務可能包括數以百萬計的任務和數不清的超多場景,那這使得精確評估的成本過高,可能我們強化學習算法還沒學會,時間卻過去幾百年了。

      第二個期望是在策略梯度的估計中遇到的一些算法,比如CMA-ES,直接從策略參數分布中采樣樣本,而其他強化學習算法,如PPO,則是從策略分布p_theta(a|s)中抽取樣本,并使用反向傳播法則來計算收益相對于參數的梯度。

      而后者通常是實際中最常用的解決方法,因為行動參數的搜索空間,通常要比策略參數的搜索空間要小(因此需要更少的環境交互來估計梯度)。

      如果在一個單一的上帝視角標記的標簽a~p*(a|s)上進行監督的克隆操作,會得到一些監督的梯度向量g*。但是如果使用強化學習的話,想要達到同樣的效果,是需要相當于O(H(s0)*H(a))倍的梯度向量監督才能實現的,而且其估計只能看做是一個相對較低的變異估計(low-variance estimate)。這種操作無疑是十分復雜的,會讓我們的人工成本和操作過程十分復雜,手忙腳亂。在這種操作中,我們需要假設初始狀態的熵分布有一個乘法系數O(H(s0)),并用其來估計R(theta)的分布。而且還要用O(H(a))來估計Delta_thetaR(theta)本身。

      所以說,強化學習,尤其是在獎勵稀疏化、多樣化、任務可能是多樣性的場景中進行在線的強化學習,是需要大量的輪回滾動來準確估計回報以及他們的梯度向量的。

      你必須在每一個小批量(mini-batch)的更新中來提供這些信息,這是這種操作所必須的成本!當環境需要處理繁復多樣化的場景,并要求對未見過的情況進行歸納、總結和預測的時候,會需要在訓練的過程中提供更多更全面的訓練數據樣本,也要求數據樣本具有更加全面的多樣化。

      OpenAI DOTA的開發團隊發現,在訓練過程中,只有他們的mini-batch中擁有數以百萬計的樣本的時候,才能將梯度噪聲降低到可以接受的水平。

      這在直覺上是可以講的通的:如果我們是模型R(theta),在我們進行訓練和學習的時候,每次接收mini-batch個樣本,而我們需要去對s0個場景進行學習區分,而且還不能狗熊掰棒子似的學著新的而慢慢忘了之前的,那么當我們從監督學習轉變成在線強化學習的時候,可能就會需要更大的訓練樣本量,更多的訓練batch,這個樣本個數的增加可能是數倍、數十倍的增加。


      2

      那離線強化學習怎么樣呢?

      既然在線強化學習不太行,那離線版本的強化學習會不會更好呢?我們現在討論一下Deep Q-Learning這樣的離線強化學習方法在(S,A,R,S)這樣的數據集上的表現。

      這種方法是通過bootstrapping來工作的。其中我們將價值函數回歸到的目標值是使用相同網絡對下一個狀態的最佳動作值估計的副本來計算的。

      這些離線強化學習方法的吸引力在于,你可以從不同的、離策略的數據中得到最佳的策略,因此就不需要去和環境進行交互。像QCL這樣的Q learning的改進版本的算法,在離線數據集上的效果還能更好,并且在數據量較小的模擬控制環境中還顯示出了出色的性能和令人興奮的前景。

      但不幸的是,bootstrapping并不能和泛化很好的結合起來。眾所周知,函數近似(function approximation)、Bootstrapping和Off Policy data(學習來自目標策略之外的數據)這三個操作都會導致訓練的不穩定性。

      我認為在強化學習中,這個問題只會越來越嚴重,越來越被放大,因為我們擴大了數據集的規模,并期望在越來越抽象和一般化的任務上訓練它們。

      這項工作表明,反復的bootstrapping會迭代地降低神經網絡的泛化能力和容量。如果你也同意深層神經網絡的過度訓練是泛化的關鍵這一觀點的話,那么對于相同的神經網絡架構,離線強化學習就不像監督學習那樣具有“數據吸收 Data Absorbent”的能力。

      在實踐中,即便是一些優化后的強化學習算法,比如CQL,它們在數據量很大、真實世界的數據集上進行擴展和調試的話,仍然具有很大的挑戰性。我的同事曾經在大規模機器人問題上嘗試了AWAC和CQL的幾種擴展變化的算法,發現它們比行為克?。˙ehavior Cloning)這樣的原始的方法更難處理、更棘手。

      那么我們自然會想到,與其費勁周折折騰半天,不如將經歷放在深層網絡所擅長的方面——通過有監督的學習和對大規模的數據泛化來快速獲取數據,這樣做的話,效果如何?我們是否能夠通過利用泛化的工具而不是直接優化的操作來完成強化學習的學習目的?



      3

      學習分布,而不是學習到最佳的狀態

      如果我們將泛化作為算法設計的首要任務,或者說一等公民,并將其他的一切都視作是為其服務的二等公民,會發生什么呢?然后當我們可以通過監督學習簡單地學習所有的策略,并“禮貌的要求just ask nicely”般地要求其進行某些策略學習,又會發生什么呢?

      讓我們來看一下最近新興的關于Decision Transformer(DT)的工作,作者沒有對單一的策略進行建模,而是用強化學習對齊進行迭代改進,他們只是用監督學習加上一個順序模型來預測許多不同的策略的軌跡。

      這個模型以回報率作為條件,以便它可以預測于實現這些回報的這個策略相一致的行動。Decision Transformer只是用監督學習對所有策略,包括好的和壞的,進行建模,然后利用深度學習泛化的魔力,從專家挑戰的策略中進行推斷。

      這些現象其實已經在之前的一些同時期進行的工作結果中被發現,并且得到了一些利用和發展,比如獎勵條件策略(Reward-Conditioned Policies)、顛倒強化學習(Upside Down Reinforcement Learning)和“強化學習作為一個大序列建模問題Reforcement Learning as One Big Sequence Modeling Problem”。

      AlphaStar團隊還發現,以人類玩家的統計數據(例如他們最終建造的未來單位)為條件,用來模仿所有的玩家數據,比只去模仿專家級別的建造命令的訓練效果要好。

      這種技術也常用于自動駕駛的汽車領域,對好的司機和技術不佳的司機進行聯合的建模,盡管自動駕駛策略只被用來模仿好的駕駛行為,但是這樣的訓練方法通常會得到較好的訓練結果和模型。



      4

      馬后炮式重新標記Hindsight

      在一些高層級語義的場景中,Decision Transformer將監督下的學習目標以一些高層次的描述為條件,這些描述根據g的值來劃分策略在未來會做什么。

      對于強化學習任務來說,反向的操作(return to go)是強化學習中很占分量的操作,但是你也可以通過目標狀態或《星際爭霸》的構建順序,甚至是對所完成的工作的自然語言描述來表達未來的結果。

      在"Learning Latent Plans from Play"一文中,作者將任意的算法軌跡與事后的自然語言命令描述內容進行配對,然后訓練一個模型來克隆那些以語言描述為條件的行為。

      在測試的過程中,他們則會簡單的要求這個策略以零為起點的方式完成一項新的任務。這些技術的好處是,它們對于在像螞蟻迷宮這樣的強化學習任務中,以少量探索(即稀疏)的目標驅動是與生俱來的。這就支持了這樣的說法:在長周期的任務中,跨目標條件的泛化、概括和推理可以比對單一稀疏目標的暴力搜索做的更好。

      語言是作為條件輸入的一個良好的選擇,因為它不僅可以用來劃分算法軌跡,還可以按任務進行劃分,按照策略的探索成都劃分,按照它所達到的“動物性”的程度進行劃分,還按照人類可能對算法軌跡的任何其他觀察和評價指標進行劃分。

      輸入的語言句子可以是臨時拼湊的,比較隨意,不用特意為機器人可能完成的所有結果,特意開發一個正式的專業語法甚至語言。

      對于現實世界的結果和行為的多樣性,語言是一種理想的“模糊”標識,隨著我們要對越來越多的數據集進行操作、劃分和分割,用自然語言進行命令的輸入和執行,將會越來越重要。



      5

      從不完美的數據中進行泛化與歸納

      我最近發現了一項有意思的工作,并且從中受到啟發:D-REX,它解決了從次有策略的演示和數據中推斷出環境的獎勵函數的問題。

      之前的時候,我們的訓練場景中,都是默認輸入給我們的系統和模型的都是最佳的策略,在這種情況中,我們能夠使用離策略算法,比如Q learning來估計價值函數。

      使用深度神經網絡的離線價值估計方法可能會對不在演示軌跡中的狀態-動作數據對產生不良的泛化作用,因此需要仔細調整算法,以確保價值函數的收斂。

      一個收斂性差的算法會使訓練損失最小化,從而使得泛化的能力和最終收斂到的狀態十分脆弱。

      D-REX提出了一個非常聰明和睿智的小技巧,來在數據策略是次優的情況下,繞過根本沒有任何獎勵標簽的問題:

      1. 給出一個次優的策略pi_theta,通過允許策略于環境的互動來生成軌跡滾動圖。在軌跡滾動圖中,向動作數據中添加一定量的噪聲sigma。

      2. 假設添加噪聲的操作會讓次優的策略的效果更差,也就是R(tao)>R(tao+sigma).

      3. 訓練一個評分模型f_theta(tao_i, tao_j)來預測tao_i和tao_j誰有更高的評分,然后返回更高者。

      4. 評分模型可以神奇地推斷出tao_theta能夠推斷出的模型中,哪個的效果比較好,即便評分模型從未在軌跡上訓練得比pi_theta更優。

      實話說,我很喜歡這種方法,因為評分模型訓練起來是很穩定的,它們只是一些分類器,而且這種方法不是通過貝爾曼不等式的方法明確構建或者通過學習模型的隱性規劃來實現優于示范者的行為,而是通過對一系列擾動的推斷來實現的。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒



      6

      強化學習還需要從經驗中學習并改進嗎

      在前文中,我們描述了如何“泛化和推斷”從而繞過搜索,甚至可以從稀疏的獎勵結果中進行逆向的強化學習。但是,我們是否想過“根據策略自身的經驗進行改進,tabular rasa”呢?這是人們忍受實現RL算法的痛苦的主要原因。我們可以用監督學習算法和一些泛化來替代它嗎?

      強化學習的目標是從當前的參數集合theta^n和一些收集到的策略經驗tao,來變化學習成一組新參數theta^(n+1),從而來實現更高的回報和價值結果。那么,我們是否可以不使用“適當的”強化學習算法來更新智能體函數,而是轉而通過監督深度學習f:(theta^n,tao)->theta^(n+1)來直接學習這個映射呢?

      這個想法有時候也被成為“元強化學習meta reinforcement learning”,因為它的目標,涉及到了學習比現成的強化學習算法更好的強化學習函數。

      我和我的同事將這個想法應用于一個項目之中。在這個項目中,我們訓練了一個神經網絡,它從一個較小的策略經驗的視頻中預測“改進的策略行為”。即使我們從未在最優策略軌跡上進行訓練,也許足夠的數據增強可以使得一般改進算子外推到參數的最優策略機制。

      人們經常將這種策略改進行為與DQN和PPO等“強化學習算法”混為一談,但實際上,它們的行為與實現有些差異?!安呗愿倪M操作Policy improvement operator” f:(theta^n,tao)->theta^(n+1)可以通過你選擇的強化學習或監督學習來進行學習,但以類似強化學習的方式進行部署,從而來和環境進行交互。



      7

      “泛化為目標的指令”驅動式方法

      下面,我給出一個表格,表格中總結了前面提到的強化學習的問題,并比較了如何使用“泛化和推斷”的方法,而不是直接優化的方式,來解決其中的每個問題。

      目標

      直接優化方法

      泛化+推斷的方法

      具有稀疏獎勵的強化學習

      找到p*(at|st) 來讓Rt=1, 使用暴力搜索思路

      DT:從眾多策略中學習p(at|st, Rt),推斷p(at|st, Rt=1)。H.E.R推斷收集軌跡最佳的任務,然后學習p(trajectory|task)。然后推斷所需任務的最佳軌跡。

      從次優軌跡中學習獎勵函數

      離線反向強化學習

      D-REX:軌跡增強+推斷更好的軌跡。

      從經驗中改進策略

      Q Learning,策略梯度

      Watch Try Learn:學習p(theta^n+1|theta^n, tao, task)。

      在真實的環境中微調模擬策略

      樣本高效的強化學習微調

      領域隨機:在仿真數據和環境中訓練,然后規則推測出在測試和預測階段中這是屬于那個世界(infers which world)。

      用高概括的語言進行控制的方式很簡單。如果你想找到問題xi的解決方法yi,可以考慮首先設定問題和解決方案的配對所構成的數據集(x1, y1), ..., (x2, y2),然后預訓練一個深度神經網絡y=f_theta(x),這個神經網絡就能根據你輸入的高級自然語言指令,映射到解決方案上。然后替換你想要的xi并讓深層神經網絡推斷出解決方案?!皢栴}”是最抽象的術語,它可以指代強化學習深度學習的環境、數據集,甚至是單個實例?!敖鉀Q方法/解決方案”可以標識為策略或神經網絡的最佳參數,或者單個預測。

      目標重新標記(Goal Relabeling Techniques)等技術有助于從解決方案中生成事后的問題,但也可以通過數據集增強技術來搭建這樣的數據集。從本質上來說,我們正在將一個困難的優化問題轉化為一個推理問題,并在問題的分布上訓練一個監督學習模型,這些問題的解決方案的成本相對較低。

      在此,我們總結這種方法中的三個建議:

      1. 選擇一種能夠將海量數據集的訓練損失最小化的方法,即最大似然的監督學習。這將有助于擴展到復雜、多樣化的數據集中,并從預測預算中獲得最大的泛化成果和達到最佳的里程碑。

      2. 如果你想學習p(y|x, task=g*),并用它來執行任務預測g*,那就可以嘗試為許多相關但不同的任務學習p(y|x, task) g~p(g), g!=g*,那么在測試的時候只需要滿足g*就可以了。

      3. 制定出有助于劃分數據分布的條件變量,同時仍然允許對來自p(g)的保留樣本進行泛化。自然語言編碼是一個不錯的選擇。

      我們可以將優化問題轉化成為推理問題,這個操作其實并不是什么稀奇事兒。例如,SGD優化器可以轉化為近似貝葉斯推理,因此可以通過AICO進行優化控制。這些工作都在理論上支撐了“近似可以作為優化的近似品”的理論根基,因為問題和算法可以相互來回轉換。

      盡管如此,但是我所建議的和上述觀點稍有區別。我們沒有將順序決策問題轉化為等效的順序推理問題,我們更多的是構建“元問題”:它們的問題描述擁有類似的分布,很容易獲得解決方案。然后我們通過將問題直接映射到解決方案來使用監督學習解決元問題主題。

      不要想的太多,我們只要用最簡單的方式訓練深度神經網絡,然后要求它進行泛化就可以了。

      也許在不久的未來,我們就能夠通過輸入一些特別虛幻的泛化描述("generalize to unseen")來實現我們的目標。



      8

      如果只要求意識(Consciousness)會怎樣呢?

      作為直接優化的替代品,我們可以將“泛化和推斷”的原則延伸到多遠呢?這是一個“意識驅動的方法Recipe for consciousness”,也許這種方法能夠達到一些意想不到的效果:

      訓練一個以自然語言為輸入的多策略模型p_theta(a|s,g),可以通過Decision Transformer或者其他的類似工具實現。

      然后我們用這個模型來模仿各種策略:pi_1,..., pi_N,并且以這些自然語言的代理描述g為預測函數的條件輸入。

      在測試時,一些默認策略p(a|s, g=Behave as yourself)與另一個智能體描述交互pi測試多個步驟,之后我們指示模型,讓它“表現得好像你是pi測試”。這種模型需要一種“對他人的元認知”的能力,因為它必須推斷出什么政策pi_test會在特定情況下進行。

      我們復制了多策略模型p_phy~p_theta,并在單個場景中嵌入步驟(1)的多個測試時間迭代,具有數十個智能體。其中兩個智能體的最初條件是p_theta(a|s,g=表現得像我自己),以及p_phy(a|s,g=表現得像我自己)。

      這會產生一些智能體模仿其他智能體的情況,并且所有智能體都觀察到這種行為。然后我們問p_phy,發出帶有條件上下文的動作“表現的好像是pi_theta冒充你”。這將需要pi_phy建模pi_theta的模仿能力,以及pi_theta知道pi_phy當前狀態的信息。

      很多研究人員,比如Jurgen Schmidhuber之前曾經討論過一個話題,就是為什么實體智能體的動態模型(或者叫世界模型)為何已經是“有意識的”了,因為他們發現成功地模擬自己周圍環境的動態需要將自我表示為環境中的實體參與者。

      雖然我認為“自我表示”是規劃和動態預測問題的必要條件,但是我還是認為這個框架太空洞了。它無法用于再現令人新服的意識模仿現象。你想,畢竟在每個想象的軌跡展開的過程中,都會明確的標識“自我”的任何規劃算法在當前的這種定義下都是有意識的。而其實一個A*迷宮規劃起maze-planner就能滿足意識的這種定義。

      在此,我所提議的是使用一種“更有說服力”的意識形式,而不僅僅是基于“對自我進行規劃的必要表示”。

      算法更需要的,其實是基于對自我的理解,這種理解可以通過與任何特定目標無關的語言和行為進行傳播。例如,這個模型不僅需要了解給定的策略是如何看待自己的,還需要了解其他各種政策是如何解釋這個策略的行為,就像是扭曲一面游樂園中的鏡子一樣。我們假設,通過展示對“扭曲的自我反思”的理解,這種策略將能夠學會識別自己,并模擬智能體與智能體交互中其他智能體的內部的動機和信念。

      行文至此,還有一些重要的實現細節我沒能詳細說明,但是在更高的層次上,我真的認為監督學習和自然語言作為條件輸入,以及強大的智能體交互數據集是學習有趣行為的,十分優秀的工具。這種工具能夠使得代理具有某種自我意識,也能讓其他智能體的元認知能力朝著令人新服的意識模仿的方向,邁出重要的一步。



      9

      問答

      Igor Mordatch先生在評閱本文的時候提出了一些有趣的問題,我們進行了相應的討論。我在這里解釋了他的問題,并在本節中給出答復。

      1. 你討論了監督學習和強化學習,那么你是如何看待無監督學習和“蛋糕類比The Cake Analogy”問題的呢?

      答:我認為無監督學習只是針對不同任務的監督學習而已,它具有可比的梯度方差,因為除了增強之外,目標通常不會被嘈雜有噪地估計。最大似然估計和對比算法,比如InfoNCE,似乎都有助于促進龐大模型的泛化。

      1. 對于穩重強化學習的第一個難點,也就是評估成功,是否也和當前的生成模型有類似的地方?我們很難妥善的去評估語言模型,比如我們可以看到很多人對BLEU分數的不滿,也能看到基于非似然性的生成圖像模型評估似然性是很困難的。

      答:與無似然生成模型類似,它需要大量計算來進行訓練、采樣,或者似然估計。然而,在實踐中,我認為評估所帶來的負擔是不能直接拿來比較的,因為邊緣化對此類模型的觀察的計算費用,與強化學習中成功率估計的邊緣化相比的話,相形見絀。在強化學習中,你必須在O(硬幣反轉)*O(初始化狀態分布)*O(動作分布)上推斷出環境,從而獲得“在所有狀態和任務中提高成功率”的低方差策略梯度。O(反轉硬幣)是O(1000)個樣本級別的操作,用于在統計確定性的情況下,局部改進幾個百分點,而我認為,如果使用Langevin采樣O(minibatch=32)等技術的話,隱含可能性的邊緣化成本往往是更便宜的。此外,Langevin動力學中使用的反向傳播傳遞,通常比運行完整的環境模擬(在每一步都向前傳遞神經網絡)更便宜。

      1. 當前語言模型工作的一項發現是,你真正想要的智能體目標函數,其實已經足夠好了。簡單的下一個token的預測方法會導致泛化問題。但是,在大型模型的領域中,如果你想讓代理和你想要的結果真正保持一致的話,還是一個難題,而且我們還沒有很好的解決方法(其實很諷刺的是,迄今為止,許多嘗試都是和強化學習一起來使用)。

      答:對齊目標可能缺少每個樣本實例的替代損失。但是在“泛化,然后推斷”的流派中,我會簡單地建議去學習p(y|x, alignment objective)這一目標,與眾多事后對齊目標的最大似然,然后在測試的時候簡單的以所需的對象對齊為條件進行模型構建。人們可以通過簡單的實時運行模型來獲得對齊描述的分布,然后用模型實現的相應對齊,進行事后標記。然后我們就可以簡單的調用Connor Leahy的這個方法:

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      僅僅讓AI去做某件事,這個方法聽起來好像很輕率和不靠譜,但是在看到DALL-E和其他大規模多模態模型的表現之后,我們能夠發現,似乎隨著模型變大,泛化效果會變得更好。因此,反過來,我們應該更認真的對待這些簡單的、邊緣幼稚的想法。

      1. 對于強化學習(梯度估計)的第二個難點,我們能夠通過環境動態進行反向傳播,從而獲得更加準確的策略梯度。但是這樣做,通常會導致更糟糕的結果。

      答:這個問題讓我想起了Yann Lecun的一篇舊聞,是關于FB的評論。他是討論ReLU激活估計Hessian向量乘積的方法的,其中說可以使用隨機估計器而不是精確的計算來分析Hessian,因為Relu的二階曲率是0,并且我們其實想得到的是函數平滑版本的Hessian向量乘積。

      如果你不想使用動態信息,也不想使用無偏隨機估計,而是想用可微分的模擬方式進行訓練,那么我認為你又需要進行很繁瑣的估計的怪圈之中。因為很多時候,你需要經過多次推導來推出平滑模擬方程,并減少其方差。但是,也許估計一個平滑的策略梯度所需的樣本量是一個合理的權衡,而這正是獲得梯度的一個良好的方法。

      1. 為什么像你文中提出的(概括然后推斷)這種方法看起來很簡單,但是目前為止還沒有人做出來?

      答:其實一些研究員其實已經在研究這個方向了。我的猜測是,科研界傾向于獎勵增加智能復雜性的敘述,并認為“我們需要更好的算法”。而人們則是天天嚷嚷著想要“簡單的想法”,但是很少有人愿意真正的追求簡單性的極致,并擴展現有的想法。

      另一個原因則是,研究人員通常不會將泛化視為理所當然的事情,因此,他們通常會增添明確的歸納偏置,而不去把歸納作為第一等需要考慮的事情來做,也不會專門兒去為了支持它而調整其他的設計和設定。

      1. 你關于意識的建議很好玩,它和Schmidhuber的“世界中的意識”,Friston的“自由能量原理”,以及霍金的“思想記憶”的想法,有什么關系呢?

      我認為Schmidhuber和Friston的統一理論,或多或少的說明了“優化控制需要良好的未來預測,而我在其中的未來預測,則需要自我呈現”。如果我們拿大型語言模型中的下一個單詞預測做類比的話,也許就能完美地優化下一個狀態的預測就足以歸納出所有意識類型的腥味,比如心智理論和我上面提到的有趣的自我反思的例子。然而,這需要一個環境,在這個環境中,準確預測這種動態對觀察的可能性有很大的影響。我對Schmidhuber和Fristo的框架其實也有一些不同的想法,就是它們太籠統了,甚至可以普遍適用于海蛞蝓和人類。如果未來的預測需要一定的環境復雜性,以產生人類能接受的有意識的東西,那么主要的挑戰是明確系統中的最小的復雜性是什么。

      霍金的“意識是感知記憶”的理論似乎等多的與意識的主觀質感方面有關,而不是與心靈理論相關。請注意,大多數人并不認為一個連接numpy數組的程序能夠像人類那樣“體驗到質感”的感覺。也許缺少的是元認知方面的一些事情,比如策略需要表現出的行為表明,它在思考它所經歷的事情。同樣的,這需要一個精心設計的環境來要求這種元認知行為。

      我認為這可以從我前文描述的心智理論模仿問題的訓練部分中出現,因為代理函數將需要訪問關于它如何感知事物的一致性表征,并通過各種“其他代理的視角”來轉化它。能夠通過自己對其他代理 的感知能力的表征,來投射自己對感覺觀察的表征,這種靈活的特性讓我相信,這種代理理解了它可以對質感進行充分的元認知。

      1. 你對意識的表述只關注心智理論的行為,那對于注意力行為來說又是什么樣的呢?

      答:可以參考回答6的第二段。

      1. 在Rich Sutton的Bitter Lesson Essay中,他認為搜索和學習都很重要。你也認為搜索可以完全被學習方法所取代嗎?

      答:我是這樣認為的:如果在你的程序中有一點搜索的話,是能夠對學習和整體的表現有極大的幫助的。但這有點像蛋生雞和雞生蛋的關系一樣。我們想一下,AlphaGo的成功是因為MCTS使用了一個可學習的價值函數來搜索所帶來的?然后策略的蒸餾只是因為搜索才起作用的嗎?我的建議是,當搜索變得太難的時候(很多強化學習任務都是如此),那么可以使用更多的學習操作來進行訓練。其實,在進行監督學習的時候,你仍然在進行搜索,有所區分的是,你在每一次計算中都能得到更多的梯度信號而已。

      原文鏈接:https://evjang.com/2021/10/23/generalization.html

      雷鋒網


      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

      谷歌科學家:目標優化不好使?今天聊聊泛化這件事兒

      分享:
      相關文章
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 狂欢视频在线观看不卡| 91天堂素人精品系列全集亚洲 | 中文字幕变态另类| 色欲色香天天天综合网站免费| 亚洲精品一品| 欧美三级a做爰在线观看| 免费全部高h视频无码| 熟女少妇精品一区二区| 亚洲成人无码AV| 国产女同疯狂作爱系列| 欧美丰满少妇猛烈进入A片蜜桃| 日韩肏屄| 影音先锋男人av橹橹色| 日韩精品一区二区在线视| 色五月丁香五月综合五月亚洲| 欧美亚洲国产一区二区三区| 国产精品无码av在线播放| 一区二区av| 色啪视频| 3P无码| 亚洲日本乱码一区二区在线二产线| 国产成人精品白浆免费视频试看| 欧美乱大交xxxxx潮喷l头像| 久久精品aⅴ无码中文字字幕不卡| 久久99国产乱子伦精品免费| 韩国三级a视频在线观看| 中文字幕av久久爽一区| 欧美性极品| 谷城县| 人妻 日韩 欧美 综合 制服| 国产传媒| 国产精品欧美福利久久| 九九成人| 黄色综合| 激情一区二区三区成人文| 亚洲+欧美+视频| 国产va| 乱色精品无码一区二区国产盗| 亚洲自偷自偷在线成人网站传媒| 超碰97人妻| 抚州市|