0
| 本文作者: 亞萌 | 2016-12-02 20:01 |
一名 AI 專家值多少錢?
“基于我個人經驗,一名計算機領域的 AI 專家對于企業的價值,至少為 500-1000 萬美元。為了爭奪這些少數的人才,正在開展競標大戰。”
這是卡耐基梅隆大學計算機科學院院長 Andrew Moore 教授在 11 月 30 日美國參議院聽證會上 ,所說的話。

這場聽證會名為“AI 破曉”(The Dawn of Artificial Intelligence),由參議員泰德·科魯茲主持,主題是探討人工智能當前的形勢,對政策的影響及其對商業形態的改變。共有 5 位 AI 專家出席,分別是:
Eric Horvitz(微軟研究實驗室總經理,人工智能伙伴關系委員會臨時共同主席)
Andrew Moore(卡耐基梅隆大學計算機科學院院長)
Andrew Futreal(德州大學安德森癌癥中心基因醫學教授)
Greg Brockman(OpenAI CTO及其聯合創始人)
Steve Chien(加州理工學院、NASA 噴氣推進實驗室高級研究科學家)
在 Moore 教授看來,美國政府應該從高中階段開始為人工智能產業積蓄研究人員了,而這個人才儲備需求為 100 萬名高中生。這并不是 Moore 教授一個人的觀點,吳恩達也表示贊同。

無獨有偶,僅隔一天,Facebook 的博客上發布了一條新消息,放出大神 Yann LeCun 親自講解 AI 知識的三彈視頻。然而如果 AI 領域的專業讀者,稍微點開視頻一看,便知道這好像是一個高中老師在講科普課的風格。
三彈視頻湊成一個系列,風格十分活潑,Yann LeCun 的講解里穿插動畫,并沒有太多技術性的內容。LeCun 在視頻里就明確表示,這次主要是給大眾普及關于深度學習的基本原理,希望可以鼓勵年輕人、高中生對該領域有更多了解,激發他們來探索這一領域的興趣。

所以這樣看來,無論是美國的學術界、政府還是產業界,都普遍有一種要把 AI 的種子廣泛播種到下一代的氛圍。
雖然是科普性的視頻,但大神的思路可見一斑。就像 Moore 教授所說的,真正的 AI 專家只是非常少的一波群體,其實如今的 AI 從業者仍舊處在一個“學習”階段。
那么,到底 Yann LeCun 的三彈視頻里講了什么內容呢?
雷鋒網根據 Yann LeCun 講解總結成下文,供讀者參閱,底部更是附上原英文視頻。(另外在幾天前,雷鋒網整理了 Yann LeCun 教授在 Quora 上關于“如何自學深度學習技術”的回答,非常具有可操作性,感興趣的讀者可移步: 大神Yann LeCun親授:如何自學深度學習技術并少走彎路)
很多人,對于智能機器非常著迷,而我們的實現方法其實非常簡單。現在我跟大家解釋一下它當中到底是如何工作的。
其實大部分人已經在日常生活中使用 AI 系統了,只不過他們都不知道而已,這里面的應用包括自動駕駛、購買建議、游戲等。
我們最常用的機器訓練模型,就是監督學習(Supervised learning)。
舉一個典型的例子,如果你想建造一個識別圖像的機器,讓它識別圖像里的狗和汽車。那么你就需要給這個機器看幾百萬張含有狗和汽車的圖片,并告訴機器里面是否有狗或汽車,這就是一個“訓練”的過程。
在訓練之前,這個機器只是產生隨機的答案,當你給它顯示一張汽車或狗的圖片時,你都不知道它會怎么回答。如果它答對了,可能只是運氣好罷了;如它答錯了,這時候得人為糾正一下(調參數)。

所以其中的一個關鍵就是,首先就是建造一個機器系統,然后就是調整內部參數或者結構,這樣下一次你再展示圖片的時候,系統就會答出正確答案了。
這就所謂的“學習型算法”,其關鍵就是在于“調整參數”。幾百萬張圖片這樣訓練下來,不斷地調整參數,最終機器會弄清楚“汽車”和“狗”之間的區別。當一張全新的照片給機器看時,它這時多半會給出正確答案。
我們把這個過程稱為“泛化能力”(Generalization ability),指的是,機器能夠識別出跟訓練素材相似的,但從未見過的東西(The ability to recognize things that are similar to what the machine has been trained on but has never seen)。
計算機往往依照一串指令來運行,這一串指令就叫做“算法”(Algorithm)。清洗盤子,也是要遵循“算法”的:先從一摞盤子里選出一個放入水池中,然后擦拭清洗,然后烘干,最后放置在架子上。這個過程不斷重復,就是一種很簡單的“算法”。

那么我們如何為圖像識別寫一個“算法”呢?比如,如何區別圖像里的汽車和狗?
計算機通常采用的方法,是用數字來表示圖片,每一個數字代表特定區域像素的亮度。汽車的像素數組和狗的像素數組如圖,這樣就可以寫一段代碼來區別汽車和狗。

很多年來我們做的事情,就是建立大量的圖片庫,將已識別出的圖像和等待識別的圖像進行比較,如果匹配上時,計算機就可以判定圖片里面到底是汽車還是狗。
但問題是,這個方法所需要的模板數量太巨大了,就汽車和狗而言,需要所有可能的位置、顏色、姿態的狗和汽車,這是非常不實際的。
但機器學習不一樣,我們并不對機器進行編程,而是用圖片對其進行訓練。我們來舉個最簡單的例子,讓機器區分兩個字母。我們看到下圖里,分別是字母 D 和字母 C(黑色塊構成字母輪廓)。 
每張圖片包含 9(3*3)個像素,我們分別給像素賦值,黑色=1,白色=0,從而得到兩張字母圖片的像素矩陣。
接著,我們只讓系統做一件很簡單的事情:計算出像素權重(Weights)之和。

具體而言,我們需要兩個部分:像素值矩陣和權重模板,讓這二者相乘得出結果。我們假定,如果結果>0,即判定為字母 C,如結果<0,即判定為字母D。
像素值矩陣很好設定,接下來就是得出一個有效的區分二者的權重模板,這是通過人工調節得到的。
當看到字母 C 時,人工告訴機器把 C 的權值調大。于是學習系統把字母 C 黑色像素對應的模板的權值增加為 1,白色像素對應的部分保持為 0。

同時將字母 D 的權值調小。

最終得到的模板權值中,正數(1)位置獨屬于字母C,負數(-1)位置獨屬于字母D。這就是一個很完美的將字母 C 和字母 D 區分的模板。

現在我們重新給系統一個字母C 的圖片,計算機將新圖與終極模板相乘,得到的 9個像素里的值,這些值相加得到的值=2。這時,2>0,所以計算機判斷其為字母 C。

同樣,如果新圖是字母D,那么所得結果為-1,-1<0,所以計算機判斷其為字母D。

現實中的分類問題要比區別字母 C 和字母 D 更費時、更復雜,而對模板的設定也更具有挑戰,但是模板法是一種非常基礎的原理。
在深度學習領域,我們使用一種特殊的方法:卷積神經網絡(Convolutional Neural Network, CNN) 。有趣的是,這種網絡結構,是受到哺乳動物的視覺皮層啟發。
一個物體可以有多個角度的照片,比如我要給這個剪刀拍照,各個角度得到的圖片是不一樣的。

如果我要讓計算機識別出這個剪刀,那么就要以這個洞為主要特征,無論剪刀出現在照片的哪個位置,系統都能依據這個“洞”找出這個剪刀。

這個“洞”只是這個剪刀的特征之一,我們可以對一個物體提取多個特征,讓系統來鎖定它。CNN 的特殊之處在于,我們并不需要人工來提取這些“特征”。CNN 的第一層,有幾百個探測器(Detectors),它們自己學習并提取出幾百個“特征”。

這種自我學習的方法,應用在很多領域,包括圖像識別、自動駕駛、語音識別、翻譯等。
Yann LeCun 表示:
這個視頻不是課程,只是讓普通人能夠真正理解“深度學習”技術背后的基本原理,這或許能夠鼓勵年輕人、高中生對此有更豐富的了解,讓他們對此產生興趣,之后或許能在網上聽一些課程,甚至日后在大學里學習相關課程。
我認為,讓公眾對深度學習技術有所了解,是很重要的。
所以,Facebook 已經要在培養青少年人才方面發力了,雷鋒網大膽推測,莫非明年就要出現深度學習技術的高中生競賽了?
從政界、學術界到產業界,美國都在向著“AI 破曉”大膽邁步,中國其實不乏在 AI 領域的專家大牛,是否也有一天,向 Yann LeCun 一樣親切地向大眾普及 AI 知識,推動基礎教育的發展呢?
PS: Yann LeCun三彈視頻。
相關文章:
AI的自我重塑?看看Google、Facebook這些大公司都在做的事
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。