0
| 本文作者: 劉偉 | 2017-05-11 15:57 |

雷鋒網按:上個月谷歌公布了關于TPU細節的論文,稱“TPU處理速度比當前 GPU 和 CPU 要快 15 到 30 倍”,引發科技圈熱議。Nvidia CEO黃仁勛更是親自撰文回擊,并貼出Tesla P40 GPU 與 TPU 的性能對比圖,大有針尖對麥芒之勢。而在昨天的GTC大會上,Nvidia又發布了新一代GPU Tesla V100。這場ASIC 與GPU之爭愈發的好看了!
人工智能和機器學習對Google的重要性已經不言而喻,為了在人工智能時代搶占先機,這位科技巨人已經開始研發和制造自己的芯片。在去年的年度開發者大會上,谷歌對外宣布了針對其特殊AI算法進行了優化的TPU芯片。據雷鋒網了解,如今已有數十種類似的定制化AI芯片陸續問世。這讓近年來在深度學習領域享有支配性地位的芯片供應商Nvidia倍感壓力。
為了做出反擊,Nvidia也開始加強其新推的GPU芯片的定制化和專業性。
在周三舉行的GTC大會上,Nvidia發布了基于其下一代圖形架構Volta的,針對服務器市場的GPU新品 Tesla V100。該芯片擁有超過210億個晶體管和5,120個計算機內核。但是對于AI來說,最重要的是,特斯拉V100配備了640個Tensor內核,它們是專為運行深入學習網絡中使用的數學運算而設計的。據官方介紹,這些Tensor內核為Tesla V100提供了高達120 teraflops的、驚人的深度學習能力。
雷鋒網了解到,相比前代的Pascal架構,新芯片將深度學習訓練速度提升了12倍,深度學習推理速度也提升了6倍。新架構在運行深度學習應用方面的性能,相當于100個中央處理器(比如Intel的中央處理器)。
為了使深度學習應用在其硬件上更加高效的運行,Nvidia提供了很多軟件工具。它發布了一款針對深度學習框架TensorFlow和Caffe的編譯器——TensorRT,用于改進推理性能。Nvidia表示,Tesla V100的推理性能要比英特爾的Skylake CPU架構快15到25倍。
雖然Nvidia正努力讓其芯片更加適合深度學習,但它的競爭對手卻可能會指出,Nvidia的最大缺陷在于,其GPU往往必須支持圖形生成功能。GPU之所被設計出來,就是用于圖形生成的。由于必須支持圖形生成功能,GPU芯片增加了大量體積,這就意味著它在一定程度上要比專用芯片更加低效。
Google在最近的一篇博客中聲稱,其TPU在推理性能上要比現代GPU和CPU快15-30倍,同時功耗還要低30-80倍。(Nvidia對此反駁道,谷歌是在拿TPU和舊的GPU進行比較。)事實上,這種對比并不完全公平。GPU是通用型芯片,可執行繪圖運算工作,用途多元。TPU則屬于ASIC,也就是專為特定用途設計的特殊規格邏輯IC,由于只執行單一工作,速度更快也在情理之中。TPU和GPU之間除了性能較量,更多代表的是ASIC和通用型芯片這兩種設計思路間的博弈。
除了Nvidia和谷歌,另一大芯片巨頭Intel也加入了這場博弈。不久前,Intel以超過4億美元的價格收購了AI芯片初創企業Nervana,并聲稱將在2020年之前將深度學習訓練速度提升100倍。
Nvidia表示,Tesla V100是它在深度學習領域更加專業化,并能夠與這些定制化芯片競爭的有力證據。Nvidia GPU工程部高級副總裁Jonah Alben在談到芯片競賽時說道:“當你考慮到構成一款用于深度學習訓練的優秀芯片的所有要素時,你會發現帶寬、輸入/輸出和數學運算能力都很重要。而在所有的這些方面,我們都是專家。只要我們都用相同的油漆刷作畫,就知道到底誰更強了。”
雷鋒網認為,盡管谷歌在定制化AI芯片領域走在了最前列,但Nvidia仍將在未來很多年里保持競爭力。Gartner的分析師馬克·洪(Mark Hung)說道,“目前為止,沒有任何一款AI芯片實現了大規模出貨。盡管對Nvidia來說,潛在的危險始終存在,但在這些公司大規模出貨AI芯片前,并不會對Nvidia造成真正的威脅。”
這些即將到來的AI芯片與Nvidia之間的明爭暗斗表明了一點,深度學習計算對更強計算能力的需求日益旺盛。幾年前GPU迎來大爆發,正是因為它將深度學習網絡的訓練時間從幾個月縮短到了幾天。早在20世紀50年代就已經誕生的深度學習,由于有強大的計算能力作為后盾,此刻終于爆發出了它的潛能。但是隨著越來越多企業試圖將深度學習融入它們的產品和服務,對更快的芯片的需求將沒有止境。
Alben說道:“以我所見,人類需要無限量的深度計算能力。越接近無限越好。”
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。