訂閱
糾錯
加入自媒體

AI芯片大比拼:GPU/FPGA/ASIC/類腦芯片,哪個更牛?

2017年,“人工智能”儼然已經(jīng)成為所有媒體的頭條熱點,在媒體和資本的推動下,AI以迅雷不及掩耳之勢向我們洶涌奔來。從政策層面,2017年關(guān)于AI發(fā)生了三件大事,一是發(fā)布了人工智能發(fā)展規(guī)劃;二是人工智能首次寫入十九大報告;三是很多城市,如上海、重慶等都在進行人工智能規(guī)劃。

從數(shù)據(jù)來看,2013年只有100多家組織機構(gòu)研究深度學習和人工智能,而到了2015年,這個數(shù)字已經(jīng)飆升到3409家,兩年時間增長30多倍。就連以電動汽車起家的特斯拉也宣布開始設(shè)計AI芯片,馬斯克請來了AMD公司Zen架構(gòu)的開發(fā)者Jim Keller,擔任自動駕駛硬件副總裁。

在AI熱鬧非凡的大背景下我們也需要認真思考:人工智能是否需要專門的芯片?現(xiàn)有的技術(shù)架構(gòu)具有怎樣的優(yōu)勢?近期,北京建廣資產(chǎn)管理有限公司主辦了一場以“構(gòu)造’芯’生態(tài)”為主題的沙龍,賽迪智庫半導體研究所副所長林雨從AI芯片定義、分類、生態(tài)環(huán)境、投資等方面做了分析。

人工智能如果按照架構(gòu)進行劃分,有三個重要元素:數(shù)據(jù)、算法和算例,其中算例就是芯片,算例是基礎(chǔ),算法是核心,數(shù)據(jù)是保障。先看人工智能的定義,從廣義上講只要能夠運行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有針對人工智能算法做了特殊加速設(shè)計的芯片才可以稱作為人工智能芯片,市場上真正做到了對芯片里面的架構(gòu)做了特殊加速設(shè)計的公司少之又少!

三個維度對人工智能進行分類

林雨分別從功能、應(yīng)用場景和技術(shù)架構(gòu)對人工智能進行了分類:

從功能上來看,人工智能包括推理和訓練兩個環(huán)節(jié)。在訓練層面,通過大數(shù)據(jù)訓練出一個復雜的神經(jīng)網(wǎng)絡(luò)模型。目前訓練環(huán)節(jié)主要使用英偉達的GPU集群完成,谷歌的TPU2.0也支持訓練環(huán)節(jié)和深度網(wǎng)絡(luò)加速。推理環(huán)節(jié)是指利用訓練好的模型,使用新數(shù)據(jù)推理出各種結(jié)論。總得來看,訓練環(huán)節(jié)對芯片的性能要求比較高,推理環(huán)節(jié)對簡單指定的重復計算和低延遲的要求很高。

從應(yīng)用場景來看,人工智能芯片應(yīng)用于云端和設(shè)備端,在深度學習的訓練階段需要極大的數(shù)據(jù)量和大運算量,單一處理器無法獨立完成,因此訓練環(huán)節(jié)只能在云端實現(xiàn)。在設(shè)備端,智能終端的數(shù)量龐大,而且需求差異較大,比如VR設(shè)備對于實時性要求很高,推理環(huán)節(jié)無法在云端完成,要求設(shè)備有獨立的推理計算能力,因此專用芯片的需求還是很大。

從技術(shù)架構(gòu)來看有四類:一是通用性芯片,如GPU;二是以FPGA為代表的半定制化芯片,如深鑒科技的DPU;第三,ASIC全定制化芯片,如谷歌的TPU;第四,類腦芯片。

GPU/FPGA/ASIC/類腦芯片,各有怎樣的優(yōu)勢?

為了進行大數(shù)據(jù)處理,當前的方案一般采用高性能的處理器輔助MCU進行計算,但是隨著摩爾定律時間周期拉長,處理器上可集成的器件數(shù)量會達到極限,而數(shù)據(jù)量還在不斷增加,因此我們需要通過架構(gòu)的變化來滿足數(shù)據(jù)量的增長,這就是人工智能芯片推出的背景。

目前來看,人工智能芯片有四類架構(gòu):GPU、FPGA、ASIC和類腦芯片。

GPU:是單指令、多數(shù)據(jù)處理,采用數(shù)量眾多的計算單元和超長的流水線,如名字一樣,圖形處理器,GPU善于處理圖像領(lǐng)域的運算加速。但GPU無法單獨工作,必須由CPU進行控制調(diào)用才能工作。CPU可單獨作用,處理復雜的邏輯運算和不同的數(shù)據(jù)類型,但當需要大量的處理類型統(tǒng)一的數(shù)據(jù)時,則可調(diào)用GPU進行并行計算。

FPGA:和GPU相反,F(xiàn)PGA適用于多指令,單數(shù)據(jù)流的分析,因此常用于預測階段,如云端。FPGA是用硬件實現(xiàn)軟件算法,因此在實現(xiàn)復雜算法方面有一定的難度,缺點是價格比較高。將FPGA和GPU對比發(fā)現(xiàn),一是缺少內(nèi)存和控制所帶來的存儲和讀取部分,速度更快。二是因為缺少讀取的作用,所以功耗低,劣勢是運算量并不是很大。結(jié)合CPU和GPU各自的優(yōu)勢,有一種解決方案就是異構(gòu)。

ASIC芯片:是專用定制芯片,為實現(xiàn)特定要求而定制的芯片。除了不能擴展以外,在功耗、可靠性、體積方面都有優(yōu)勢,尤其在高性能、低功耗的移動端。谷歌的TPU、寒武紀的GPU,地平線的BPU都屬于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,與CPU和GPU相比,TPU把控制縮小了,因此減少了芯片的面積,降低了功耗。

很多人認為ASIC是人工智能芯片的一個主要發(fā)展方向,其實在ASIC芯片里還有一個特殊的群體—類腦計算,林雨認為,“這才是真正的人工智能芯片未來發(fā)展的方向。類腦計算是真正模擬人腦進行設(shè)計,人腦的特點就是神經(jīng)元進行傳輸數(shù)據(jù)。當我們用硬件去模擬人腦時,在硬件環(huán)節(jié)里還有許多多余的元素,而類腦芯片就擬合人腦的作用。要做類腦芯片非常難,IBM、高通、英特爾等公司的芯片策略都是用硬件來模仿人腦的神經(jīng)突觸。”

四種架構(gòu)將走向哪里?

將以上四種架構(gòu)對比,GPU未來的主攻方向是高級復雜算法和通用性人工智能平臺,其發(fā)展路線分兩條走:一是主攻高端算法的實現(xiàn),對于指令的邏輯性控制要更復雜一些,在面向需求通用的AI計算方面具有優(yōu)勢;二是主攻通用性人工智能平臺,GPU的通用性強,所以應(yīng)用于大型人工智能平臺可高效完成不同的需求。FPGA更適用于各種細分的行業(yè),人工智能會應(yīng)用到各個細分領(lǐng)域。

ASIC芯片是全定制芯片,長遠看適用于人工智能,F(xiàn)在很多做AI算法的企業(yè)也是從這個點切入。因為算法復雜度越強,越需要一套專用的芯片架構(gòu)與其進行對應(yīng),ASIC基于人工智能算法進行定制,其發(fā)展前景看好。類腦芯片是人工智能最終的發(fā)展模式,但是離產(chǎn)業(yè)化還很遙遠。

投資投哪里?大佬擦亮眼睛看這幾點

第一,關(guān)注具有縱向產(chǎn)業(yè)鏈整合能力的企業(yè)。因為未來在人工智能領(lǐng)域側(cè)重生態(tài)整合。單獨做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企業(yè)更值得關(guān)注。

第二,專攻終端應(yīng)用市場,人工智能芯片的應(yīng)用場景里有兩個:一個是在云端,一個是在終端。云端格局應(yīng)該變化不大,但是在終端方面變數(shù)未定,這是對國內(nèi)企業(yè)來說是一個不錯的切入點,邊緣計算值得關(guān)注。

第三,關(guān)注專用芯片,ASIC從功耗、技術(shù)都具有優(yōu)勢,是未來AI芯片發(fā)展的主要方向,尤其要關(guān)注是否有加速環(huán)節(jié)。

有了資本和媒體的熱捧,AI已經(jīng)在全球范圍內(nèi)遍地開花,順勢而為的創(chuàng)業(yè)者也不在少數(shù)。目前,國內(nèi)已經(jīng)有20多家初創(chuàng)企業(yè)在做人工智能芯片,但是評估一家企業(yè)的技術(shù)能力是第二位的,第一位的考察點要看他們是否能真正能將技術(shù)變現(xiàn),是否能將技術(shù)轉(zhuǎn)化為商業(yè)產(chǎn)品。因此,看一家AI芯片設(shè)計企業(yè),商業(yè)能力要大于技術(shù)能力,這才是融資點。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號