【英特爾發(fā)布至強處理器——專為機器學(xué)習(xí)設(shè)計的神經(jīng)網(wǎng)絡(luò)處理器(NNP)芯片】整個5月,各大巨頭扎堆一樣舉辦開發(fā)者大會、人工智能大會。倒是給了我們一下子看完各大巨頭人工智能布局的機會。
雷鋒網(wǎng)消息,美國時間5月23日,會議上,英特爾副總裁、AI事業(yè)部(AIPG)負(fù)責(zé)人NaveenRao介紹了英特爾AI的最新進展:英特爾至強處理器的性能有了進一步的提升,發(fā)布了新一代專為機器學(xué)習(xí)設(shè)計的神經(jīng)網(wǎng)絡(luò)處理器(NNP)芯片——NervanaNNP-L1000(SpringCrest);介紹了nGRAPH平臺、BigDL大數(shù)據(jù)開源平臺、OpenVINO等開源軟件工具;展示了用Movidius神經(jīng)元計算棒來進行AI作曲。
新一代NNP芯片
在雷鋒網(wǎng)看來,英特爾在人工智能上的布局很明晰,近一年來,其反復(fù)提到的“英特爾人工智能全棧解決方案”揭示出其AI基礎(chǔ)架構(gòu)?
英特爾人工智能全棧式解決方案是一個完整的產(chǎn)品組合,包括至強可擴展處理器、英特爾Nervana神經(jīng)網(wǎng)絡(luò)處理器和FPGA、網(wǎng)絡(luò)以及存儲技術(shù)等;針對深度學(xué)習(xí)/機器學(xué)習(xí)而優(yōu)化的基于英特爾架構(gòu)的數(shù)學(xué)函數(shù)庫(IntelMKL)以及數(shù)據(jù)分析加速庫(IntelDAAL)等;支持和優(yōu)化開源深度學(xué)習(xí)框架如Spark、Caffe、Theano以及Neon等;構(gòu)建以英特爾Movidius和Saffron為代表的平臺以推動前后端協(xié)同人工智能發(fā)展。
在會議上,NaveenRao討論的重要更新之一是“英特爾至強可擴展處理器”的優(yōu)化。與前幾代相比,新一代的處理器在訓(xùn)練和推理方面都有顯著的性能提升,這對于許多希望利用現(xiàn)有基礎(chǔ)架構(gòu)的公司來說是有益的。
隨后,NaveenRao介紹了全新一代NNP系列芯片。作為曾經(jīng)不可撼動的芯片巨人,英特爾在AI時代卻面臨諸多挑戰(zhàn)。隨著像Nvidia和ARM這樣的公司贏得了圖像處理單元(GPU)的聲譽,且谷歌也已經(jīng)設(shè)計出針對AI的專用芯片,英特爾的通用CPU芯片顯然落后了。
2016年,英特爾并購專注于深度學(xué)習(xí)專用芯片的加州創(chuàng)企NervanaSystems,Nervana首席執(zhí)行官兼聯(lián)合創(chuàng)始人Rao加入英特爾,短短幾個月后,Rao就以火箭般的速度晉升為英特爾人工智能事業(yè)部總負(fù)責(zé)人??梢钥闯?,英特爾重金投入AI芯片,且將其作為發(fā)展人工智能的核心.
2017年10月,英特爾曾介紹了專為機器學(xué)習(xí)設(shè)計的神經(jīng)網(wǎng)絡(luò)處理器(NNP)系列芯片,被命名為LakeCrest。LakeCrest可以加速多種神經(jīng)網(wǎng)絡(luò)算法框架,比如谷歌的TensorFlow、Nervana的Neon、Facebook的Caffe等。英特爾稱LakeCrest能夠比比GPU更快、功耗更低、性能更好。但當(dāng)時,英特爾只將NNP芯片供應(yīng)給一小部分英特爾合作伙伴,計劃在2017年年底前開始出貨。
在本次的英特爾AI開發(fā)者大會上,NaveenRao介紹了新一代的NNP芯片——NervanaNNP-L1000(SpringCrest),是LakeCrest發(fā)布七個月后的全面更新,性能比上一代產(chǎn)品提升了3-4倍。Rao介紹到,SpringCrest會有多項更新,其也將是英特爾第一款商業(yè)NNP芯片,將不止是提供給小部分合作伙伴,將在2019年發(fā)貨。
NaveenRao談到,在英特爾NervanaNNP-L1000中,我們還將支持bfloat16,這是一種業(yè)界廣泛用于神經(jīng)網(wǎng)絡(luò)的數(shù)字格式。隨著時間的推移,英特爾將在我們的AI產(chǎn)品線上擴展bfloat16支持,包括英特爾至強處理器和英特爾FPGA。
而谷歌在AI芯片上的速度似乎已經(jīng)趕超英特爾。2017年谷歌I/O大會上,谷歌就宣布正式推出第二代TPU處理器,第二代TPU處理器加深了人工智能在學(xué)習(xí)和推理的能力,據(jù)谷歌的內(nèi)部測試,第二代TPU芯片針對機器學(xué)習(xí)的訓(xùn)練速度比目前市場上的GPU節(jié)省一半時間。2018年,谷歌傳奇芯片工程師JeffDean連發(fā)了十條Twitter宣布谷歌TPU首次對外全面開放,第三方廠商和開發(fā)者可以每小時花費6.5美元來使用它,但需要先行填表申請。外界認(rèn)為這意味著AI芯片和公有云市場將迎來新的變革??磥?,英特爾的NNP系列與谷歌的TPU系列是直接對標(biāo)的產(chǎn)品。
三大開源軟件工具
雖然處理器和芯片是英特爾人工智能布局的核心,但是從本次大會來看,英特爾也將更多目光放在了扶持開發(fā)者身上。
NaveenRao談到,“我們認(rèn)識到,單靠英特爾無法實現(xiàn)人工智能的全部愿景。相反,我們需要聯(lián)合開發(fā)者、學(xué)術(shù)界、軟件生態(tài)方共同來解決這些問題。今天,我很高興看到開發(fā)人員加入我們的示范、研究和實踐培訓(xùn)?!?/p>
大會上,英特爾和合作伙伴介紹了BigDL大數(shù)據(jù)開源平臺、OpenVINO、nGRAPH平臺等開源軟件工具。
BigDL是一款基于ApacheSpark的分布式深度學(xué)習(xí)框架,它可以無縫的直接運行在現(xiàn)有的ApacheSpark和Hadoop集群之上。
據(jù)了解,英特爾與百度也展開了合作,百度云在即將發(fā)布的數(shù)據(jù)分析平臺中將整合BigDL最新版本。未來英特爾還將聯(lián)合百度云智學(xué)院推出完整的“數(shù)據(jù)分析+BigDL”培訓(xùn)課程。
OpenVINO這一套新的開源軟件工具則主要用于視覺應(yīng)用與神經(jīng)網(wǎng)絡(luò)優(yōu)化??梢宰岄_發(fā)者更簡單地在邊緣設(shè)備上部署視覺計算和深度學(xué)習(xí)能力。
nGRAPH則是面向開發(fā)者的深度神經(jīng)網(wǎng)絡(luò)模型開源編譯器,可以直接支持TensorFlow/MXNet以及Neon,還可以通過ONNX支持CNTK、PyTorch、Caffe2。
AI編曲與AI圖像渲染
除了基層技術(shù)和軟件框架之外,英特爾還展示了AI多種場景應(yīng)用。
首先是AI譜曲。英特爾在現(xiàn)場演示了人類演奏者和AI配合起來作曲,演奏者輸入一段音符,AI可以配合給出相同風(fēng)格的下一段,AI還可以用不同的樂器來配合,例如吉他配合鍵盤。從技術(shù)上來看,這需要通過深度學(xué)習(xí)從大量的數(shù)據(jù)庫中訓(xùn)練,這樣的訓(xùn)練需要很高的運算。
而英特爾實現(xiàn)的方式卻很簡單,僅用了一個U盤大小的Movidius神經(jīng)元計算棒。去年7月英特爾就發(fā)布了這款產(chǎn)品,是是業(yè)界首款基于USB的超低功耗的嵌入式神經(jīng)網(wǎng)絡(luò)的開發(fā)工具,它可以工作在標(biāo)準(zhǔn)USB接口上。它內(nèi)置了Myriad2的VPU,可以把預(yù)訓(xùn)練好的Caffe或者TensorFlow的模型直接嵌入到神經(jīng)網(wǎng)絡(luò),直接通過所謂的U盤對神經(jīng)網(wǎng)絡(luò)推理進行加速,從而將人工智能應(yīng)用部署在嵌入式以及邊緣環(huán)境上。雷鋒網(wǎng)了解到,??低暤闹悄芟鄼C、大疆的無人機也采用了英特爾Movidius技術(shù)。
另一個應(yīng)用是利用英特爾AI進行3D動畫渲染。這是合作伙伴ZIVA公司基于英特爾至強處理器進行的研究,現(xiàn)場看來,渲染出的獅子十分逼真。?
小結(jié)
雷鋒網(wǎng)了解到,英特爾近來采取不少措施,將自己的核心AI技術(shù)能力提供給企業(yè)和開發(fā)者,希望能有更多的合作伙伴一起打造軟件+硬件+生態(tài)全方位一體的人工智能戰(zhàn)略。NaveenRao談到,事實上,當(dāng)我思考什么能幫助我們加快向以人工智能為導(dǎo)向的計算未來轉(zhuǎn)型時,我可以確信的是我們需要提供即廣泛又能達到企業(yè)規(guī)模的解決方案。
在這周的微軟人工智能大會上,微軟宣布推出ProjectBrainwave預(yù)覽版,以加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練和部署,該技術(shù)由英特爾的現(xiàn)場可編程門陣列(FPGA)和芯片Stratix10提供支持?,F(xiàn)在,英特爾的合作伙伴還有谷歌、AWS、百度、Novartis、C3IoT等。