傳動網 > 新聞頻道 > 技術前沿 > 資訊詳情

行業(yè)大牛開啟新征程,芯片架構創(chuàng)新迎來新局面

時間:2023-11-24

來源:OFweek 電子工程網

導語:本周,全球IT業(yè)最大的新聞非OpenAI聯合創(chuàng)始人山姆·奧特曼(Sam Altman)離開原公司、加入微軟莫屬。當然,這并不是終點。

  Sam Altman被OpenAI董事會驅逐,被認為是技術派的勝利,因為另一名聯合創(chuàng)始人薩斯克維爾認為Altman商業(yè)化行動過于激進,存在很多安全隱患,因此,聯合其他三名外部董事驅逐了Altman。

  本文不關注OpenAI的“宮斗”大戲,無論Altman最終留在微軟,還是回歸OpenAI,都不會影響他開創(chuàng)AI軟硬件新技術和市場的意愿,區(qū)別只是在哪里做而已。

  據悉,在被解職之前,Altman就在探尋新業(yè)務,曾試圖在中東籌集數十億美元用于人工智能(AI)芯片項目Tigris,還想創(chuàng)建一家專注于AI芯片研發(fā)的公司,或許,這一項目已經被微軟拿下了。另外,Altman還一直在尋求為一款AI硬件設備籌集資金,該設備是他與前蘋果設計總監(jiān)Jony Ive 共同開發(fā)的。

  近些年,在AI發(fā)展方興未艾的大背景下,不甘于已經取得的“輝煌成績”,選擇開創(chuàng)新業(yè)務(從新創(chuàng)業(yè)或加盟一家富有活力的大公司)的行業(yè)大牛不止Altman一人,還有多位業(yè)界知名業(yè)界人士,特別是技術大牛,都選擇了再創(chuàng)業(yè),因為他們無法抵擋AI發(fā)展的巨大潛力,要趁當下還處于“野蠻成長”的產業(yè)發(fā)展初級階段,爭取用先進的技術和產品,掌控未來競爭的主動權。在這些人當中,典型代表是CPU架構大神Jim Keller和GPU架構大神Raja Koduri。

  2020年6月,Jim Keller離開了工作兩年的英特爾,2021年初,AI芯片初創(chuàng)公司Tenstorrent宣布任命Jim Keller為公司總裁兼首席技術官,以及董事會成員。Tenstorrent創(chuàng)立于2016年,旨在通過一種新方法和體系結構,研發(fā)新型AI處理器,以推動AI和機器學習的發(fā)展。近兩年,Tenstorrent十分看重RISC-V的應用前景,認為其非常適合未來低功耗AI應用市場需求。

  2023年3月,Raja Koduri離開了工作五年的英特爾,選擇創(chuàng)業(yè)。據Koduri透露,他的新創(chuàng)公司Mihira AI要打造新的生成式人工智能工具,這些工具可以在英特爾、AMD、蘋果等公司的芯片上運行,也可以在未來的RISC-V架構芯片上運行。

  01

  AI系統(tǒng)和芯片需要改進

  當下的AI服務器,多采用異構形式搭建,也就是在計算系統(tǒng)中,使用多種不同類型的處理器(CPU、GPU、FPGA、NPU等),這樣可以增加計算速度和效率,以滿足不同工作負載的需求,因為AI工作負載通常需要大量的數值計算和并行運算。

  傳統(tǒng)CPU在通用計算方面表現出色,但對于深度學習等需要大量矩陣計算的任務,效能就會不足,這時,將GPU、TPU等處理器組合其中,可以更好地滿足AI任務的需求,提供更高效的運算能力。

  對于AI系統(tǒng)的這種異構需求,不同處理器廠商,特別是像AMD和英偉達這樣的傳統(tǒng)大廠,以及自研AI芯片的互聯網大廠,都有各自的解決方案,但不同方案雖然有各自優(yōu)勢,但也存在這樣或那樣的缺點。

  AMD公司推出了APU概念和產品,它就是CPU +GPU的組合,其優(yōu)點是可以充分發(fā)揮兩種處理器各自的優(yōu)勢,互相彌補短板,也能在一定程度上減少功耗。不過,其AI訓練性能并不比獨立的GPU好。

  為了滿足自家系統(tǒng)的需求,Google自研了張量處理器TPU(Tensor Processing Unit),它是一種ASIC處理器,與 CPU、GPU和APU等通用處理器有很大區(qū)別,TPU的專用性很強,針對機器學習和深度學習等AI應用進行了優(yōu)化,專門用于加速AI的計算任務。不過,在Google的整個網絡系統(tǒng)當中,依然需要用到大量的通用CPU和GPU,TPU雖然很好用,但可用規(guī)模還是有限的。

  可見,要不斷改善AI服務器系統(tǒng)性能,單一的通用或專用處理器都無法獨自解決問題,需要多種處理器配合工作才行,這就給新的AI芯片技術和產品發(fā)展提供了機會。

  AI系統(tǒng)的訓練和推理平衡水平需要改善。

  目前,英偉達的GPU是AI訓練芯片市場的領導者,但這只占整個AI芯片需求的20%左右,推理芯片市場相當大,當下的GPU擅長AI訓練,而CPU擅長推理,二者在對方領域的局限性都很大。

  在AI推理市場,除了數據中心和云計算,用戶對邊緣側(如手機、PC,以及機器人、工業(yè)系統(tǒng)和汽車等)的推理需求在快速增長。因此,AI推理市場不僅很大,而且相當分散。在這種情況下,邊緣側AI推理芯片的市場規(guī)模非常大,而且具有極大的發(fā)展?jié)摿Α?/p>

  蘋果公司的iPhone 就是一個典型的例子,它在A系列處理器中集成了AI內核,目前,AI功能已經占據了A系列處理器整體功能的20%。近些年,多家公司也在采用類似于蘋果的SoC AI策略。

  粗略計算,AI芯片市場包括約15%的訓練,45%的數據中心推理,以及40%的邊緣側推理。在這樣的市場背景下,一方面,各大處理器廠商正在提升AI訓練和推理能力的融合水平,另一方面,邊緣側推理市場的巨大發(fā)展空間給很多移動處理器廠商提供了拓展機會。

  AI系統(tǒng)和芯片的功耗也需要改善。

  如上文所述,邊緣側推理市場巨大,而這些應用對低功耗要求很高。同時,數據中心和云計算系統(tǒng)的功耗高的嚇人,不可能無止境地增加下去,解決這一大應用領域的功耗問題也被越來越多的芯片和系統(tǒng)廠商所重視。

  02

  問題如何解決?

  從上文介紹中可以看出,AI系統(tǒng)和相關芯片還處于成長期,有很多問題需要解決,特別是AI訓練和推理芯片的功能融合、邊緣側AI推理,以及功耗問題,是各大廠商,以及初創(chuàng)企業(yè)共同關注的。

  最近,英偉達推出的新GPU在AI訓練和推理融合能力方面就有很大進步,該公司表示,H100芯片的升級產品H200集成了141GB的HBM3e內存,更加擅長推理,在用于推理或生成問題答案時,性能較H100提高了60%-90%。英偉達表示,與H100相比,H200在Llama 2這樣擁有700億參數大語言模型上的推理速度提升了近一倍。

  在邊緣側推理方面,以蘋果為學習對象,傳統(tǒng)手機處理器廠商也在增加新產品的AI推理能力。以聯發(fā)科為例,該公司推出的天璣8300可支持生成式AI,最高支持100億參數AI大語言模型。該芯片集成了生成式AI引擎,整數運算和浮點運算的性能是上一代的兩倍,支持Transformer算子加速和混合精度INT4量化技術,AI綜合性能是上一代的3.3倍,可流暢運行終端側生成式AI的各種新應用。

  在降低AI服務器功耗方面,初創(chuàng)企業(yè)和各大知名廠商投入的力度更大。

  以上文提到的Jim Keller加入的Tenstorrent為例,該公司正在開發(fā)數據中心解決方案,核心產品是基于RISC-V架構的AI/ML加速器和通用處理器。之所以采用RISC-V指令集,很重要的一個原因就是其功耗低。

  據悉,Tenstorrent正在與日本新創(chuàng)晶圓廠Rapidus合作,開發(fā)基于2nm制程工藝的邊緣側AI處理器及相關IP。從目前的AI系統(tǒng)市場需求,以及未來該領域對低功耗(數據中心、云和邊緣側都要求降低功耗)的要求來看,先進制程的未來發(fā)展前景依然值得期待,因為3nm、2nm,甚至是1nm這樣的先進制程技術,就是要在不斷提升性能的同時,持續(xù)降低功耗。未來,先進制程工藝幾乎就是為AI芯片而生的。

  對于開發(fā)RISC-V芯片和系統(tǒng),半導體大國政府都很重視。美國政府已經下達了使用RISC-V處理器來模擬下一代稀疏性超級計算機的指示,歐盟也建立了一個基于RISC-V架構的本土加速器項目,稱為EPAC。

  除了新創(chuàng)企業(yè),傳統(tǒng)大廠也在發(fā)展低功耗AI芯片方面不遺余力。

  以微軟為例,該公司于近期推出了用于云端軟件服務的處理器Cobalt,該芯片是基于Arm架構的通用處理器,同時,微軟還推出了另一款專用AI加速器Maia 100,用于云端訓練和推理。這兩款芯片將于2024年導入該公司的Azure數據中心。微軟基于Arm架構研發(fā)芯片,很重要的一個原因就是其功耗比較低。

  除了將AI訓練和推理融合,以及低功耗之外,現有架構芯片,特別是CPU、GPU,在AI計算方面都存在局限性,因此,一些初創(chuàng)公司,以及傳統(tǒng)知名廠商還在探索新型架構的AI芯片,特別是在打破處理單元與內存之間的“通信墻“方面,下了很多功夫。

  近些年,以Groq、Cerebras、SambaNova、NextSilicon等為代表的創(chuàng)業(yè)公司都在開發(fā)各自的新型AI加速器,目標是替代英偉達的GPU。這些公司的產品多為ASIC,也就是AI專用處理器,目前來看,這些新型處理器正在被美國能源部實驗室所采用,用于科學研究。同時,美國多家大學也對試用這些芯片持開放態(tài)度,例如,NCSA正在與SambaNova合作開發(fā)芯片,Cerebras的處理器已經用于AI訓練。

  在創(chuàng)新架構處理器研發(fā)方面,大廠IBM一直都是業(yè)界的典型代表,AI專用芯片方面同樣如此。最近,IBM推出了一種新的原型芯片架構NorthPole,可以使AI計算更快、更節(jié)能。NorthPole 是一款基于人腦計算通路進行神經推理的數字AI芯片,它采用了一種截然不同的設計方法,將所有內存都集成在了處理器芯片上,無需外掛RAM,這使得該處理器能夠進行快速的AI推理。該芯片專為AI推理而設計,不需要復雜的冷卻系統(tǒng)。據悉,小巧靈活的NorthPole非常適合邊緣側AI應用。

  以上介紹的都是各種AI處理器,是硬件。要使整個AI系統(tǒng)充分發(fā)揮效能,軟件工具的作用也很重要。如前文所述,GPU架構大神Raja Koduri離開英特爾后,創(chuàng)建了新公司Mihira AI,該公司研發(fā)的就是AI軟件工具。

  據Koduri介紹,Mihira AI的最底層是一個異構數據中心架構,涵蓋三類工作負載,分別是:用于渲染通用CPU計算;用于AI的異構加速器;用于游戲GPU工作負載。他說,未來的第四個集群可以針對低功耗AI推理進行優(yōu)化。

  從未來發(fā)展來看,Mihira AI的目標很可能是替代英偉達的CUDA,以及AMD的ROCm軟件生態(tài)系統(tǒng)。不過,目前它還處于發(fā)展初期,未來的道路十分艱辛。

  03

  結語

  AI系統(tǒng)、芯片和軟件市場發(fā)展?jié)摿薮?,各種傳統(tǒng)和創(chuàng)新產品同臺競爭,隨著應用和市場的發(fā)展,未來具有很大的想象和操作空間。

  正是看到了各種AI技術、產品和商業(yè)的發(fā)展可能性,越來越多的行業(yè)大牛依托創(chuàng)業(yè)公司,或依托各大知名廠商,開始了各種創(chuàng)新工作。

  在本文截稿時,報道稱Sam Altman又回到了OpenAI,繼續(xù)擔任CEO。經過這一波操作,Altman有望在OpenAI獲得更多的施展空間,其AI技術和商業(yè)拓展之路很可能會加速。

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(m.u63ivq3.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0