Sam Altman被OpenAI董事會驅逐,被認為是技術派的勝利,因為另一名聯合創(chuàng)始人薩斯克維爾認為Altman商業(yè)化行動過于激進,存在很多安全隱患,因此,聯合其他三名外部董事驅逐了Altman。
本文不關注OpenAI的“宮斗”大戲,無論Altman最終留在微軟,還是回歸OpenAI,都不會影響他開創(chuàng)AI軟硬件新技術和市場的意愿,區(qū)別只是在哪里做而已。
據悉,在被解職之前,Altman就在探尋新業(yè)務,曾試圖在中東籌集數十億美元用于人工智能(AI)芯片項目Tigris,還想創(chuàng)建一家專注于AI芯片研發(fā)的公司,或許,這一項目已經被微軟拿下了。另外,Altman還一直在尋求為一款AI硬件設備籌集資金,該設備是他與前蘋果設計總監(jiān)Jony Ive 共同開發(fā)的。
近些年,在AI發(fā)展方興未艾的大背景下,不甘于已經取得的“輝煌成績”,選擇開創(chuàng)新業(yè)務(從新創(chuàng)業(yè)或加盟一家富有活力的大公司)的行業(yè)大牛不止Altman一人,還有多位業(yè)界知名業(yè)界人士,特別是技術大牛,都選擇了再創(chuàng)業(yè),因為他們無法抵擋AI發(fā)展的巨大潛力,要趁當下還處于“野蠻成長”的產業(yè)發(fā)展初級階段,爭取用先進的技術和產品,掌控未來競爭的主動權。在這些人當中,典型代表是CPU架構大神Jim Keller和GPU架構大神Raja Koduri。
2020年6月,Jim Keller離開了工作兩年的英特爾,2021年初,AI芯片初創(chuàng)公司Tenstorrent宣布任命Jim Keller為公司總裁兼首席技術官,以及董事會成員。Tenstorrent創(chuàng)立于2016年,旨在通過一種新方法和體系結構,研發(fā)新型AI處理器,以推動AI和機器學習的發(fā)展。近兩年,Tenstorrent十分看重RISC-V的應用前景,認為其非常適合未來低功耗AI應用市場需求。
2023年3月,Raja Koduri離開了工作五年的英特爾,選擇創(chuàng)業(yè)。據Koduri透露,他的新創(chuàng)公司Mihira AI要打造新的生成式人工智能工具,這些工具可以在英特爾、AMD、蘋果等公司的芯片上運行,也可以在未來的RISC-V架構芯片上運行。
01
AI系統(tǒng)和芯片需要改進
當下的AI服務器,多采用異構形式搭建,也就是在計算系統(tǒng)中,使用多種不同類型的處理器(CPU、GPU、FPGA、NPU等),這樣可以增加計算速度和效率,以滿足不同工作負載的需求,因為AI工作負載通常需要大量的數值計算和并行運算。
傳統(tǒng)CPU在通用計算方面表現出色,但對于深度學習等需要大量矩陣計算的任務,效能就會不足,這時,將GPU、TPU等處理器組合其中,可以更好地滿足AI任務的需求,提供更高效的運算能力。
對于AI系統(tǒng)的這種異構需求,不同處理器廠商,特別是像AMD和英偉達這樣的傳統(tǒng)大廠,以及自研AI芯片的互聯網大廠,都有各自的解決方案,但不同方案雖然有各自優(yōu)勢,但也存在這樣或那樣的缺點。
AMD公司推出了APU概念和產品,它就是CPU +GPU的組合,其優(yōu)點是可以充分發(fā)揮兩種處理器各自的優(yōu)勢,互相彌補短板,也能在一定程度上減少功耗。不過,其AI訓練性能并不比獨立的GPU好。
為了滿足自家系統(tǒng)的需求,Google自研了張量處理器TPU(Tensor Processing Unit),它是一種ASIC處理器,與 CPU、GPU和APU等通用處理器有很大區(qū)別,TPU的專用性很強,針對機器學習和深度學習等AI應用進行了優(yōu)化,專門用于加速AI的計算任務。不過,在Google的整個網絡系統(tǒng)當中,依然需要用到大量的通用CPU和GPU,TPU雖然很好用,但可用規(guī)模還是有限的。
可見,要不斷改善AI服務器系統(tǒng)性能,單一的通用或專用處理器都無法獨自解決問題,需要多種處理器配合工作才行,這就給新的AI芯片技術和產品發(fā)展提供了機會。
AI系統(tǒng)的訓練和推理平衡水平需要改善。
目前,英偉達的GPU是AI訓練芯片市場的領導者,但這只占整個AI芯片需求的20%左右,推理芯片市場相當大,當下的GPU擅長AI訓練,而CPU擅長推理,二者在對方領域的局限性都很大。
在AI推理市場,除了數據中心和云計算,用戶對邊緣側(如手機、PC,以及機器人、工業(yè)系統(tǒng)和汽車等)的推理需求在快速增長。因此,AI推理市場不僅很大,而且相當分散。在這種情況下,邊緣側AI推理芯片的市場規(guī)模非常大,而且具有極大的發(fā)展?jié)摿Α?/p>
蘋果公司的iPhone 就是一個典型的例子,它在A系列處理器中集成了AI內核,目前,AI功能已經占據了A系列處理器整體功能的20%。近些年,多家公司也在采用類似于蘋果的SoC AI策略。
粗略計算,AI芯片市場包括約15%的訓練,45%的數據中心推理,以及40%的邊緣側推理。在這樣的市場背景下,一方面,各大處理器廠商正在提升AI訓練和推理能力的融合水平,另一方面,邊緣側推理市場的巨大發(fā)展空間給很多移動處理器廠商提供了拓展機會。
AI系統(tǒng)和芯片的功耗也需要改善。
如上文所述,邊緣側推理市場巨大,而這些應用對低功耗要求很高。同時,數據中心和云計算系統(tǒng)的功耗高的嚇人,不可能無止境地增加下去,解決這一大應用領域的功耗問題也被越來越多的芯片和系統(tǒng)廠商所重視。
02
問題如何解決?
從上文介紹中可以看出,AI系統(tǒng)和相關芯片還處于成長期,有很多問題需要解決,特別是AI訓練和推理芯片的功能融合、邊緣側AI推理,以及功耗問題,是各大廠商,以及初創(chuàng)企業(yè)共同關注的。
最近,英偉達推出的新GPU在AI訓練和推理融合能力方面就有很大進步,該公司表示,H100芯片的升級產品H200集成了141GB的HBM3e內存,更加擅長推理,在用于推理或生成問題答案時,性能較H100提高了60%-90%。英偉達表示,與H100相比,H200在Llama 2這樣擁有700億參數大語言模型上的推理速度提升了近一倍。
在邊緣側推理方面,以蘋果為學習對象,傳統(tǒng)手機處理器廠商也在增加新產品的AI推理能力。以聯發(fā)科為例,該公司推出的天璣8300可支持生成式AI,最高支持100億參數AI大語言模型。該芯片集成了生成式AI引擎,整數運算和浮點運算的性能是上一代的兩倍,支持Transformer算子加速和混合精度INT4量化技術,AI綜合性能是上一代的3.3倍,可流暢運行終端側生成式AI的各種新應用。
在降低AI服務器功耗方面,初創(chuàng)企業(yè)和各大知名廠商投入的力度更大。
以上文提到的Jim Keller加入的Tenstorrent為例,該公司正在開發(fā)數據中心解決方案,核心產品是基于RISC-V架構的AI/ML加速器和通用處理器。之所以采用RISC-V指令集,很重要的一個原因就是其功耗低。
據悉,Tenstorrent正在與日本新創(chuàng)晶圓廠Rapidus合作,開發(fā)基于2nm制程工藝的邊緣側AI處理器及相關IP。從目前的AI系統(tǒng)市場需求,以及未來該領域對低功耗(數據中心、云和邊緣側都要求降低功耗)的要求來看,先進制程的未來發(fā)展前景依然值得期待,因為3nm、2nm,甚至是1nm這樣的先進制程技術,就是要在不斷提升性能的同時,持續(xù)降低功耗。未來,先進制程工藝幾乎就是為AI芯片而生的。
對于開發(fā)RISC-V芯片和系統(tǒng),半導體大國政府都很重視。美國政府已經下達了使用RISC-V處理器來模擬下一代稀疏性超級計算機的指示,歐盟也建立了一個基于RISC-V架構的本土加速器項目,稱為EPAC。
除了新創(chuàng)企業(yè),傳統(tǒng)大廠也在發(fā)展低功耗AI芯片方面不遺余力。
以微軟為例,該公司于近期推出了用于云端軟件服務的處理器Cobalt,該芯片是基于Arm架構的通用處理器,同時,微軟還推出了另一款專用AI加速器Maia 100,用于云端訓練和推理。這兩款芯片將于2024年導入該公司的Azure數據中心。微軟基于Arm架構研發(fā)芯片,很重要的一個原因就是其功耗比較低。
除了將AI訓練和推理融合,以及低功耗之外,現有架構芯片,特別是CPU、GPU,在AI計算方面都存在局限性,因此,一些初創(chuàng)公司,以及傳統(tǒng)知名廠商還在探索新型架構的AI芯片,特別是在打破處理單元與內存之間的“通信墻“方面,下了很多功夫。
近些年,以Groq、Cerebras、SambaNova、NextSilicon等為代表的創(chuàng)業(yè)公司都在開發(fā)各自的新型AI加速器,目標是替代英偉達的GPU。這些公司的產品多為ASIC,也就是AI專用處理器,目前來看,這些新型處理器正在被美國能源部實驗室所采用,用于科學研究。同時,美國多家大學也對試用這些芯片持開放態(tài)度,例如,NCSA正在與SambaNova合作開發(fā)芯片,Cerebras的處理器已經用于AI訓練。
在創(chuàng)新架構處理器研發(fā)方面,大廠IBM一直都是業(yè)界的典型代表,AI專用芯片方面同樣如此。最近,IBM推出了一種新的原型芯片架構NorthPole,可以使AI計算更快、更節(jié)能。NorthPole 是一款基于人腦計算通路進行神經推理的數字AI芯片,它采用了一種截然不同的設計方法,將所有內存都集成在了處理器芯片上,無需外掛RAM,這使得該處理器能夠進行快速的AI推理。該芯片專為AI推理而設計,不需要復雜的冷卻系統(tǒng)。據悉,小巧靈活的NorthPole非常適合邊緣側AI應用。
以上介紹的都是各種AI處理器,是硬件。要使整個AI系統(tǒng)充分發(fā)揮效能,軟件工具的作用也很重要。如前文所述,GPU架構大神Raja Koduri離開英特爾后,創(chuàng)建了新公司Mihira AI,該公司研發(fā)的就是AI軟件工具。
據Koduri介紹,Mihira AI的最底層是一個異構數據中心架構,涵蓋三類工作負載,分別是:用于渲染通用CPU計算;用于AI的異構加速器;用于游戲GPU工作負載。他說,未來的第四個集群可以針對低功耗AI推理進行優(yōu)化。
從未來發(fā)展來看,Mihira AI的目標很可能是替代英偉達的CUDA,以及AMD的ROCm軟件生態(tài)系統(tǒng)。不過,目前它還處于發(fā)展初期,未來的道路十分艱辛。
03
結語
AI系統(tǒng)、芯片和軟件市場發(fā)展?jié)摿薮?,各種傳統(tǒng)和創(chuàng)新產品同臺競爭,隨著應用和市場的發(fā)展,未來具有很大的想象和操作空間。
正是看到了各種AI技術、產品和商業(yè)的發(fā)展可能性,越來越多的行業(yè)大牛依托創(chuàng)業(yè)公司,或依托各大知名廠商,開始了各種創(chuàng)新工作。
在本文截稿時,報道稱Sam Altman又回到了OpenAI,繼續(xù)擔任CEO。經過這一波操作,Altman有望在OpenAI獲得更多的施展空間,其AI技術和商業(yè)拓展之路很可能會加速。