此次融資由Alphawave Ventures和阿布扎比增長基金(ADG)領投。截至本輪融資,Cerebras的融資總額已達7.2億美元(約合46億人民幣),公司估值超過40億美元(約合256億人民幣)。
2019年8月,Cerebras的首顆晶圓級芯片WSE一問世便轟動全球科技圈,它由一整片晶圓制成,在46225mm2面積上集成了1.2萬億個晶體管。其2021年推出的二代WSE-2更進一步,采用7nm制程,創(chuàng)下集成2.6萬億個晶體管的新紀錄。
相比之下,被業(yè)界視作云端AI芯片標桿的英偉達A100 GPU,同樣采用7nm制程,總共有540億個晶體管。
接下來,Cerebras計劃將此次融資用于擴大其全球業(yè)務和工程師團隊,以及設計下一代基于臺積電5nm節(jié)點的處理器。
01 創(chuàng)業(yè)伙伴再上路,投資人稱正在重新定義AI的可能性
Cerebras Systems位于美國加利福尼亞州,由Andrew Feldman、Gary Lauterbach等人創(chuàng)建于2015年。
Andrew Feldman和Gary Lauterbach分別是Cerebras Systems的首席執(zhí)行官和首席技術官,兩人的合作時間已經超過12年。
Andrew Feldman有著斯坦福大學的MBA學位,曾多次作為公司高管完成了收購和上市。Gary Lauterbach則是行業(yè)中著名的計算機架構師,曾擔任SPARC Ⅲ和UltraSPARC Ⅳ微處理器的首席架構師。
2007年,Andrew Feldman和Gary Lauterbach就一起創(chuàng)辦了微型服務器公司SeaMicro。2012年,SeaMicro被AMD以3.34億美元收購,兩人也一起加入了AMD。Andrew Feldman在AMD做了兩年半的副總裁。
▲Cerebras Systems首席執(zhí)行官Andrew Feldman(左)和首席技術官Gary Lauterbach(右)
Cerebras Systems創(chuàng)建至今已完成了6輪融資,總金額達7.2億美元。早在2016年,Cerebras Systems完成了第一筆6450萬美元的融資;次年1月,Cerebras Systems拿下2500萬美元的B輪融資;6個月后,再次籌集6000萬美元;2018年11月,完成8800萬美元的D輪融資。
隨著不斷地融資,Cerebras Systems也從價值2.45億美元的公司成為了新的AI芯片獨角獸。Twitter、為Snap提供資金的Benchmark,傳奇芯片設計師、AMD前CTOFred Weber、著名非營利實驗室OpenAI的AI科學家、AlexNet的聯(lián)合創(chuàng)建者Ilya Sutskever等業(yè)界知名機構或大牛都對其進行了投資。
2019年,Cerebras Systems完成了E輪融資,公司估值約為24億美元。如今,新的F輪融資為該公司又籌集了2.5億美元的資金,而這相當于Cerebras Systems大約6%的股份,其估值已超過40億美元。
據(jù)科技媒體AnandTech報道,這2.5億美元的融資將會支撐Cerebras未來2-3年的布局,包括在5nm節(jié)點上設計芯片和新的內存擴展方案等。目前Cerebras Systems在美國桑尼維爾、美國圣地亞哥、加拿大多倫多、日本東京等地擁有約400名員工,并希望到2022年底擴大到600人,主要增加工程師人數(shù)并專注于產品的全棧開發(fā)。
Alphawave Ventures的聯(lián)合創(chuàng)始人兼董事長Rick Gerson稱:“Cerebras Systems正在重新定義人工智能的可能性,并在加快制藥和生命科學等幾個領域的創(chuàng)新方面有著一流的表現(xiàn)。我們很自豪能與Andrew和Cerebras的團隊合作,支持他們將高性能AI計算引入全球新市場和地區(qū)。”
02 二代處理器具有2.6萬億個晶體管,性能提升超1倍
2019年,Cerebras Systems發(fā)布了其第一代WSE芯片,這款芯片具有40萬個內核和1.2萬億個晶體管,使用臺積電16nm工藝制程。
今年4月,Cerebras Systems推出了第二代處理器WSE-2.具有破紀錄的2.6萬億個晶體管(市場上最大的GPU只有540億個晶體管)和85萬顆AI優(yōu)化內核,大小類似餐盤,采用臺積電的7nm工藝。相比于第一代WSE處理器,WSE-2在AI內核數(shù)量、晶體管數(shù)量、密度、內存帶寬等參數(shù)上都有著一倍以上的提升。
▲Cerebras兩代處理器參數(shù)對比(來源:AnandTech)
和當下的很多芯片不同,Cerebras Systems的WSE-1和WSE-2并不是用晶圓上的一小部分制成,而是將整個直徑為300mm的晶圓加工成1顆芯片。雖然這種芯片體積較大,但是由于晶體管和內核的數(shù)量、互連優(yōu)勢,相比同等算力的GPU集群,其功耗和所占空間都更小。
傳統(tǒng)的GPU集群如果想要達到同等算力,需要數(shù)十個幾架承載數(shù)百甚至數(shù)千個GPU芯片。而CS-2只有26英寸高,是標準數(shù)據(jù)中心機架的1/3.
Cerebras Systems的技術也在醫(yī)藥、天文、科研等多個領域發(fā)揮出了作用。
無論是美國阿貢國家實驗室、勞倫斯利弗莫爾國家實驗室、匹茲堡超算中心、愛丁堡大學超算中心等科研機構還是葛蘭素史克、東京電子器件等廠商都成為了Cerebras Systems的忠實客戶。
03 參數(shù)規(guī)模提升100倍,還在云端提供深度學習服務
今年8月24日,Cerebras Systems還推出了世界上首個具備腦規(guī)模的AI解決方案。
人腦包含約100萬億個突觸結構,而此前最大的人工智能硬件集群大約只有1萬億參數(shù),類似于同等數(shù)量的突觸,僅有人腦規(guī)模的1%。而Cerebras Systems單一的CS-2支持超過120萬億參數(shù),在規(guī)模上達到了人腦水平,推動了AI神經網絡技術的發(fā)展。
阿貢國家實驗室副主任Rick Stevens談道:“Cerebras 的發(fā)明將提高100倍的參數(shù)容量,它有可能改變行業(yè)。我們將首次能夠探索大腦大小的模型,開辟了廣闊的研究和洞察的新途徑?!?/p>
該解決方案包括四項核心技術,代號分別為Weight Streaming、MemoryX、SwarmX和Sparsity。
Weight Streaming可以讓AI模型參數(shù)存儲在芯片外,同時提供與芯片相同的訓練和推理性能的能力,簡化了工作負載分配模型。
MemoryX是一種新的內存擴展技術,可實現(xiàn)2.4 PTAB的高性能內存,支持120萬億的參數(shù)模型。
SwarmX是一種高性能、AI優(yōu)化的通信互連結構,可以互連多達1.63億個AI內核,跨越192個CS-2系統(tǒng)協(xié)同工作,訓練單個神經網絡。
Sparsity可以讓用戶選擇模型的重量稀疏程度,減少模型處理所需的FLOP算力和時間。
9月16日,美國深度學習云服務商Cirrascale Cloud Services宣布采用CS-2系統(tǒng)和WSE-2處理器。
在其應用中,8GPU服務器比CS-2系統(tǒng)訓練自然語言處理NLP BERT模型的時間慢9.5倍。而在訓練精度上,用戶需要超過120個GPU才能匹配單個CS-2系統(tǒng)的訓練精度。
▲Cerebras Systems系統(tǒng)在機房中
04 結語:Cerebras Systems,開拓巨型芯片路線獲認可
需要指出的是,Cerebras Systems的WSE系列芯片并非單純的放大芯片尺寸。大尺寸芯片需要芯片企業(yè)在互連、芯片封裝、散熱等方面都有著獨特的技術和解決方案,這些技術方案也體現(xiàn)在了Cerebras Systems腦規(guī)模AI解決方案中。
雖然其芯片的尺寸較大,無法用于PC、移動設備等領域,但Cerebras Systems也向我們展示了巨型芯片的廣闊應用前景,其產品可以在超算、云端等機構或企業(yè)的方案占據(jù)一席之地。而新一輪的融資代表了資本對這一技術路線的認可。