Digital Information World發(fā)布的報告顯示,數(shù)據(jù)中心為訓練AI模型產(chǎn)生的能耗是常規(guī)云工作的三倍,預計到2030年,美國數(shù)據(jù)中心的電力需求將以每年約10%的速度增長。
而訓練模型,將比傳統(tǒng)數(shù)據(jù)中心活動消耗更多電力,對電力的需求更高。以訓練GPT-3大型語言模型為例,需消耗接近1,300兆瓦時的電力,這大約相當于130個美國家庭1年的用電量,而這僅僅是訓練AI模型的前期電力,僅占模型實際使用時所消耗電力的40%。
據(jù)報道,2023年1月,OpenAI僅一個月已耗用可能等同17.5萬個丹麥家庭的全年用電量。谷歌AI每年耗電量達2.3太瓦時,相當于美國亞特蘭大州所有家庭1年的用電量。
阿姆斯特丹自由大學博士生Alex de Vries推算認為,到2027年,人工智能行業(yè)每年的電量消耗可能在85到134太瓦時之間。這幾乎相當于荷蘭一個國家年度電力需求,這是個相當可觀的數(shù)字。
國際能源署(IEA)最近的一份報告也給出了類似的結(jié)論,指出由于人工智能和加密貨幣的需求,數(shù)據(jù)中心的用電量將在不久的將來大幅增加。該機構(gòu)表示,2022年數(shù)據(jù)中心的能源使用量約為460太瓦時,到2026年可能會增加到620至1,050太瓦時之間,分別相當于瑞典或德國的能源需求。
隨著人工智能產(chǎn)業(yè)的發(fā)展,電力消耗可能會更大。同時,隨著人工智能的盈利,其研發(fā)公司對大模型訓練的細節(jié)信息——什么樣的硬件,運行多長時間等,越發(fā)保密。
人工智能公司Hugging Face的研究員Sasha Luccioni表示,對于ChatGPT,我們不知道它有多大,不知道基礎(chǔ)模型有多少參數(shù),也不知道它在哪里運行......研發(fā)公司的保密行為可能出于行業(yè)競爭考慮,也可能是為了轉(zhuǎn)移公眾的“批評”。
一些參與人工智能的公司聲稱,人工智能技術(shù)本身可以幫助解決高電耗問題。代表Microsoft的發(fā)言人表示,人工智能“將成為推進可持續(xù)發(fā)展解決方案的有力工具”,并強調(diào)Microsoft正在努力實現(xiàn)“到2030年實現(xiàn)負碳、正水和零浪費的可持續(xù)發(fā)展目標”。
但是一家公司的目標無法涵蓋整個行業(yè)的全部需求,可能還需要其他方法。Luccioni建議行業(yè)為AI模型引入能源之星評級,使消費者能夠像比較電器一樣比較人工智能的能源效率。
人工智能帶來的種種創(chuàng)新功能,都是以處理性能和功耗方面的高昂成本為代價,它并不是免費的。