轉自:中國科技網
科技日報記者?張佳欣
近日,微軟創始人比爾·蓋茨透露,將繼續對美國懷俄明州“下一代”核電站投資數十億美元。這一決策背后的原因,很大程度是由于人工智能(AI)的崛起正悄然引發一場前所未有的“電力風暴”。
國際能源署數據顯示,使用ChatGPT進行一次查詢,就需要消耗2.9瓦時的電量,相比之下,普通引擎搜索僅需0.3瓦時。到2026年,AI和加密貨幣數據中心的年電力消耗量可能會翻一番,從2022年的460太瓦時(TWh)飆升到1000TWh以上。
去年10月,微軟與美國核聚變技術公司Helion能源簽署了電力購買協議。圖為該公司的核聚變裝置特倫塔(Trenta),在其上進行的實驗為商業聚變發展提供了關鍵數據。
圖片來源:Helion能源公司官網
AI是“能耗大王”
生成式AI模型的大部分能源消耗發生在使用之前,即訓練階段。這是深度學習模型開發的一個關鍵過程。
大多數數據中心使用圖形處理器(GPU)來訓練AI模型。GPU運行時需要大量能源,大約是傳統CPU(中央處理器)的5倍。訓練大語言模型需要數萬個GPU,它們需要晝夜不停地運行數周或數月。模型訓練完成后,需要托管和利用模型所依賴的數據。因此,數據中心的運轉“根本停不下來”。
AI的總消耗量是多少?訓練和輸入最常用的模型需要多少能源?根據美國斯坦福大學最近的一份報告,谷歌的Gemini Ultra模型訓練時需要500億PetaFLOPs(每秒千萬億次浮點運算)算力。如果要用商用計算機實現這種計算能力,需要大約1016臺計算機。與此相關的訓練成本為1.91億美元,主要歸因于能耗。
單個AI模型的耗電量可達數萬千瓦時。據技術咨詢公司IDC估計,ChatGPT等生成式AI模型的耗電量可能是其100倍。
除了系統本身,處理器還需要冷卻,常見的技術包括電動通風和水冷卻,這些也都需要能源。
用核能“為AI發電”
哪里才能找到足夠的電力來滿足AI“貪婪的胃口”?當前,世界正在向凈零碳排放邁進,數據中心需要可靠、穩定的基本能源,而太陽能和風能遠遠無法滿足需求。因此,核能正在成為一個新選擇。
大型科技公司已經邁出了走向“AI+核能”時代的第一步。
據美國《華爾街日報》報道,谷歌正在考慮與小型模塊化反應堆(SMR)開發商簽署電力購買協議。最近,谷歌還與微軟和紐柯鋼鐵公司簽署了一項協議,旨在加速先進清潔能源技術的發展,其中就包括“先進核能”。
微軟同樣在核能領域積極布局。去年5月,微軟與美國核聚變技術公司Helion Energy簽署了電力購買協議。Helion Energy承諾將從2028年開始向微軟提供核聚變能源。雖然這項技術目前仍處于理論階段,但微軟對其潛力充滿信心。此外,在微軟去年12月發布的《加速實現無碳未來》簡報中,明確將先進核能、聚變能源以及傳統反應堆列為公司綠色政策的核心支柱之一。
亞馬遜也押注核能。據西班牙《國家報》報道,亞馬遜云計算部門AWS最近在美國購買了一個位于美國第六大核電站附近的大型數據中心。該核電站將按固定價格為AWS提供所需的全部能源。
質疑聲音仍存在
核能或是AI“救星”的想法,正在硅谷中流行起來。OpenAI聯合創始人薩姆·奧爾特曼向Helion Energy公司投資了3.75億美元。他還兼任初創公司Oklo董事長,該公司致力于設計和制造一種新型SMR。
比爾·蓋茨是另一位對SMR感興趣的科技大亨。他的公司TerraPower正在研究一種鈉核反應堆,這種實驗性反應堆若能成功商業化,其成本有望低至核裂變的1/25。
不久前,Meta首席生成式AI工程師謝爾蓋·埃杜諾夫預測,只需兩個大型核反應堆的發電量就足以滿足2024年全球AI領域的能源需求。
核路線有前途嗎?質疑的聲音依然存在。
《國家報》報道稱,目前尚無任何SMR技術能夠立即投入實際部署,許多國家的SMR都處于原型階段。英國《新科學家》網站報道稱,先進核技術的建設前景更加不確定。盡管多家核技術初創企業獲得了科技富豪的青睞,但他們的商業運營時間表普遍指向2030年之后。到那時,全美國數據中心的電力需求預計將比2022年增加1倍甚至3倍。這些數據中心可能使用的電量相當于4000萬戶美國家庭的用電量。而Helion Energy最樂觀的估計是,到2029年,其產能僅能滿足美國4萬戶普通家庭的能源需求。