近日,“限電令”席卷全國多個省份,在引發廣泛關注的同時,也讓民眾產生了諸多不解。
在00后的世界里,電和空氣與水一樣,理應取之不盡,用之不竭。
“不解”背后,還有很多的“不知”。
在人們眼里,電力的消耗似乎主要來自生活用電和鋼鐵等傳統第二產業,可全然不知的是,代表“更輕、更快、更綠色”的科技領域,正在成為電力消耗的主角。
以芯片制造企業臺積電為例,其一年共耗電143.3億度,相當于深圳市1344萬常住居民一年的用電量,
同時有一個令人震驚的數字是,全球比特幣挖礦年耗電量約為1348.9億度,超過瑞典整個國家的用電總和,經換算后,可在全球國家耗電量中排名27位。
此外,各大互聯網巨頭的數據中心,也是名副其實的 “電老虎”,
科技縱使為社會帶來了高效和便利,但在很多看不到的地方,存在著巨大的電力浪費,
(一)“吃掉”三峽大壩和葛洲壩的數據中心
近年來,隨著云計算、人工智能、大數據、物聯網和移動互聯網的深入發展,數據中心一方面步入快速發展階段。
但是,另一方面,數據中心又面臨能耗過高的問題,
華為負責研究可持續資訊和通信技術安德斯·安德雷曾表示,數據中心目前消耗了全球約2%的電力,到2030年可能上升到8%。
從大陸看,全國數據中心的耗電量已連續8年超過12%的速度增長。
2017年,大陸數據中心總耗電量達到1200-1300億千瓦時,這個數字超過三峽大壩和葛洲壩電廠發電量之和(約1000億千瓦時),而且預計2025年高達3842.2億千瓦時,
在巨大耗電量的背后,還有著令人難以置信的浪費。
麥肯錫咨詢公司透露,數據中心的耗電量僅有6%~12%是被用于網站計算的,其余均在維持服務器工作狀態時被無謂消耗。隨著互聯網高速發展,這種耗電情況近年來持續走高。
同時,“過度散熱”也是數據中心耗電巨大的重要原因,研究機構Uptime Institute曾對美國19個數據中心進行研究發現,數據中心的過度冷卻差不多達到實際所需要的2倍,
此外,由于可再生能源的利用率低下,數據中心運轉只能不斷加大使用原始驅動力——電力,耗電量自然只增不減。
居高不下的耗電量、溫室氣體的排放、大量的水資源消耗和設備報廢后的環境污染……數據中心數量與規模的快速增長已經為資源與環境帶來巨大挑戰,綠色數據中心的建設迫在眉睫,
(二)目前的節電手段——有效,但有限
面對數據中心的耗電局面,科技巨頭們各自支招,
以騰訊為例,騰訊在貴州的貴安新區新建了一座數據中心——騰訊貴安七星數據中心,坐落于兩座山的山體中,
騰訊貴州數據中心
該數據中心的設計規劃為:山洞外冷空氣從主洞口進入,經過制冷模塊與IT設備熱回風進行間接換熱后,利用熱氣流自然向上的煙囪效應把熱風從豎井排出,
這樣既可以充分利用外部自然冷源,又避免了外界空氣對設備的影響,提升了可再生能源的利用率,
此外,騰訊還利用余熱回收技術,減少數據中心的能源消耗。
以騰訊天津數據中心為例,騰訊將數據中心的余熱通過熱泵機組進行升溫,實現了綠色清潔的辦公樓采暖,
僅一期余熱回收項目,每年即可減少能耗標煤達525噸,相當于減少1310噸二氧化碳排放量,等效于種植7.2萬棵樹。
騰訊天津數據中心
再看阿里,
早在2016年,阿里云就推出了一款“涼得快”服務器,服務器被浸泡在一種特殊的絕緣冷卻液里,運算產生熱量可被冷卻液直接吸收進入外循環冷卻,全程用于散熱的能耗幾乎為零——這是一種高效的散熱方式:浸沒式液冷。
同年,阿里巴巴就在“風電之都”張北打造了兩座綠色數據中心,采用了阿里云自主研發的飛天操作系統,可以將單集群上萬臺服務器連接成一臺“超級計算機”,用一半的電就能創造同等計算能力。
另外,阿里利用張北氣溫低、空氣干凈的優勢,采用“新風自然冷技術”和“水側自然冷技術”,用自然冷源為服務器降溫,全年大約只有15天的時間需要開啟傳統壓縮機空調,僅制冷能耗就可以降低59%,
數據中心新風自然冷系統
當然,大陸科技巨頭致力于“節能”,外國科技巨頭也如是,
比如,Facebook將數據中心建在北極圈內,當地氣溫接近零下50度,外界的冷空氣被泵進中心大樓內,服務器產生的大量熱空氣和進來的冷空氣循環交換,形成自然冷卻的過程。
又比如,微軟將數據中心沉落海底,眾所周知,世界上深海海水一直很冷,它可以為微軟的數據中心提供隨時且免費的高效冷卻方式,
細心觀察不難發現:科技巨頭的種種措施都是為了利用自然冷源給數據中心提供更高的能效,減少制冷方面能耗的損失。
雖然科技巨頭們加大利用自然冷源等思路是正確的,但是目前也只能降低一小部分的消耗,
如果在這個基礎上,數據中心要“節能更大化”該何去何從?
(三)“節能更大化”路在何方?
針對這個問題,浪潮數據中心業務技術負責人告訴雷鋒網:“主流的節能方法是“配電環節”和“制冷環節”,但是由于配電環節已經相當成熟,提升空間有限。因此,節能的可操作性空間是在“制冷環節”,
以浪潮&LHAASO(高海拔宇宙觀測站)合作為例,建立在LHAASO觀測基地的稻城海子山數據中心海拔4410m,是全球最高的數據中心之一。與標準大氣壓相比,4410m海拔處,空氣密度是原密度的60%,常規風冷方式冷卻效率降低40%,低效率的風冷會造成芯片局部熱點,導致芯片降頻或者死機,
為此,浪潮采用冷板式液冷技術,通過液體冷卻方式對芯片降溫,使芯片低于臨界安全溫度10~20℃安全穩定運行,不受海拔作用影響,提高能源利用率,
無論是騰訊在山里建數據中心,亦或是阿里的浸沒式液冷,其實跟LHAASO的案例是一樣的道理。雖然技術原理可能有區別,但究本質都是利用自然冷源,提升能源利用率,減少用電消耗,
浪潮數據中心業務技術負責人進一步補充道:”節能最大化,根本上需要技術的不斷迭代,節能技術要逐步解決運維復雜、操作復雜的問題,走向“好用”、“易用”,從而降低數據中心的能源使用率。”
除了技術迭代,數據中心從東部沿海向西部內陸遷移也是“節能更大化”另一條好路,
前些年,大部分企業都是在業務豐富的東部地區建立數據中心。隨著東部數據中心變得飽和,加上數據中心的建設審批變得更加嚴格,現在很多企業都會將部分數據中心建設在西部,利用西部地區的太陽能發電,這也能提高可再生能源的利用率。
浪潮數據中心業務技術負責人還告訴雷鋒網(公眾號:雷鋒網):
當然,生態很關鍵。只有幾家科技巨頭發力節能,致力于碳中和作用是相對微小的。要打通行業上下游,整個產業鏈一起努力才能加速節能最大化,”
(四)生而畸形的AI,跳不出耗電的死胡同
盡管科技巨頭不斷通過一些物理和工程手段去降低數據中心等平臺的能耗,但從另外一方面來講,企業所采用的部分技術,生而不具備綠色基因。
如當前人工智能的核心驅動技術深度學習,天生需要強大算力和強大功耗支撐,而且模型訓練方法異常的粗暴,
現階段的AI,并不具備類似人類智慧一樣舉一反三和推理的能力,它的部分智能建立在“暴力計算”的基礎之上,深度學習的研究內容很簡單,就是羅列大量的數字進行運算,但這種方法無需通過顛覆性模式創新來實現,只需要提高算力,也就是堆芯片量即可。
2012年6月,谷歌利用16000塊芯片,讓AI觀看數百萬段YouTube視訊來識別出貓,即便如此仍錯誤百出,還不如人類眼睛的一瞥高效,
此外,2016年AlphaGo擊敗圍棋冠軍李世石的人機大戰中,AlphaGo每局棋需消耗約100萬瓦的電能,相當于一天約100戶家庭的供電量,相比之下,人腦消耗的功率僅20瓦,只有AlphaGo的5萬分之一,
真正公平的人機對戰,應該在能耗等客觀條件對等的情況,進行比拼,否則便跟背著火箭筒的五菱宏光跑贏法拉利超跑無異,
縱使機器超越了人,但顯然很低效,也不綠色,
不僅僅是過往發生的事件反映了人工智能耗能巨大的問題,外國最新的論文結果也折射出相同的問題:平均一個 AI 大模型訓練產生的能耗 = 五輛汽車一生排放的碳總量,
這篇新論文是馬薩諸塞大學部阿默斯特校區的研究人員公布的,以常見的幾種大型 AI 模型的訓練周期為例,發現該過程可排放超過 626000 磅二氧化碳,幾乎是普通汽車壽命周期排放量的五倍(其中包括汽車本身的制造過程)。
對此結果,很多AI研究人員感到震驚。
西班牙拉科魯尼亞大學部的一位計算機科學家曾表示:“雖然我們中的很多人對此(能耗)有一個抽象的、模糊的概念,但這些數字表明事實比我們想象得要嚴重。我或者是其他 AI 研究人員可能都沒想過這對環境的影響如此之大。”
以自然語言處理為例,研究人員研究了該領域中性能取得最大進步的四種模型:Transformer、ELMo、BERT 和 GPT-2。研究人員在單個 GPU 上訓練了至少一天,以測量其功耗,然后,使用模型原始論文中列出的幾項指標來計算整個過程消耗的總能量。
結果顯示,訓練的計算環境成本與模型大小成正比,然后在使用附加的調整步驟以提高模型的最終精度時呈爆炸式增長,尤其是調整神經網路體系結構以盡可能完成詳盡的試驗,并優化模型的過程,相關成本非常高,幾乎沒有性能收益,
以BERT模型為例,其碳足跡約為 1400 磅二氧化碳,這與一個人來回坐飛機穿越美洲的排放量相當,
那么,為什么AI模型會如此耗電?
因為與人類的學習方式相比,AI 的訓練效率非常低下。
現代 AI 使用人工神經網路,這是模擬人腦神經元的數學計算,每兩個相鄰神經元的連接強度都是神經網路上的一個參數,名叫權重,神經網路的訓練則需要從隨機權重開始,一遍遍地運行和調整參數,直到輸出與正確答案一致為止,
常見的一種訓練語言神經網路的方法是,從維基百科和新聞媒體網站下載大量文本,然后把一些詞語遮擋起來,并要求 AI 猜測被遮擋起來的詞語,剛開始的時候,AI 會全部搞錯,但是,經過不斷地調整后,AI 會逐漸學習數據中的模式,最終整個神經網路都會變得非常準確。
前文提到的 “BERT 模型”——基于變換器的雙向編碼器表示技術(Bidirectional Encoder Representations from Transformers,簡稱 BERT),這是一項由 Google 提出的自然語言處理(NLP)的預訓練技術,
該模型使用了來自維基百科和其他文章的 33 億個單詞,而且在整個訓練期間,BERT 讀取了該數據集 40 次,相比之下,一個 5 歲的孩子學說話只需要聽到 4500 萬個單詞,比 BERT 少3000倍。
之所以有以上這些強烈的對比是因為:
在開發模型期間,上述訓練過程需要反復多次,因為研究人員需要將神經網路調整到最優,即確定神經元的個數、神經元之間的連接數以及各個權重。他們需要反復嘗試很多組合,才能提高神經網路的準確度,然而,人類的大腦不需要尋找最佳結構,經過幾億年的進化,人類大腦已具備這種結構,
正是基于這樣的背后復雜因素,開發先進的AI模型,才會在數據中心產生大量的電能消耗和碳排放。
(五)科技巨頭節電的“工程”與“理論”使命
科技巨頭的耗電問題,已成為社會各界人士探討的重要話題,同時也讓當事企業面臨不少監管和輿論的挑戰,
此時的科技巨頭們,在承擔社會責任的同時,也應承擔起工程和理論兩端的技術使命,其一是通過已有的IT工程方法,進一步降低數據中心的能耗浪費。其二在理論層,研究出更低功耗的芯片,并推動具備推理能力的AI基礎研究的發展,讓技術更精益、更高效,
技術的向善,一種善是賦能,讓社會和生活更加美好。而另一種善,是進化,讓技術本身變得更加綠色。