版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

人工智能需要節(jié)能“培訓”

科普時報
原創(chuàng)
科技日報社旗下國家級科普全媒體平臺。
收藏

科普時報訊(實習生王雨珂) ChatGPT這種大型人工智能(AI)語言模型在世界上取得了顯著的成功,而直到現(xiàn)在才有更多的人注意到,訓練和運行AI模型會產(chǎn)生驚人的碳排放量。

國際能源署日前公布的數(shù)據(jù)表明,全球各國數(shù)據(jù)中心的溫室氣體排放量,已占到全球溫室氣體總排放量的1%左右。大型語言模型訓練已產(chǎn)生數(shù)千噸的碳排放,這與全球2050年實現(xiàn)“碳中和”的目標相悖。

美國麻省理工新聞網(wǎng)曾發(fā)布一篇名為《新工具可幫助減少人工智能模型消耗的能源》的文章,提到麻省理工學院林肯實驗室超級計算中心(LLSC)正在開發(fā)一項技術(shù),幫助數(shù)據(jù)中心降低能源消耗。他們的技術(shù)涵蓋從對硬件進行功耗限制,到采用能夠提前停止AI訓練的新型工具。但這些技術(shù)對模型性能的影響微乎其微,在以后工作中將推動綠色計算研究。

與許多數(shù)據(jù)中心一樣,LLSC在硬件上運行的AI作業(yè)數(shù)量顯著增加。LLSC的計算機科學家注意到能源使用量的增加,并對更高效運行作業(yè)的方法產(chǎn)生了好奇。綠色計算是該中心的原則,其能源完全來自無碳能源。

訓練人工智能模型,需要使用耗電量大的圖形處理單元(GPU)。自從實施功耗限制以來,LLSC超級計算機上的GPU溫度降低了約17攝氏度,并且溫度更加穩(wěn)定,減少了冷卻系統(tǒng)的壓力。降低硬件運行溫度還有可能提高可靠性和使用壽命。他們現(xiàn)在正考慮推遲購買新硬件,以減少中心的“內(nèi)在碳排放”。

評論
smxh676
大學士級
人工智能培訓和人機對話,需要不同的方式和制機進行控制與應(yīng)用。才能廣泛應(yīng)用普通化和科技化時代!
2024-02-13
科普員魏海,四義堂村
大學士級
閱讀
2024-02-13
科普中國俄體鎮(zhèn)023
大學士級
2024-02-14