減少碳排放,MIT開發出能提高能源效率的AI系統

人工智能給人類帶來便利的同時,它的環境可持續問題一直備受關注。

去年6月份,美國馬薩諸塞州大學阿默斯特分校的研究人員發佈了一份報告,預估訓練和運行某種神經網絡系統所需的電量會產生大約626000磅(1磅約等於0.45千克)的二氧化碳排放。這相當於美國普通汽車使用壽命內排放量的五倍。

到了人工智能模型的部署階段,碳排放的問題會變得更加嚴重。因為系統需要部署在不同的硬件平臺,每個硬件平臺又具備不同的屬性和計算資源。

為了改變這樣的情況,來自麻省理工學院的研究人員開發了一種新的自動化AI系統,可用於訓練和運行某些神經網絡。結果表明,用某些關鍵方法提高系統的計算效率,系統可以減少碳排放。

研究人員將這套系統稱為“once-for-all”(一次就好)網絡,它可以訓練一個大型神經網絡,其中包含許多不同大小的預訓練子模型。每個子模型都可以在推理時獨立運行而無需重新訓練,並且系統會根據目標硬件的功率和速度,折衷相關的精度和等待時間,來確定最佳子模型。例如,對於智能手機,系統會選擇更大的子模型,但根據各個電池的壽命和計算資源,其子網結構又會有所不同。研究人員稱,這套系統在訓練時只大約只需當今流行的模型搜索技術的1 / 1300的碳排放量。

“我們的目標是建立更小,更綠色的神經網絡。”MIT電氣工程和計算機科學系的助理教授Song Han表示: “到目前為止,搜索有效的神經網絡架構都需要大量的碳足跡。但是,通過新方法,我們將碳排放減少了幾個數量級。”

據Song Han介紹,關於這套系統的論文將會在下週發表,其他研究者還包括來自EECS,MIT-IBM Watson AI Lab和上海交通大學的四名本科生和研究生。

那麼,他們的方法具體是如何做到減少計算所帶來的的碳排放的?研究員表示,主要在於他們採用了“漸進式收縮”的算法,可以有效地訓練大模型,又同時支持所有子模型。這個算法首先會訓練大型模型,然後在大型模型的幫助下訓練較小的子模型,以便它們可以同時學習。最後,當所有子模型都訓練完成後,就可以根據平臺的功率和速度限制進行快速專業化的計算。添加新設備時,它可以以零培訓成本支持許多硬件設備。

在實驗中,研究人員發現,用他們的方法訓練一個包含超過10萬億個架構設置的計算機視覺模型,比花費數小時訓練每個子網絡要有效得多。此外,這套系統不會影響模型的準確性或效率。在ImageNet上進行測試時,該模型在移動設備上得到了最好的準確性,並且在推理方面比領先的分類系統快1.5到2.6倍。

研究成員之一,IBM研究員兼MIT-IBM Watson AI實驗室John Cohn認為:“如果要繼續保持AI的快速發展,我們需要減少對環境的影響。開發使AI模型更小,更高效的方法,好處在於這些模型可能還會表現更好。”


分享到:


相關文章: