AI生態(tài)系統(tǒng),,從硬件、訓練協(xié)議到操作技術,,都會耗費大量能源,。鑒于此,,科學家正在設法讓其更節(jié)能,。措施包括改變AI的運行策略,、研制更節(jié)能的算法和芯片等,。圖片來源:世界經濟論壇官網【科技創(chuàng)新世界潮】(330)◎本報記者劉霞世界經濟論壇官網近日報道指出,為讓人工智能(AI)發(fā)揮其變革潛力,、提高生產力水平及社會福祉,,人類必須確保它可持續(xù)地發(fā)展。這一愿景面臨的核心難題在于,,隨著算力和性能的不斷提升,,能耗也在快速增長。AI生態(tài)系統(tǒng),,從硬件,、訓練協(xié)議到操作技術,都會耗費大量能源,。鑒于此,,科學家正在設法讓其更節(jié)能。措施包括改變AI的運行策略,、研制更節(jié)能的算法和芯片等,。能源“吞金獸”AI是能源密集型技術。它究竟有多耗能,?數(shù)據給出了答案,。據法國《回聲報》網站報道,AI平臺“抱抱臉”研究員兼環(huán)境問題主管薩沙·盧喬尼表示,,Midjourney或Dall-E等AI算法生成一張圖片消耗的電力,,相當于給一部智能手機充滿電。一塊英偉達H100型圖形處理單元一年消耗的電量,比一個中等規(guī)模的美國家庭一年所耗的電量還要多,。美國《哈佛雜志》網站提出,,大語言模型在生成類似人類、連貫且符合上下文邏輯的文本方面做得更好,。但這種改進也有代價,,訓練GPT-3消耗的能源相當于120個美國家庭一年消耗的能源。美國《紐約時報》報道,,ChatGPT每天要響應大約2億個請求,,這一過程中消耗超過50萬度電。世界經濟論壇的數(shù)據顯示,,運行AI任務所需的能源消耗,,年增長率介于26%至36%之間。這意味著到2027年,,AI行業(yè)消耗的能源堪比冰島或荷蘭等國家一年的能耗,。改變運行策略讓AI更節(jié)能勢在必行。首先是調整AI運行策略,。世界經濟論壇官網指出,,AI運行一般分兩個主要階段:訓練階段和推理階段。在訓練階段,,模型通過消化大量數(shù)據來學習和開發(fā),;經過訓練后,它們進入推理階段,,用于解決使用者提出的問題。在這兩個階段限制能耗,,可將AI運行總能耗降低12%到15%,。美國俄勒岡州立大學電氣工程與計算機科學學院托馬斯·迪特瑞克教授指出,另一個有效的策略是優(yōu)化調度以節(jié)省能源,。例如,,在夜間運行輕量級的任務,或在寒冷的月份運行更大的項目等,,也可節(jié)省大量能源,。此外,將AI處理轉移到數(shù)據中心也有助于減少其碳排放,,因為數(shù)據中心的運行效率非常高,,其中有些運行使用了綠色能源。從長遠看,,促進AI與新興量子技術的協(xié)同也是引導AI走向可持續(xù)發(fā)展的重要戰(zhàn)略,。傳統(tǒng)計算能耗隨計算需求增加呈指數(shù)級增長,而量子計算和能耗之間呈線性增長。此外,,量子技術可使AI模型更緊湊,、學習效率更高并可改善其整體功能。新模型和新器件AI公司之間競爭的一個驅動力是相信參數(shù)越多越好,,這也意味著隨著參數(shù)越來越多,,能耗越來越大。例如,,GPT-4擁有1.8萬億個參數(shù),,而其“前身”GPT-3擁有1750億個參數(shù)。因此,,為讓AI更節(jié)能,,不少科學家正在嘗試找出不需要那么多參數(shù)的算法。HawAI.tech公司使用了新型電子元器件和基于概率論的AI技術來節(jié)省能耗,。在相同時段和能耗下,,新器件運算速度是英偉達Jeston芯片的6.4倍。該公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官拉斐爾·弗里施表示,,結合概率論和更優(yōu)化的電子元器件,,他們的解決方案所用的數(shù)據和能源會更少。此外,,模擬人腦功能的神經形態(tài)芯片也有望提升AI的效率,。近日,英特爾公司發(fā)布了名為HalaPoint的大型神經擬態(tài)系統(tǒng),。其內置1152個基于Intel四制程的Loihi2處理器,,支持多達11.5億個神經元和1280億個突觸,每秒可處理超過380萬億個8位突觸和超過240萬億個神經元操作,。它獨特的功能可實現(xiàn)未來AI應用的實時持續(xù)學習,,如解決科學和工程問題、物流,、智能城市基礎設施管理,、大語言模型和AI代理等。(來源:科技日報)
免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1101167.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。