神譯局是36氪旗下編譯團隊,關(guān)注科技,、商業(yè),、職場,、生活等領(lǐng)域,重點介紹國外的新技術(shù),、新觀點,、新風(fēng)向。
編者按:一項新的分析表明,,像 Llama 2 (二號羊駝)這樣的 “開源 “人工智能工具在很多方面仍然受到大型科技公司的控制,。打著“開源”旗號的AI模型,可能會有一些陷阱,。本文來自翻譯,。
CHATGPT是當下爆火的一款人工職能語言工具,,只需要輸入相關(guān)提示就能幫助人們實現(xiàn)各種想要的功能,任何人都可以利用它快速獲取信息和解決問題,,但這個世界聞名的聊天機器人的內(nèi)部工作原理仍然是一個未解之謎,。
然而,近幾個月來,,讓人工智能更加“開放”的相關(guān)努力似乎獲得了更多動力,。今年5月,有人泄露了Meta公司的一個名為Llama(羊駝)的模型,,該模型允許外部人員訪問其底層代碼以及決定其行為的模型權(quán)重等,。然后,今年7月,,Meta又推出了功能更強大的模型,,稱為Llama 2,聲稱任何人都可以下載,,修改和重復(fù)使用,。Meta的Llama 系列模型已經(jīng)成為許多公司、研究人員和人工智能業(yè)余愛好者構(gòu)建具有類似chatgpt功能的工具和應(yīng)用程序的基礎(chǔ),。
“我們在世界各地擁有廣泛的支持者,,他們相信我們對當今人工智能的開放方法……研究人員致力于使用該模型進行研究,而科技界,、學(xué)術(shù)界和政策部門的人們也和我們一樣,,看到了 Llama 和開放平臺的好處,”Meta 在發(fā)布 Llama 2 時說,。今天上午,,Meta 發(fā)布了另一個模型——Llama 2 Code,,該模型針對編碼進行了微調(diào)。
數(shù)十年來,,開源方法使軟件的獲取變得更加民主,、確保了透明度并提高了軟件的安全性,現(xiàn)在似乎也被認為可以對人工智能產(chǎn)生類似的影響,。
但這遠遠還不夠,,來自卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金會(Signal Foundation)的研究團隊,,在其發(fā)表的一篇研究論文,,探討了 “Llama 2” 和其他以某種方式被稱為“開放”的人工智能模型的現(xiàn)實情況。他們表示,,打著“開源”旗號的模型可能會帶來一些限制,。
據(jù)論文描述,Llama 2 可以免費下載,、修改和部署,,但它不在傳統(tǒng)的開源許可范圍內(nèi)。Meta 的許可證禁止使用 Llama 2 訓(xùn)練其他語言模型,,如果開發(fā)者將 Llama 2 部署到每日用戶超過 7 億的應(yīng)用程序或服務(wù)中,,則需要特殊許可證。
這種程度的控制意味著 Llama 2 可以為 Meta 帶來重大的技術(shù)和戰(zhàn)略利益,。例如,,當該公司在自己的應(yīng)用程序中使用該模型時,Meta可以從外部開發(fā)者所做的有益調(diào)整中獲益,。
研究人員說,,在普通開源許可下發(fā)布的模型,如非營利組織 EleutherAI 的 GPT Neo,,則開放程度更高,。但這類項目很難與大型公司推出的模型競爭。
首先,,訓(xùn)練高級模型所需的數(shù)據(jù)往往是保密的,。其次,構(gòu)建此類模型所需的軟件框架通常由大公司控制,。最流行的兩個軟件框架 TensorFlow 和 Pytorch 分別由谷歌和 Meta 維護,。第三,訓(xùn)練大型模型所需的計算機能力也非一般開發(fā)人員或公司所能企及,,通常一次訓(xùn)練需要數(shù)千萬或數(shù)億美元,。最后,完善和改進這些模型所需的人力也大多是資金雄厚的大公司才能獲得的資源,。
從目前的趨勢來看,,數(shù)十年來最重要的技術(shù)之一最終可能只會豐富和增強少數(shù)幾家公司的能力,,其中包括 OpenAI、微軟,、Meta 和谷歌,。如果人工智能真的是一項能改變世界的技術(shù),那么如果它能得到更廣泛的應(yīng)用和普及,,就能帶來最大的好處,。
“我們的分析表明,開放性不僅不能使人工智能‘民主化’,,”Signal 公司總裁,、本文的研究者之一梅雷迪斯·惠特克(Meredith Whittaker)告訴我?!笆聦嵣?,我們表明,公司和機構(gòu)可以而且已經(jīng)利用’開放’技術(shù)來鞏固和擴大權(quán)力集中,。”
惠特克補充說,,“我們確實亟需有意義的替代技術(shù),,以取代由大型壟斷企業(yè)定義和主導(dǎo)的技術(shù)——尤其是當人工智能系統(tǒng)被整合到許多具有特殊公共影響的高度敏感領(lǐng)域,比如醫(yī)療保健,、金融,、教育和工作場所時?!彼f:“創(chuàng)造條件使這種替代成為可能,,是一個可以與反壟斷改革等監(jiān)管運動共存甚至得到其支持的項目?!?/p>
除了制衡大公司的權(quán)力之外,,讓人工智能更加開放對于釋放該技術(shù)的最佳潛力,同時避免其最壞的傾向可能至關(guān)重要,。
如果我們想了解最先進的人工智能模型有多大能力,,并降低部署和進一步發(fā)展可能帶來的風(fēng)險,那么最好向全世界的科學(xué)家開放這些模型,。
正如“隱晦式安全”(security through obscurity)永遠無法真正保證代碼的安全運行一樣,,對強大的人工智能模型的工作原理加以保護也未必是最明智的做法。
譯者:Araon_
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1088419.html
溫馨提示:投資有風(fēng)險,,入市須謹慎,。本資訊不作為投資理財建議。