作者 | 黃金瓊
編輯 | 鄧詠儀
以ChatGPT為代表的AI大模型技術(shù)席卷全球的同時(shí),也引起了廣泛爭議,。如今,,監(jiān)管腳步正在快速迫近,。
6月中旬,,斯坦福大學(xué)AI研究實(shí)驗(yàn)室發(fā)布了一項(xiàng)對AI大模型的研究的結(jié)果,。研究以十個(gè)AI大模型為研究對象,,評估他們是否達(dá)到歐盟AI法案的標(biāo)準(zhǔn),。結(jié)果顯示,,這些頂尖的AI模型均沒有達(dá)標(biāo)。
斯坦福研究團(tuán)隊(duì)在報(bào)告中表示:“主要基礎(chǔ)模型提供商目前基本上沒有遵守這些草案要求,。他們很少披露有關(guān)其模型的數(shù)據(jù),、計(jì)算和部署以及模型本身的關(guān)鍵特征的足夠信息。尤其是,,他們不遵守草案要求來描述受版權(quán)保護(hù)的訓(xùn)練數(shù)據(jù)的使用,、訓(xùn)練中使用的硬件和產(chǎn)生的排放,也不披露如何評估和測試模型的方式,?!?/p>
歐盟AI法案是世界上第一個(gè)AI監(jiān)管相關(guān)法案,從被提出開始即引起全球廣泛關(guān)注,,也會影響大多數(shù)AI大模型在歐洲的發(fā)展前景,。
6月14日,,歐洲議會以299票贊成、28票反對,、93票棄權(quán)的表決結(jié)果通過了關(guān)于人工智能法案的草案,。人工智能草案的內(nèi)容中,包括明確了關(guān)于Open AI和谷歌等模型的義務(wù),。法規(guī)旨在確保人工智能技術(shù)對用戶能夠保持透明,、公平和安全,計(jì)劃將于2024年生效,。
來源:斯坦福
在斯坦福大學(xué)的研究中,研究團(tuán)隊(duì)先從監(jiān)管草案選取出22項(xiàng)要求,,再以是否有意義地使用公眾信息作為標(biāo)準(zhǔn),,最終選擇出12項(xiàng)評估要求,為每個(gè)評估要求配備了5點(diǎn)評分標(biāo)準(zhǔn),。在此基礎(chǔ)上,,研究人員將這12項(xiàng)要求進(jìn)行維度劃分為四個(gè)層次,分別是數(shù)據(jù)來源,、數(shù)據(jù)處理,、模型本身和實(shí)踐應(yīng)用。
各大AI模型的得分與滿分仍有很大差距,。主要的問題集中在:版權(quán)責(zé)任不明確,;能源使用報(bào)告不均衡;風(fēng)險(xiǎn)緩解方面披露不充分,;缺乏評估標(biāo)準(zhǔn)或?qū)徲?jì)生態(tài)系統(tǒng)等等,。
各家大模型提供商的合規(guī)性差異也很大,。一些AI大模型公司的得分低于 25%(AI21 Labs、Aleph Alpha,、Anthropic),。目前綜合得分最高的,是AI大模型開源社區(qū)Hugging Face,。
最近幾個(gè)月,,大公司的AI發(fā)布會同樣是證明。在Open AI的GPT-4和谷歌的PaLM2的發(fā)布會上,,他們也都沒有披露關(guān)于數(shù)據(jù),、評估方式等相關(guān)內(nèi)容。
斯坦福團(tuán)隊(duì)表示,,歐盟所出臺的法規(guī)具備可行性,,目前的AI模型遵守法規(guī)要求并非難題。他們在報(bào)告中也對歐盟政策制定者,、全球政策制定者,、模型提供商數(shù)方提供建議。比如,,AI模型的政策制定者需要在歐盟AI法規(guī)的要求下,,優(yōu)先考慮模型的透明度,對于基礎(chǔ)模型的開發(fā),、使用和性能有關(guān)的披露等,,這都會提高整個(gè)人工智能生態(tài)系統(tǒng)的透明度。
而對于模型提供商而言,,行業(yè)標(biāo)準(zhǔn)是比較大的挑戰(zhàn),。在AI大模型領(lǐng)域尚沒有成型標(biāo)準(zhǔn)前,斯坦福團(tuán)隊(duì)也提出了一些實(shí)用的建議——比如改善為大模型開發(fā)人員提供的文檔,?!疤峁┥炭梢远覒?yīng)該通過模仿最合規(guī)的大模型提供商,來提高自身的合規(guī)性,?!?/p>
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1051368.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議。