北京日?qǐng)?bào)客戶端 | 記者 袁璐
6月10日,在2023北京智源大會(huì)AI安全與對(duì)齊論壇上,,智源研究院理事長(zhǎng),,美國(guó)國(guó)家工程院外籍院士張宏江對(duì)話OpenAI 首席執(zhí)行官(CEO)山姆 · 阿爾特曼(Sam Altman)。
張宏江向阿爾特曼提問(wèn)稱,,面對(duì)通用人工智能(AGI)的急速發(fā)展,,各國(guó)正設(shè)法建立共識(shí),建立全球合作,。有哪些因素和問(wèn)題是人工智能安全的關(guān)鍵,?我們又應(yīng)該如何應(yīng)對(duì)這些挑戰(zhàn)?
對(duì)此,,阿爾特曼表示,,首先應(yīng)聚焦人工智能的安全技術(shù)研究,行業(yè)不僅需要考慮人工智能模型本身的安全性,,還應(yīng)該考慮整個(gè)系統(tǒng)的安全性,。“我們可以構(gòu)建在人工智能模型上運(yùn)行的安全分類器和檢測(cè)器,,用于監(jiān)控模型是否符合使用策略,,并不斷迭代?!?/p>
但阿爾特曼強(qiáng)調(diào),,人工智能安全不是一個(gè)純粹的技術(shù)問(wèn)題,要讓人工智能既安全又有益,需要在不同的背景下理解不同國(guó)家的用戶偏好,?!爸袊?guó)擁有一些世界上最優(yōu)秀的人工智能人才。想要解決人工智能系統(tǒng)對(duì)齊問(wèn)題的困難,,需要來(lái)自世界各地的最好的頭腦,。我真的希望中國(guó)的人工智能研究人員做出巨大的貢獻(xiàn)?!?/p>
人工智能系統(tǒng)對(duì)齊問(wèn)題(alignment problems)是當(dāng)下人工智能行業(yè)的研究重點(diǎn)和熱點(diǎn),。建立一個(gè)非常強(qiáng)大的AGI系統(tǒng),如果它不按人類的意愿行事,,或者它的目標(biāo)與人類的目標(biāo)沖突,,情況就會(huì)變得非常糟糕。因此,,在AGI的系統(tǒng)當(dāng)中,,人類對(duì)于模型的訓(xùn)練是需要對(duì)齊人類的意圖的——即通過(guò)人的調(diào)教、指導(dǎo)甚至方法論的輸出,,不斷解鎖新模型的新能力,,并避免意外和故意誤用。
為了更好地展開(kāi)國(guó)際合作,,阿爾特曼透露,,正在推進(jìn)建立安全開(kāi)發(fā)人工智能系統(tǒng)的國(guó)際標(biāo)準(zhǔn),并構(gòu)建反映全球價(jià)值觀和偏好的數(shù)據(jù)庫(kù),?!叭藗兛梢酝ㄟ^(guò)這些數(shù)據(jù)庫(kù)調(diào)整人工智能系統(tǒng),也可以共同分享人工智能安全方面的研究,?!?/p>
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1044698.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。