【CNMO新聞】OpenAI開發(fā)的ChatGPT大火以后,這家公司卻警告未來的人工智能可能會摧毀人類。
近日,,OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾(Ilya Sutskever)和對齊團隊負責(zé)人簡·萊克(Jan Leike)在一篇博客文章中警告稱:“超級智能的巨大力量可能……導(dǎo)致人類被剝奪權(quán)力,,甚至人類滅絕,。目前,,我們還沒有一個解決方案來操縱或控制一個潛在的超智能人工智能,并防止它失控,?!?/p>
他們認為,超智能人工智能可能在這個十年到來,。人類將需要比目前更好的技術(shù)來控制超智能人工智能,,因此需要在所謂的“對齊研究”(alignment research)方面取得突破,該研究的重點是確保人工智能對人類有益,。
OpenAI表示,,該公司計劃投入大量資源,創(chuàng)建一個新的研究團隊——名為超級對齊團隊,,以確保其人工智能對人類來說是安全的,,最終使用人工智能來監(jiān)督自身。OpenAI想要使用人類反饋來訓(xùn)練AI系統(tǒng),,訓(xùn)練AI系統(tǒng)輔助人類評估,,然后最終訓(xùn)練AI系統(tǒng)進行實際的對齊研究。
但有人對該計劃提出反對,,他就是人工智能安全倡導(dǎo)者康納·萊希(Connor Leahy),。他稱:“在構(gòu)建人類水平的智能之前,你必須先解決對齊問題,否則默認情況下你無法控制它,。我個人認為這不是一個特別好的或安全的計劃,。”
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1054461.html
溫馨提示:投資有風(fēng)險,,入市須謹慎。本資訊不作為投資理財建議,。