【CNMO新聞】OpenAI開發(fā)的ChatGPT大火以后,,這家公司卻警告未來的人工智能可能會摧毀人類,。
近日,,OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾(Ilya Sutskever)和對齊團隊負責人簡·萊克(Jan Leike)在一篇博客文章中警告稱:“超級智能的巨大力量可能……導致人類被剝奪權(quán)力,,甚至人類滅絕。目前,,我們還沒有一個解決方案來操縱或控制一個潛在的超智能人工智能,,并防止它失控。”
他們認為,,超智能人工智能可能在這個十年到來,。人類將需要比目前更好的技術(shù)來控制超智能人工智能,因此需要在所謂的“對齊研究”(alignment research)方面取得突破,,該研究的重點是確保人工智能對人類有益,。
OpenAI表示,該公司計劃投入大量資源,,創(chuàng)建一個新的研究團隊——名為超級對齊團隊,,以確保其人工智能對人類來說是安全的,最終使用人工智能來監(jiān)督自身,。OpenAI想要使用人類反饋來訓練AI系統(tǒng),,訓練AI系統(tǒng)輔助人類評估,然后最終訓練AI系統(tǒng)進行實際的對齊研究,。
但有人對該計劃提出反對,,他就是人工智能安全倡導者康納·萊希(Connor Leahy)。他稱:“在構(gòu)建人類水平的智能之前,,你必須先解決對齊問題,,否則默認情況下你無法控制它。我個人認為這不是一個特別好的或安全的計劃,?!?/p>
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1054461.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。