來源:環(huán)球市場播報
電影《奧本海默》
硅谷大數(shù)據(jù)公司Palantir首席執(zhí)行官亞歷山大·卡普(Alexander Karp)表示,,就像電影《奧本海默》中這位科學(xué)家在原子彈爆炸后才意識到他開發(fā)的這一技術(shù)的影響一樣,人工智能開發(fā)人員也可能在為時已晚的時候才意識到這項(xiàng)技術(shù)的潛在危害,。
卡普在一篇評論文章中寫道:“在計算機(jī)科學(xué)領(lǐng)域,,我們現(xiàn)在已經(jīng)走到了一個類似的十字路口,一個連接工程學(xué)和倫理學(xué)的十字路口,,在這里,,我們將再次不得不選擇是否繼續(xù)發(fā)展一項(xiàng)我們尚未完全了解其力量和潛力的技術(shù)?!?/p>
卡普說,,人工智能被整合到我們周圍世界存在的無數(shù)技術(shù)系統(tǒng)中,,最終可以與先進(jìn)的武器系統(tǒng)相結(jié)合,,并補(bǔ)充說,人工智能能夠部署致命武器并非不可能,。
他寫道:“隨著人工智能網(wǎng)絡(luò)變得越來越大,、越來越有能力,用它們來構(gòu)建高效的武器系統(tǒng)變得越來越誘人,,這與二戰(zhàn)期間核彈發(fā)明者面臨的道德困境相呼應(yīng),。”
“諸如此類關(guān)于人工智能進(jìn)一步發(fā)展的擔(dān)憂并非沒有道理,。我們正在開發(fā)的軟件可以部署致命武器,。武器系統(tǒng)與日益自主的人工智能軟件的潛在集成必然帶來風(fēng)險?!?/p>
卡普認(rèn)為,,雖然人工智能和機(jī)器學(xué)習(xí)技術(shù)確實(shí)非常強(qiáng)大,但叫停這項(xiàng)技術(shù)的發(fā)展是沒有根據(jù)的,。
就像OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)呼吁的那樣,,卡普主張建立一個監(jiān)管框架,以建立“護(hù)欄”,,確保這項(xiàng)技術(shù)以積極的方式發(fā)展。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1061675.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。