來(lái)源:環(huán)球市場(chǎng)播報(bào)
電影《奧本海默》
硅谷大數(shù)據(jù)公司Palantir首席執(zhí)行官亞歷山大·卡普(Alexander Karp)表示,,就像電影《奧本海默》中這位科學(xué)家在原子彈爆炸后才意識(shí)到他開(kāi)發(fā)的這一技術(shù)的影響一樣,,人工智能開(kāi)發(fā)人員也可能在為時(shí)已晚的時(shí)候才意識(shí)到這項(xiàng)技術(shù)的潛在危害,。
卡普在一篇評(píng)論文章中寫(xiě)道:“在計(jì)算機(jī)科學(xué)領(lǐng)域,我們現(xiàn)在已經(jīng)走到了一個(gè)類似的十字路口,,一個(gè)連接工程學(xué)和倫理學(xué)的十字路口,,在這里,我們將再次不得不選擇是否繼續(xù)發(fā)展一項(xiàng)我們尚未完全了解其力量和潛力的技術(shù),?!?/p>
卡普說(shuō),人工智能被整合到我們周圍世界存在的無(wú)數(shù)技術(shù)系統(tǒng)中,最終可以與先進(jìn)的武器系統(tǒng)相結(jié)合,,并補(bǔ)充說(shuō),,人工智能能夠部署致命武器并非不可能,。
他寫(xiě)道:“隨著人工智能網(wǎng)絡(luò)變得越來(lái)越大、越來(lái)越有能力,,用它們來(lái)構(gòu)建高效的武器系統(tǒng)變得越來(lái)越誘人,,這與二戰(zhàn)期間核彈發(fā)明者面臨的道德困境相呼應(yīng)?!?/p>
“諸如此類關(guān)于人工智能進(jìn)一步發(fā)展的擔(dān)憂并非沒(méi)有道理,。我們正在開(kāi)發(fā)的軟件可以部署致命武器。武器系統(tǒng)與日益自主的人工智能軟件的潛在集成必然帶來(lái)風(fēng)險(xiǎn),?!?/p>
卡普認(rèn)為,雖然人工智能和機(jī)器學(xué)習(xí)技術(shù)確實(shí)非常強(qiáng)大,,但叫停這項(xiàng)技術(shù)的發(fā)展是沒(méi)有根據(jù)的,。
就像OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)呼吁的那樣,卡普主張建立一個(gè)監(jiān)管框架,,以建立“護(hù)欄”,,確保這項(xiàng)技術(shù)以積極的方式發(fā)展。
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1061675.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。