財(cái)聯(lián)社5月4日訊(編輯 周子意)近幾個(gè)月來,,隨著OpenAI的ChatGPT等人工智能模型迅速崛起,一些技術(shù)專家和研究人員開始思考人工智能(AI)是否很快就具備超越人類的能力,,也有越來越多的行業(yè)人士擔(dān)心人工智能會(huì)被濫用于犯罪或其他惡意用途上,。
微軟首席經(jīng)濟(jì)學(xué)家邁克爾·施瓦茨(Michael Schwarz)周三(5月3日)在世界經(jīng)濟(jì)論壇(WEF)的一個(gè)小組討論會(huì)上談到人工智能時(shí)表示,“我們確實(shí)必須非常擔(dān)心這項(xiàng)技術(shù)的安全性——就像其他任何技術(shù)一樣,?!?/p>
即使對(duì)從事人工智能研究的公司來說,人工智能的危險(xiǎn)性也很難忽視,,例如正深度參與人工智能研發(fā)和實(shí)施的微軟,。
施瓦茨表示,他自己非??隙ㄈ斯ぶ悄軙?huì)被惡人利用,,而且它確實(shí)會(huì)造成真正的損害。
他認(rèn)為,,這項(xiàng)技術(shù)確實(shí)不安全,,不過更關(guān)鍵的是要把保障措施落實(shí)到位。
微軟公司發(fā)言人表示,“我們認(rèn)為人工智能的進(jìn)步將解決比現(xiàn)在更多的挑戰(zhàn),,但我們也始終認(rèn)為,,當(dāng)你創(chuàng)造出可以改變世界的技術(shù)時(shí),你必須確保負(fù)責(zé)任地使用這項(xiàng)技術(shù),?!?/p>
熱議
施瓦茨對(duì)人工智能的警告在某種程度上與谷歌前副總裁兼工程研究員Geoffrey Hinton最近的言論遙相呼應(yīng)。
Hinton在谷歌任職期間,,他曾幫助開發(fā)了一些關(guān)鍵技術(shù),,為當(dāng)今廣泛使用的人工智能工具提供了支持,被人尊稱為“人工智能教父”,。
在本周一(5月1日)的采訪中,,Hinton表示,生成式人工智能語言模型可能會(huì)導(dǎo)致虛假信息,、照片和視頻等在互聯(lián)網(wǎng)上大量傳播,,而公眾極易被其迷惑,很難分辨真假,。
他指出,,“很難想象如何阻止壞人利用它做壞事”,他還警告稱,,要阻止人工智能的負(fù)面用途是很困難的,。
OpenAI安全團(tuán)隊(duì)的前主管Paul Christiano近日也發(fā)出警告,人類水平或超人類水平的人工智能來控制人類甚至消滅人類的可能性,,并非為零,。
在一檔訪談節(jié)目中,Christiano甚至提出,,“我認(rèn)為人工智能可能有10%到20%的機(jī)會(huì)接管世界,。”
Christiano曾多次強(qiáng)調(diào),,希望研究更多關(guān)于人工智能安全性的理論問題,,重點(diǎn)是確保人工智能系統(tǒng)與人類利益和道德原則保持一致,并補(bǔ)充稱,,OpenAI在這類研究中“不是最好的”,。
對(duì)于人工智能系統(tǒng)中充斥著的錯(cuò)誤信息,Christiano也警告道,,不建議開發(fā)得過快,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1025570.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。