財聯(lián)社5月4日訊(編輯 周子意)近幾個月來,,隨著OpenAI的ChatGPT等人工智能模型迅速崛起,一些技術(shù)專家和研究人員開始思考人工智能(AI)是否很快就具備超越人類的能力,也有越來越多的行業(yè)人士擔(dān)心人工智能會被濫用于犯罪或其他惡意用途上,。
微軟首席經(jīng)濟(jì)學(xué)家邁克爾·施瓦茨(Michael Schwarz)周三(5月3日)在世界經(jīng)濟(jì)論壇(WEF)的一個小組討論會上談到人工智能時表示,,“我們確實必須非常擔(dān)心這項技術(shù)的安全性——就像其他任何技術(shù)一樣?!?/p>
即使對從事人工智能研究的公司來說,,人工智能的危險性也很難忽視,例如正深度參與人工智能研發(fā)和實施的微軟,。
施瓦茨表示,,他自己非常肯定人工智能會被惡人利用,,而且它確實會造成真正的損害,。
他認(rèn)為,,這項技術(shù)確實不安全,不過更關(guān)鍵的是要把保障措施落實到位,。
微軟公司發(fā)言人表示,,“我們認(rèn)為人工智能的進(jìn)步將解決比現(xiàn)在更多的挑戰(zhàn),但我們也始終認(rèn)為,,當(dāng)你創(chuàng)造出可以改變世界的技術(shù)時,,你必須確保負(fù)責(zé)任地使用這項技術(shù)?!?/p>
熱議
施瓦茨對人工智能的警告在某種程度上與谷歌前副總裁兼工程研究員Geoffrey Hinton最近的言論遙相呼應(yīng),。
Hinton在谷歌任職期間,他曾幫助開發(fā)了一些關(guān)鍵技術(shù),,為當(dāng)今廣泛使用的人工智能工具提供了支持,,被人尊稱為“人工智能教父”。
在本周一(5月1日)的采訪中,,Hinton表示,,生成式人工智能語言模型可能會導(dǎo)致虛假信息、照片和視頻等在互聯(lián)網(wǎng)上大量傳播,,而公眾極易被其迷惑,,很難分辨真假。
他指出,,“很難想象如何阻止壞人利用它做壞事”,,他還警告稱,要阻止人工智能的負(fù)面用途是很困難的,。
OpenAI安全團(tuán)隊的前主管Paul Christiano近日也發(fā)出警告,,人類水平或超人類水平的人工智能來控制人類甚至消滅人類的可能性,并非為零,。
在一檔訪談節(jié)目中,,Christiano甚至提出,“我認(rèn)為人工智能可能有10%到20%的機會接管世界,?!?/p>
Christiano曾多次強調(diào),希望研究更多關(guān)于人工智能安全性的理論問題,,重點是確保人工智能系統(tǒng)與人類利益和道德原則保持一致,,并補充稱,OpenAI在這類研究中“不是最好的”,。
對于人工智能系統(tǒng)中充斥著的錯誤信息,,Christiano也警告道,不建議開發(fā)得過快。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1025570.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。