財(cái)聯(lián)社5月2日訊(編輯 馬蘭)被稱為“人工智能教父”的多倫多大學(xué)教授Geoffrey Hinton,,在宣布離開谷歌之后表示,,對自己在開發(fā)人工智能這項(xiàng)技術(shù)中的角色感到遺憾,。
在漫長的谷歌生涯之后,,Hinton透露,,他雖然常用“他不做,,別人也會這么做”的借口安慰自己,但仍對于人工智能帶來的負(fù)面影響感到不安,,他懷疑這項(xiàng)技術(shù)將給人類帶來危害,。
他指出,生成式人工智能語言模型可能會導(dǎo)致虛假信息,、照片和視頻等在互聯(lián)網(wǎng)上大量傳播,,而公眾極易被其迷惑,很難分辨真假,。
此外,,Hinton還在媒體采訪中表達(dá)了對科技巨頭之間AI競賽的擔(dān)憂,并質(zhì)疑巨頭們是否走得太遠(yuǎn),,并無法在危險(xiǎn)出現(xiàn)時及時踩下剎車,。
輝煌成就下的不安
2012年,Hinton和他的兩個學(xué)生創(chuàng)建了一個神經(jīng)網(wǎng)絡(luò)模型,,可以分析數(shù)千張照片并識別常見物體,。其中一個學(xué)生Ilya Sutskever在2018年成為OpenAI的首席科學(xué)家,并領(lǐng)導(dǎo)了ChatGPT的開發(fā),。
而Hinton和其創(chuàng)辦的公司后來則被谷歌收購,,他本人也在谷歌研究了十多年的人工智能模型。
周一,,Hinton在推特上發(fā)文稱,,因?yàn)殡x開了谷歌,他可以發(fā)表關(guān)于人工智能危險(xiǎn)性的言論,,而不用擔(dān)心影響到谷歌,。他強(qiáng)調(diào),,谷歌在人工智能上的行為非常負(fù)責(zé)。
而Hinton的擔(dān)憂似乎也引發(fā)了谷歌一些現(xiàn)職員工的共鳴,。據(jù)測試谷歌人工智能Bard的一些員工稱,AI很危險(xiǎn),,而谷歌也似乎并沒有把人工智能的道德放在首位,,反而急于求成,希望趕上OpenAI的ChatGPT技術(shù),。
但谷歌首席科學(xué)家Jeff Dean澄清稱,,谷歌致力于負(fù)責(zé)任地開發(fā)人工智能,不斷學(xué)習(xí),、了解這項(xiàng)技術(shù)可能出現(xiàn)的風(fēng)險(xiǎn),,同時也在大膽創(chuàng)新。
除了人工智能的道德方面,,Hinton還談到人工智能最終對人類勞動力市場的沖擊,,其可能造成律師助理、翻譯和行政性工作方面的大量裁員,。這也是包括OpenAI首席執(zhí)行官Sam Altman在內(nèi)的行業(yè)專家們的憂慮所在,。
Hinton指出,大多數(shù)人認(rèn)為人工智能比人還聰明的未來還很遙遠(yuǎn),,他之前也認(rèn)為這個可能性還需要30-50年時間去實(shí)踐,。但現(xiàn)在,他的想法改變了,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1024980.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。