把AI裝進(jìn)籠子
AI領(lǐng)域頂尖專家和圖靈獎(jiǎng)得主約書亞?本吉奧,、特斯拉首席執(zhí)行官馬斯克等人千人聯(lián)名簽署公開信,呼吁暫停開發(fā)比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月,,稱其“對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)”,。
AI對(duì)人類究竟有風(fēng)險(xiǎn)嗎?
“人工智能在理論上是有可能毀滅人類的,?!敝袊?guó)人工智能學(xué)會(huì)基礎(chǔ)專委會(huì)副主任陳志成在接受中新社國(guó)是直通車采訪時(shí)表示,,正是基于這種風(fēng)險(xiǎn)的存在,,所以才制定了在國(guó)際上達(dá)成共識(shí)的三原則進(jìn)行約束。
第一條,,不得傷害人類,,或看到人類受到傷害而袖手旁觀。
第二條,,必須服從人類的命令,,除非這條命令與第一條相矛盾。
第三條,,必須保護(hù)自己,,除非這種保護(hù)與以上兩條相矛盾。
馬斯克的公開信中主張,,在開發(fā)強(qiáng)大的AI系統(tǒng)之前,,應(yīng)先確認(rèn)其帶來(lái)影響是積極的、風(fēng)險(xiǎn)是可控的,。
但是,,支持還是反對(duì),很多大佬意見(jiàn)不一,,已經(jīng)開始唇槍舌戰(zhàn),。
比如,LeCun(美國(guó)科學(xué)院院士,、圖靈獎(jiǎng)獲得者),、吳恩達(dá)(曾任斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任)、田淵棟(Facebook人工智能研究院智能圍棋項(xiàng)目負(fù)責(zé)人)等一眾AI大佬,,都發(fā)文公開反對(duì)這份“千人聯(lián)名”,。
吳恩達(dá)表示,,在GPT-4出現(xiàn)之后要求AI訓(xùn)練暫停6個(gè)月是很可怕的事情:GPT-4在教育、醫(yī)療保健,、食品等領(lǐng)域都有很多新的應(yīng)用,,這將幫助許多人。
田淵棟說(shuō),,“我不簽暫停令”,!AI的發(fā)展就像囚徒困境:一旦開始,就沒(méi)有辦法停止或扭轉(zhuǎn)這一趨勢(shì),,這就是進(jìn)化的必然。應(yīng)該換個(gè)角度繼續(xù)向前看,,更好地理解LLM(大型語(yǔ)言模型),,適應(yīng)它并利用其力量,感受熱度,。
Meta數(shù)據(jù)科學(xué)家林致遠(yuǎn),、英偉達(dá)AI研究科學(xué)家Jim Fan也對(duì)吳恩達(dá)觀點(diǎn)表示贊同。
國(guó)內(nèi)首批深度學(xué)習(xí)工程師,、神策數(shù)據(jù)VP樂(lè)一帆在接受中新社國(guó)是直通車采訪時(shí)表示,,他并不認(rèn)為ChatGPT本身會(huì)像科幻電影里演的那樣,可以控制甚至毀滅人類,。但是他的擔(dān)心有三方面:
第一,,用戶惡意利用GPT獲知危害社會(huì)或犯罪方法等問(wèn)題;
第二,,用戶自身分辨能力不足,,被GPT蒙蔽;
第三,,GPT的核心目標(biāo)函數(shù)被別有用心的人掌握,,通過(guò)操縱GPT來(lái)挑起國(guó)際爭(zhēng)端等。
陳志成認(rèn)為,,ChatGPT本質(zhì)上是基于概率統(tǒng)計(jì)并依賴大算力的大數(shù)據(jù)分析行為,,但并不是真正意義上具有“理解”能力的人工智能。以現(xiàn)有情況來(lái)看,,不可能具備像人一樣思維邏輯或?qū)W習(xí)經(jīng)驗(yàn)的能力來(lái)自主傷害人類,,只是按照程序進(jìn)行數(shù)據(jù)收集、梳理,、分析,、識(shí)別和輸出等。
陳志成認(rèn)為,,人工智能是大趨勢(shì),,即便暫停GPT-5的研發(fā)也阻擋不了人工智能的發(fā)展,任何時(shí)代都有科技的進(jìn)步,這是正?,F(xiàn)象,。
怎樣才能把人工智能“裝進(jìn)籠子”?
分析人士認(rèn)為,,人類在加快發(fā)展人工智能的同時(shí),,也要把人工智能“裝進(jìn)籠子”。
陳志成說(shuō),,中國(guó)將是世界上最有效監(jiān)管GPT技術(shù)應(yīng)用的國(guó)家,,這不僅是基于體制優(yōu)勢(shì),關(guān)于對(duì)人工智能的監(jiān)管及其倫理約束,,中國(guó)也制定了相關(guān)規(guī)范,。
中國(guó)國(guó)家新一代人工智能治理專業(yè)委員會(huì)于2021年9月25日發(fā)布《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,,為從事人工智能相關(guān)活動(dòng)的自然人,、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引。增強(qiáng)全社會(huì)的人工智能倫理意識(shí)與行為自覺(jué),,積極引導(dǎo)負(fù)責(zé)任的人工智能研發(fā)與應(yīng)用活動(dòng),,促進(jìn)人工智能健康發(fā)展。
《新一代人工智能倫理規(guī)范》第一條即開宗明義:本規(guī)范旨在將倫理道德融入人工智能全生命周期,,促進(jìn)公平,、公正、和諧,、安全,,避免偏見(jiàn)、歧視,、隱私和信息泄露等問(wèn)題,。
聯(lián)合國(guó)教科文組織近日也發(fā)表聲明,呼吁各國(guó)政府盡快實(shí)施該組織通過(guò)的首份人工智能倫理問(wèn)題全球性協(xié)議——《人工智能倫理問(wèn)題建議書》,。旨在促進(jìn)人工智能為人類,、社會(huì)、環(huán)境以及生態(tài)系統(tǒng)服務(wù),,并預(yù)防其潛在風(fēng)險(xiǎn),。
該組織總干事阿祖萊說(shuō),世界需要更強(qiáng)有力的人工智能倫理規(guī)則,,這是時(shí)代的挑戰(zhàn),。“現(xiàn)在是時(shí)候在國(guó)家層面實(shí)施這些戰(zhàn)略和法規(guī)了,。我們必須言出必行,,確保實(shí)現(xiàn)《建議書》的目標(biāo),。”
來(lái)源:國(guó)是直通車
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1010636.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。