近日,,包括馬斯克、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管簽署了一份公開信,,他們呼吁將AI系統(tǒng)的訓(xùn)練暫停六個月,,理由是對社會和人性存在潛在風(fēng)險。
呼吁暫停超強(qiáng)AI研發(fā),,至少6個月
29日,未來生命研究所(Future of Life Institute)公布一封公開信,,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月,。

圖源:視覺中國
截至發(fā)稿,,這封信已有1126名科技領(lǐng)袖和研究人員簽名,,除了馬斯克、辛頓和馬庫斯之外,,還包括圖靈獎得主約書亞·本希奧,、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素,、 蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Stability AI首席執(zhí)行官埃馬德·莫斯塔克等科技界領(lǐng)袖人物,。


具有人類競爭力智能的AI系統(tǒng)可能會對社會和人類造成深刻的風(fēng)險,,這一點(diǎn)已經(jīng)被廣泛研究并得到了頂級AI實(shí)驗(yàn)室的認(rèn)可,。正如廣泛認(rèn)可的 Asilomar AI 原則中所述,高級 AI 可能代表地球生命史上的深刻變化,,應(yīng)以相應(yīng)的關(guān)懷和資源進(jìn)行規(guī)劃和管理,。不幸的是,目前尚無這種級別的規(guī)劃和管理,。最近幾個月人工智能實(shí)驗(yàn)室陷入了一場失控的競賽,,他們致力于開發(fā)和部署更強(qiáng)大的數(shù)字思維,但是沒有人能理解,、預(yù)測或可靠地控制這些大模型,,甚至模型的創(chuàng)造者也不能。
當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上表現(xiàn)與人類相當(dāng),,我們必須捫心自問:
我們是否應(yīng)該讓機(jī)器用宣傳和虛假信息充斥我們的信息渠道,?
我們是否應(yīng)該自動化所有的工作,包括那些富有成就感的工作,?
我們是否應(yīng)該開發(fā)非人類的思維,,可能最終會超過我們、智勝我們,、使我們過時并取代我們,?
我們是否應(yīng)該冒險失去對我們文明的控制?
這些決策不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖,。強(qiáng)大的AI系統(tǒng)只有在我們確信其影響將是積極的,、風(fēng)險可控的情況下才應(yīng)該開發(fā)。這種信心必須有充分的理由,,并隨著系統(tǒng)潛在影響的程度增加而增強(qiáng),。OpenAI 最近關(guān)于人工智能的聲明指出:「在開始訓(xùn)練未來系統(tǒng)之前進(jìn)行獨(dú)立審查可能很重要,,并且對于最先進(jìn)的工作來說,人們應(yīng)該在合適的時間點(diǎn)限制用于創(chuàng)建新系統(tǒng)的計算增長率,?!刮覀冋J(rèn)為,現(xiàn)在已經(jīng)到了這個時間點(diǎn),。
因此,,我們呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月。這種暫停應(yīng)該是公開和可驗(yàn)證的,,并包括所有關(guān)鍵人員,。如果無法快速實(shí)施這樣的暫停,政府應(yīng)該介入并實(shí)行叫停,。
AI實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這個暫停時間共同開發(fā)并實(shí)施一套共享的高級AI設(shè)計和開發(fā)安全協(xié)議,,這些協(xié)議應(yīng)該由獨(dú)立的外部專家進(jìn)行嚴(yán)格審核和監(jiān)督,這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)是安全的,,無可置疑的,。這并不意味著總體上暫停 AI 開發(fā),而是從具有新興功能的,、不可預(yù)測的大型黑盒模型的危險競賽中后退一步,。
人工智能的研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng)更加準(zhǔn)確,、安全,、可解釋、透明,、穩(wěn)健,、一致、可信和可靠,。
同時,,AI開發(fā)人員必須與決策制定者合作,大力加速強(qiáng)大的AI治理系統(tǒng)的發(fā)展,。這些治理系統(tǒng)至少應(yīng)該包括:
專門針對AI的新型和有能力的監(jiān)管機(jī)構(gòu),;
對高能力的AI系統(tǒng)和大量計算能力的監(jiān)督和跟蹤;
幫助區(qū)分真實(shí)和合成數(shù)據(jù)的溯源,、水印系統(tǒng),,并跟蹤模型泄露;
一個強(qiáng)大的審計和認(rèn)證生態(tài)系統(tǒng),;
針對技術(shù)AI安全研究的強(qiáng)大公共資金;
資源豐富的機(jī)構(gòu),,以應(yīng)對人工智能將造成的巨大經(jīng)濟(jì)和政治混亂,。
人類可以在AI的幫助下享受繁榮的未來,。我們已經(jīng)成功地創(chuàng)建了強(qiáng)大的AI系統(tǒng),現(xiàn)在可以享受“人工智能之夏”,,在這個夏天,,我們收獲了回報,為所有人明確的利益設(shè)計這些系統(tǒng),,并給社會一個適應(yīng)的機(jī)會。社會已經(jīng)暫停了其他可能對社會產(chǎn)生災(zāi)難性影響的技術(shù)的發(fā)展,。我們在人工智能領(lǐng)域也能這么做,。讓我們享受一個漫長的AI夏季,而不是匆忙而不準(zhǔn)備地迎接秋天的到來,。(Let’s enjoy a long AI summer, not rush unprepared into a fall),。
已經(jīng)出現(xiàn)我們無法解釋的推理能力
值得一提的是,OpenAI CEO奧特曼Altman在與MIT研究科學(xué)家Lex Fridman的最新對話中指出,,AI已經(jīng)出現(xiàn)其無法解釋的推理能力,,同時承認(rèn)“AI殺死人類”有一定可能性。

在此次采訪中,,Altman提出了一點(diǎn)關(guān)于GPT的新穎之處,即推理能力,?!斑@個模型的神奇之處在于…對于很多它都不準(zhǔn)確的定義,它可以進(jìn)行某種推理,?!?br />
Altman指出,“我認(rèn)為這很了不起,,最令人興奮的是,,在提取人類知識的過程中,它產(chǎn)生了這種推理能力,?!?br />
Altman談及了近期圍繞ChatGPT產(chǎn)生的諸多問題,坦承就連OpenAI團(tuán)隊(duì),,也根本沒搞懂它是如何“進(jìn)化”的:
從ChatGPT開始,,AI出現(xiàn)了推理能力。但沒人能解讀這種能力出現(xiàn)的原因,。
唯一的途徑是向ChatGPT提問,,從它的回答中摸索它的思路。
Altman稱不會回避“人工智能可能殺死全人類”的說法,。Yudkowsky此前指出“人工智能可能殺死所有人”,。對于此,,Altman回應(yīng)道,“我認(rèn)為有這種可能性,,并且承認(rèn)這一點(diǎn)很重要,,因?yàn)槿绻覀儾徽務(wù)撍⒉话阉暈闈撛诘氖聦?shí),,那么我們就不會投入足夠的努力去解決這個問題,。” “我認(rèn)為我們必須開發(fā)新的技術(shù)來解決這個問題…我所知道的解決這類問題的唯一方法就是不斷迭代,,盡早學(xué)習(xí),。”
版權(quán)歸原作者所有
如有侵權(quán)請聯(lián)系刪除

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1008706.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。