近日,,包括馬斯克、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管簽署了一份公開信,,他們呼吁將AI系統(tǒng)的訓(xùn)練暫停六個月,,理由是對社會和人性存在潛在風(fēng)險,。
呼吁暫停超強(qiáng)AI研發(fā),,至少6個月
29日,,未來生命研究所(Future of Life Institute)公布一封公開信,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月,。

圖源:視覺中國
截至發(fā)稿,這封信已有1126名科技領(lǐng)袖和研究人員簽名,,除了馬斯克,、辛頓和馬庫斯之外,還包括圖靈獎得主約書亞·本希奧,、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素,、 蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,、Stability AI首席執(zhí)行官埃馬德·莫斯塔克等科技界領(lǐng)袖人物。


具有人類競爭力智能的AI系統(tǒng)可能會對社會和人類造成深刻的風(fēng)險,這一點已經(jīng)被廣泛研究并得到了頂級AI實驗室的認(rèn)可,。正如廣泛認(rèn)可的 Asilomar AI 原則中所述,,高級 AI 可能代表地球生命史上的深刻變化,,應(yīng)以相應(yīng)的關(guān)懷和資源進(jìn)行規(guī)劃和管理。不幸的是,,目前尚無這種級別的規(guī)劃和管理,。最近幾個月人工智能實驗室陷入了一場失控的競賽,他們致力于開發(fā)和部署更強(qiáng)大的數(shù)字思維,,但是沒有人能理解,、預(yù)測或可靠地控制這些大模型,甚至模型的創(chuàng)造者也不能,。
當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上表現(xiàn)與人類相當(dāng),,我們必須捫心自問:
我們是否應(yīng)該讓機(jī)器用宣傳和虛假信息充斥我們的信息渠道?
我們是否應(yīng)該自動化所有的工作,,包括那些富有成就感的工作,?
我們是否應(yīng)該開發(fā)非人類的思維,可能最終會超過我們,、智勝我們,、使我們過時并取代我們?
我們是否應(yīng)該冒險失去對我們文明的控制,?
這些決策不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖,。強(qiáng)大的AI系統(tǒng)只有在我們確信其影響將是積極的、風(fēng)險可控的情況下才應(yīng)該開發(fā),。這種信心必須有充分的理由,,并隨著系統(tǒng)潛在影響的程度增加而增強(qiáng)。OpenAI 最近關(guān)于人工智能的聲明指出:「在開始訓(xùn)練未來系統(tǒng)之前進(jìn)行獨立審查可能很重要,,并且對于最先進(jìn)的工作來說,,人們應(yīng)該在合適的時間點限制用于創(chuàng)建新系統(tǒng)的計算增長率?!刮覀冋J(rèn)為,,現(xiàn)在已經(jīng)到了這個時間點。
因此,,我們呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月,。這種暫停應(yīng)該是公開和可驗證的,并包括所有關(guān)鍵人員,。如果無法快速實施這樣的暫停,,政府應(yīng)該介入并實行叫停。
AI實驗室和獨立專家應(yīng)該利用這個暫停時間共同開發(fā)并實施一套共享的高級AI設(shè)計和開發(fā)安全協(xié)議,,這些協(xié)議應(yīng)該由獨立的外部專家進(jìn)行嚴(yán)格審核和監(jiān)督,,這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)是安全的,無可置疑的,。這并不意味著總體上暫停 AI 開發(fā),,而是從具有新興功能的,、不可預(yù)測的大型黑盒模型的危險競賽中后退一步。
人工智能的研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的,、最先進(jìn)的系統(tǒng)更加準(zhǔn)確,、安全、可解釋,、透明,、穩(wěn)健、一致,、可信和可靠,。
同時,AI開發(fā)人員必須與決策制定者合作,,大力加速強(qiáng)大的AI治理系統(tǒng)的發(fā)展,。這些治理系統(tǒng)至少應(yīng)該包括:
專門針對AI的新型和有能力的監(jiān)管機(jī)構(gòu);
對高能力的AI系統(tǒng)和大量計算能力的監(jiān)督和跟蹤,;
幫助區(qū)分真實和合成數(shù)據(jù)的溯源,、水印系統(tǒng),并跟蹤模型泄露,;
一個強(qiáng)大的審計和認(rèn)證生態(tài)系統(tǒng),;
針對技術(shù)AI安全研究的強(qiáng)大公共資金,;
資源豐富的機(jī)構(gòu),以應(yīng)對人工智能將造成的巨大經(jīng)濟(jì)和政治混亂,。
人類可以在AI的幫助下享受繁榮的未來,。我們已經(jīng)成功地創(chuàng)建了強(qiáng)大的AI系統(tǒng),現(xiàn)在可以享受“人工智能之夏”,,在這個夏天,,我們收獲了回報,為所有人明確的利益設(shè)計這些系統(tǒng),,并給社會一個適應(yīng)的機(jī)會,。社會已經(jīng)暫停了其他可能對社會產(chǎn)生災(zāi)難性影響的技術(shù)的發(fā)展。我們在人工智能領(lǐng)域也能這么做,。讓我們享受一個漫長的AI夏季,,而不是匆忙而不準(zhǔn)備地迎接秋天的到來。(Let’s enjoy a long AI summer, not rush unprepared into a fall),。
已經(jīng)出現(xiàn)我們無法解釋的推理能力
值得一提的是,,OpenAI CEO奧特曼Altman在與MIT研究科學(xué)家Lex Fridman的最新對話中指出,AI已經(jīng)出現(xiàn)其無法解釋的推理能力,,同時承認(rèn)“AI殺死人類”有一定可能性,。

在此次采訪中,Altman提出了一點關(guān)于GPT的新穎之處,,即推理能力,。“這個模型的神奇之處在于…對于很多它都不準(zhǔn)確的定義,,它可以進(jìn)行某種推理,。”
Altman指出,,“我認(rèn)為這很了不起,,最令人興奮的是,在提取人類知識的過程中,,它產(chǎn)生了這種推理能力,。”
Altman談及了近期圍繞ChatGPT產(chǎn)生的諸多問題,,坦承就連OpenAI團(tuán)隊,,也根本沒搞懂它是如何“進(jìn)化”的:
從ChatGPT開始,AI出現(xiàn)了推理能力,。但沒人能解讀這種能力出現(xiàn)的原因,。
唯一的途徑是向ChatGPT提問,從它的回答中摸索它的思路,。
Altman稱不會回避“人工智能可能殺死全人類”的說法,。Yudkowsky此前指出“人工智能可能殺死所有人”。對于此,,Altman回應(yīng)道,,“我認(rèn)為有這種可能性,并且承認(rèn)這一點很重要,,因為如果我們不談?wù)撍?、不把它視為潛在的事實,那么我們就不會投入足夠的努力去解決這個問題,?!?“我認(rèn)為我們必須開發(fā)新的技術(shù)來解決這個問題…我所知道的解決這類問題的唯一方法就是不斷迭代,盡早學(xué)習(xí),?!?/section>
版權(quán)歸原作者所有
如有侵權(quán)請聯(lián)系刪除

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1008706.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議。