【環(huán)球時報報道 記者曹思琦】大型語言模型GPT-4及其相關(guān)的人工智能(AI)技術(shù)應(yīng)用最近在火爆全球的同時,,也引起廣泛擔(dān)憂。意大利個人數(shù)據(jù)保護局4月6日稱,,聊天機器人ChatGPT的開發(fā)公司OpenAI向意大利當局提交補救措施,,以解決監(jiān)管機構(gòu)的擔(dān)憂。上月末,,意大利成為全球首個禁用ChatGPT的國家后,,美國、德國,、法國和愛爾蘭等多國也相繼表達了當前AI技術(shù)“存在風(fēng)險”的觀點,。更讓科技界震動的是,一封包括上萬名科技界人士聯(lián)名簽署的公開信呼吁,,所有AI實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)至少6個月時間,。
一封聯(lián)名公開信引爆科技圈
人類社會技術(shù)風(fēng)險研究機構(gòu)“生命未來研究所”于3月29日發(fā)布了公開信,呼吁由于“最近AI實驗室陷入了一場失控的競賽,,只有當我們確信AI大模型的影響是積極的并且風(fēng)險是可控時,,才能開發(fā)更強大的AI系統(tǒng)”,。這封公開信吸引了包括圖靈獎得主約書亞·本吉奧、特斯拉創(chuàng)始人埃隆·馬斯克,、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及《人類簡史》的作者尤瓦爾·赫拉利等上千名科技大佬,、人工智能專家和學(xué)者的聯(lián)合簽名,。截至目前,該研究所官網(wǎng)顯示已有超過1.3萬人簽署該公開信,。
瑞士一所學(xué)校就ChatGPT的使用展開研討,。
這封公開信所擔(dān)憂的就是以GPT-4大型語言模型為代表的最新AI技術(shù)。GPT-4是由OpenAI公司開發(fā)的人工智能程序,,它可以快速生成流暢,、準確和有邏輯的文本,還可以理解和回答各種類型的問題,,甚至可以為用戶進行創(chuàng)造性和技術(shù)性的寫作,。它最著名的衍生應(yīng)用產(chǎn)品就是ChatGPT聊天機器人,網(wǎng)友使用后普遍感嘆“難以分辨到底是在與AI還是與真人聊天”,。
公開信明確提出:“具有人類智能水平的AI系統(tǒng)可能對社會和人類帶來極大的風(fēng)險,,這一點已經(jīng)得到頂級AI實驗室的認同?!痹撔藕粲跛腥斯ぶ悄軐嶒炇覒?yīng)立即暫停訓(xùn)練比GPT-4更強大的AI模型,,為期至少6個月。在此期間,公開信建議實驗室和獨立專家合作,,針對AI的設(shè)計和開發(fā)建立共享的安全協(xié)議,,并由獨立的外部專家監(jiān)督,確保AI系統(tǒng)“安全,、無可置疑”,。
目前國內(nèi)也有知名學(xué)者、業(yè)界人士參與公開信簽名,,表達支持性觀點,。中國社科院研究員段偉文認為:“我們有必要通過暫停這種慢科學(xué)策略,使科技的力量在我們可以掌控的節(jié)奏下有序綻放”,。清華大學(xué)教授梁正認為:“在這個時候提出這樣的警示是必要的……人類可以借鑒核武器發(fā)明后簽署核不擴散條約的經(jīng)驗,,共同探討提出針對通用人工智能的治理規(guī)則與防范手段,確保人工智能真正服務(wù)于人類福祉與未來,?!?/p>
反對者的聲音也有不少。例如Meta首席技術(shù)官安德魯·博斯沃思認為,,這封公開信“不僅不現(xiàn)實,,而且也不會有效”?!巴ǔG闆r下,,你必須先了解技術(shù)是如何發(fā)展的,,然后才能知道如何保護和確保它的安全,。”力挺AI發(fā)展的比爾·蓋茨也表示,,公開信的呼吁不會有效,,“我不認為暫停發(fā)展AI就能解決問題,。很顯然AI的進步有著巨大的益處,,我們需要做的是找出那些棘手的領(lǐng)域”。
信任危機源自“算法黑箱”
面對AI競賽的一路狂飆,,人類究竟應(yīng)該“踩剎車”還是“踩油門”,?安遠AI創(chuàng)始人,、牛津大學(xué)人工智能治理中心政策研究員謝旻希接受《環(huán)球時報》記者采訪時表示,不論是公開信的支持者,、反對者還是旁觀者,,對當前AI系統(tǒng)的能力、風(fēng)險,、問題的可解決性等,,都存在較大認知差異。必須承認的是,包括OpenAI在內(nèi)的各國專家也沒法解釋GPT-4等大模型的行為,,對其局限和風(fēng)險的理解則更為欠缺,。“我們認同GPT-4等級的大模型能創(chuàng)造巨大社會價值,,風(fēng)險防控需要把握分寸,,不因噎廢食。但AI創(chuàng)新與現(xiàn)實風(fēng)險的平衡并非總是正確,,有其前提,。當科技風(fēng)險非常嚴峻時,就只能風(fēng)險防控優(yōu)先,,需要強化底線思維防范化解重大風(fēng)險,。”
從原理上看,,ChatGPT是基于大量的文本數(shù)據(jù)進行訓(xùn)練,,通過深度學(xué)習(xí)技術(shù)學(xué)習(xí)文本的語義和語法規(guī)律,從而實現(xiàn)自然語言處理的各種任務(wù),。這也意味著供它學(xué)習(xí)的數(shù)據(jù)庫至關(guān)重要,。但讓國內(nèi)外專家普遍質(zhì)疑的是,OpenAI一直沒有披露ChatGPT和GPT-4使用的訓(xùn)練數(shù)據(jù),、如何訓(xùn)練以及運作方式,。這意味著在AI深度學(xué)習(xí)輸入的數(shù)據(jù)和其輸出的答案之間,存在著人們無法洞悉的“黑箱”,,由此產(chǎn)生對這類AI技術(shù)的信任危機,。
基于現(xiàn)有的深度學(xué)習(xí)原理,這類AI技術(shù)備受詬病的一點就是算法歧視與算法偏見,。據(jù)報道,,美國網(wǎng)民對ChatGPT的測試發(fā)現(xiàn)它有明顯的政治立場,例如它拒絕寫詩稱贊美國前總統(tǒng)特朗普,,卻可以毫無障礙地稱贊現(xiàn)任總統(tǒng)拜登,。這就與ChatGPT使用的數(shù)據(jù)庫有關(guān),“大多數(shù)的訓(xùn)練數(shù)據(jù)本身就是有偏見和不安全的”,。但在OpenAI沒有公開相關(guān)算法的情況下,,很難對偏見進行修正。由于“算法黑箱”的存在,,甚至就連OpenAI團隊也沒有搞明白ChatGPT的推理能力到底是如何實現(xiàn)的,。
北京通用人工智能研究院院長朱松純教授在今年2月與加州大學(xué)伯克利分校教授斯圖爾特·羅素的談話中表示,雖然GPT-4這類大型語言模型已取得一些驚人進展,,但在處理任務(wù)方面的能力有限,,它們只能處理文本領(lǐng)域的任務(wù),,無法與物理和社會環(huán)境進行互動。這意味著像ChatGPT并不能真正“理解”語言的含義,。此外,,大型語言模型也不是自主的,它們需要人類來具體定義好每一個任務(wù),,就像“鸚鵡”只能模仿被訓(xùn)練過的話語,。雖然ChatGPT已在不同的文本數(shù)據(jù)語料庫上進行了大規(guī)模訓(xùn)練,但它并不具備理解人類價值或與人類價值保持一致的能力,,即缺乏所謂的“道德指南針”,。
因此ChatGPT和GPT-4都出現(xiàn)過“一本正經(jīng)胡說”的情況,OpenAI稱之為“幻覺事實”,。當前ChatGPT開始大量被科學(xué)界用于輔助研究工作,,包括整理會議記錄、撰寫文獻綜述和論文手稿等,,“編造答案”問題已產(chǎn)生相當惡劣的影響,。一名德國生物學(xué)家在接受《自然》雜志采訪時說,ChatGPT曾給他列出一個完全虛構(gòu)的參考文獻列表,,里面沒有一篇真實存在的論文,。
ChatGPT還存在泄密風(fēng)險。不久前韓國三星集團內(nèi)部發(fā)生三起ChatGPT誤用與濫用案例,,如三星內(nèi)部人員在ChatGPT上提問,、驗證答案,卻讓這些答案成為ChatGPT的學(xué)習(xí)數(shù)據(jù)庫,,若有其他使用者在ChatGPT上提出相關(guān)疑問,,恐讓三星企業(yè)機密外流。為了規(guī)避數(shù)據(jù)泄露風(fēng)險,,軟銀,、日立,、富士通,、摩根大通等不少企業(yè)明確禁止員工使用ChatGPT。
另外,,最近風(fēng)靡社交平臺的AI圖象生成軟件Midjourney繪制的“特朗普被捕”等難辨真?zhèn)蔚恼掌诰W(wǎng)上瘋傳,。不少業(yè)內(nèi)人士都擔(dān)心未來這類AI技術(shù)可能被別有用心的人利用,產(chǎn)生虛假或誤導(dǎo)性的信息,,進而影響政治輿論,、煽動暴力等。
“用AI識別AI”沒解決辨真?zhèn)坞y題
在是否需要對AI發(fā)展設(shè)限的問題上,,南京信息工程大學(xué)人工智能產(chǎn)業(yè)學(xué)院執(zhí)行院長鄒榮金在接受《環(huán)球時報》記者采訪時表示,,AI技術(shù)能提高生產(chǎn)力,,帶來社會價值,“這就像有了汽車之后,,卻要求大家不許用汽車,,繼續(xù)用馬車,這條路是行不通的”,。
朱松純此前也表示,,回顧漫長的智能進化史可以預(yù)測,通用人工智能的誕生幾乎是不可避免的,。為預(yù)防未來的通用人工智能給人類帶來威脅,,我們可以逐步放開通用智能體的能力空間和價值空間。我們可以先將AI系統(tǒng)的適用場合和行動空間限制在特定區(qū)域內(nèi),,隨著我們對AI的信任增加,,確認AI系統(tǒng)安全可控后,再逐步給予它們更大的空間,。另外,,我們應(yīng)該促進算法決策過程的透明度?!叭绻芡怙@地表示通用人工智能的認知架構(gòu),,知道它是如何工作的,就能更好地控制它,?!?/p>
由于ChatGPT和GPT-4產(chǎn)生了大量真假難辨的數(shù)據(jù),目前各國都在推進針對現(xiàn)有AI技術(shù)結(jié)果的智能識別,,這也被戲稱為“用AI識別AI”,。但業(yè)內(nèi)專家承認,目前相關(guān)進展并不太順利,。例如針對學(xué)校作業(yè)和論文是否是ChatGPT的結(jié)果,,出現(xiàn)了不少專業(yè)的文件檢測工具,就連OpenAI也推出了名為AITextClassifier的文件檢測器,,但它們的識別正確率都不高,。為此,英美等大批學(xué)校不得不明確禁止在論文和課程作業(yè)中使用ChatGPT,,否則將被視為學(xué)術(shù)不端行為,。
相對于識別AI文本,Midjourney等AI軟件生成圖片的識別難度更大,。此前由于AI繪圖對于人物手部的處理結(jié)果有所欠缺,,因此可通過手部細節(jié)辨別是否是AI繪圖的成果。但MidjourneyV5版本的更新就基本解決了手部細節(jié)的問題,,目前更多需要從照片上的地面陰影朝向,、人物眼神方向等細節(jié)進行分辨,。鄒榮金表示,隨著AI技術(shù)的下一步迭代,,未來很可能出現(xiàn)人類很難識別的情況,。專家們擔(dān)心,生成虛假圖片的AI技術(shù)一直在進步,,特朗普的名氣使“特朗普被捕”這類照片的真?zhèn)魏苋菀妆蛔R別,,但要識別出普通人相關(guān)的圖片可能困難重重。
鄒榮金表示,,針對這個問題,,OpenAI除了開發(fā)AI技術(shù)之外,還在開發(fā)虹膜認證技術(shù),?!凹词箤磉M入人工智能時代,要識別一篇文章是你寫的還是機器寫的,,有了生物特征的唯一對應(yīng)后,,每一個信息出來都是可追溯來源的?!?/p>
美國高盛公司近日發(fā)布的報告稱,,生成式AI會導(dǎo)致勞動力市場出現(xiàn)“重大混亂”。鄒榮金認為,,“AI技術(shù)的推進,,必然會有一些崗位將被替換,而且替代的速度會很快,。這種焦慮一定是存在的,,但會不會帶來社會的動蕩呢?我想暫時不會那么快,。它過渡也是漸變的,。ChatGPT最厲害的地方在于能編寫程序,未來將應(yīng)用在各個領(lǐng)域,,我們表面上看到是聊天文字,,但其實它將來會在各個領(lǐng)域應(yīng)用?!?/p>
來源:環(huán)球時報
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1013290.html
溫馨提示:投資有風(fēng)險,入市須謹慎,。本資訊不作為投資理財建議,。