編者按:自生成式人工智能(GenAI)問世以來,,其產(chǎn)出很快取代人力,,人們對它的期望都越來越高,,人類生產(chǎn)力的未來變得越來越模糊,。我們對GenAI的反應(yīng)跨越了“希望”和“恐懼”兩個極端,,無論對其反應(yīng)如何,,GenAI都是在法律,、金融和文化現(xiàn)實等影響的大背景下運作的,,它的最終用途和價值始終掌握在它的需求方——人類手中,。它作為革命性工具,不會很快取代人類,。作者在本文列舉了4個原因,,請大家詳細了解下吧!本文來自編譯,,希望對您有幫助,。
生成式人工智能是一種革命性的工具,,但它不會很快取代人類。
企業(yè)家發(fā)言人對此紛紛發(fā)表了見解,。
自生成式人工智能(或“GenAI”)問世以來,,人類生產(chǎn)力的未來變得越來越模糊,。像ChatGPT、Midjourney,、Bard等這些工具的產(chǎn)出將很快取代人力,,人們每天對它們的期望越來越高。
與大多數(shù)顛覆性技術(shù)一樣,,我們對GenAI的反應(yīng)跨越了“希望”和“恐懼”兩個極端,。從希望方面來講,GenAI被吹捧為“革命性的創(chuàng)意工具”,,風(fēng)險投資專家馬克·安德森(Marc Anderson)認(rèn)為它們有朝一日會“拯救世界”,。從恐懼方面來講,則有其他人警告說,,GenAI將帶來獨創(chuàng)性,、民主甚至文明本身的“終結(jié)”。
我們對GenAI的反應(yīng)不應(yīng)該僅僅是關(guān)于GenAI能做什么,。實際上,,還要考慮它是在法律、金融和文化現(xiàn)實等因素共同影響的大背景下運作的,。
而且,,這個更大的圖景已經(jīng)為我們呈現(xiàn)出至少4個很好的理由,其結(jié)果是人工智能不會很快取代人類,。
人工智能不會很快消滅人類的4個理由:
1. GenAI的輸出內(nèi)容可能不是專有的
美國版權(quán)局(The US Copyright Office)最近決定,GenAI生成的作品不受版權(quán)保護,。
當(dāng)作品是混合體時,,只有由人類創(chuàng)作的部分受到保護。
縱然作品中輸入再多提示也是不夠的:即使一個人使用Midjourney輸入了 624 個提示來創(chuàng)作作品,,也會被拒絕注冊。這一事實后來在華盛頓州立法院得到了證實,。
在為人工智能創(chuàng)造的發(fā)明申請專利方面也存在類似的版權(quán)保護困難,。
市場是受法律約束的游戲。它們需要投資風(fēng)險,、受控分銷和營銷預(yù)算的分配,。沒有權(quán)利,體系就會崩潰,。
雖然某些國家可能承認(rèn)有限的GenAI產(chǎn)出權(quán)利,,但想要保證GenAI產(chǎn)出在全球范圍內(nèi)的權(quán)利還需要很大的努力。
2. GenAI的可靠性仍然時好時壞
在一個信息已經(jīng)飽和的世界里,,可靠性比以往任何時候都更加重要,。時至今日,GenAI的可靠性一直非常不穩(wěn)定。
例如,,一位上訴律師最近因使用 ChatGPT 寫案卷而上了熱搜,。事實證明, ChatGPT引用的案例是捏造的,,結(jié)果使律師受到了處罰,。ChatGPT這個奇怪的缺陷已經(jīng)導(dǎo)致了法律后果:德克薩斯州的一名聯(lián)邦法官最近要求律師證明他們在文件中沒有使用未經(jīng)檢查的人工智能,而對于其他材料,,對人工智能的使用必須明確披露,。
GenAI的可靠性問題在STEM領(lǐng)域也出現(xiàn)過。斯坦福大學(xué)和伯克利大學(xué)的研究人員發(fā)現(xiàn),,隨著時間的推移,,GPT-4 生成代碼的能力莫名其妙地變得更糟。另一項研究發(fā)現(xiàn),,它識別質(zhì)數(shù)的能力從3月份的97.5%下降到三個月后的2.4%,,表現(xiàn)令人震驚。
無論這些是暫時的缺陷還是永久性的波動,,人類在真正利害關(guān)系面前,,是否應(yīng)該盲目地相信人工智能而不讓人類專家審查其結(jié)果?目前,,人類如果真這樣做,,即使不是魯莽的,也是輕率的,。此外,,不管個人是否能夠容忍,監(jiān)管機構(gòu)和保險公司已經(jīng)開始要求對人工智能輸出進行人工審查,。
GenAI可生成“看起來”合法的信息,,在這個時代,僅僅具備這個能力并不那么有價值,。信息的價值越來越在于其可靠性,。為了確保這一點,仍然需要人工審查,。
3. LLM 是“數(shù)據(jù)短視”的
一般來說,,可能還有一個限制大型語言模型(LLM)生成信息質(zhì)量的更深層次的因素:即作為一個物種的生成,它們沒有在一些最豐富和最高質(zhì)量的數(shù)據(jù)庫上進行過訓(xùn)練,。
這些生成信息包括由上市公司,、私營企業(yè)、政府,、醫(yī)院和專業(yè)公司創(chuàng)建的信息,,以及個人信息——所有這些信息現(xiàn)在是不允許被使用的,。
當(dāng)我們專注于數(shù)字世界時,我們可能會忘記有大量信息從未被轉(zhuǎn)錄或數(shù)字化,,例如我們口頭通信,。
信息拼圖中的這些缺失部分不可避免地導(dǎo)致知識空白,對此,,我們無法輕易填補上,。
如果女演員莎拉·西爾弗曼(Sarah Silverman)和其他人最近提起的版權(quán)訴訟成功,LLM可能很快就無法訪問作為數(shù)據(jù)集的版權(quán)內(nèi)容,。它們的可用信息范圍實際上可能在擴大之前就縮小了,。
當(dāng)然,LLM當(dāng)前可以使用的數(shù)據(jù)庫將持續(xù)擴大,,AI推理將變得更好,。但這些被禁止訪問的數(shù)據(jù)庫也會并行擴大,將這種“信息短視”問題變成一個永久性的特征,,而不是一個錯誤,。
4.AI不能決定什么是有價值的
GenAI的終極局限性,也可能是它最明顯的局限性:它永遠不會是人類,。
當(dāng)我們關(guān)注GenAI在供應(yīng)方面能做什么和不能做什么時,,誰真正決定了產(chǎn)出的最終價值?
能真正決定產(chǎn)出最終價值的不是一個客觀評估作品復(fù)雜性的計算機程序,,而是反復(fù)無常,、情緒化和有偏見的人類。需求方有許多怪癖和細微差別,,仍然“太人性化了”,。
我們可能永遠不會像品味人類藝術(shù)那樣,將藝術(shù)家的生活經(jīng)歷和詮釋作為鑒賞基礎(chǔ)去品味人工智能藝術(shù),。文化和政治轉(zhuǎn)變可能永遠無法被算法完全捕捉到,,可能總是需要人類基于自身更廣泛的背景和了解去感知,并將感受到的現(xiàn)實轉(zhuǎn)化為最終的輸入和輸出,,然后將其運用于人類的文化和政治活動中——畢竟,,這才是人類的終極游戲。
GPT-4本身對此有何看法,?
GPT-4自述:“我根據(jù)訓(xùn)練數(shù)據(jù)中的模式生成內(nèi)容。這意味著,,雖然我可以以新穎的方式組合和重新利用現(xiàn)有知識,,但我無法真正創(chuàng)造或引入全新或前所未有的東西。另一方面,,人類創(chuàng)作者經(jīng)常創(chuàng)作出開創(chuàng)性的作品,,重塑整個領(lǐng)域或引入全新的視角,。這種獨創(chuàng)性往往來自現(xiàn)有知識的界限之外,這是我無法實現(xiàn)的飛躍,。我的最終用途仍然由人類決定,,作為人工智能工具,只是比人類具有更強的計算能力這一不公平的優(yōu)勢,?!?/p>
因此,由于人類始終處于需求方地位,,這就使得GenAI有了一個優(yōu)勢——對人類現(xiàn)實的直觀理解,。
需求方總是會限制人工智能產(chǎn)出的價值。GenAI越“聰明”(或人類越“愚蠢”),,這個問題就會變得越嚴(yán)重,。
這些限制并沒有降低GenAI作為革命性工具的上限。它們只是指出了一個未來,,即我們?nèi)祟惪偸羌袇⑴c文化和信息生產(chǎn)的所有關(guān)鍵方面,。
釋放我們自身潛力的關(guān)鍵可能是更好地理解人工智能可以在哪些方面提供其前所未有的好處,以及我們可以在哪些方面做出獨特的人類貢獻,。
因此,,人工智能的未來將是不可預(yù)測的。正如《終極算法》(The Master Algorithm)一書的作者,、計算機科學(xué)家佩德羅·多明戈斯(Pedro Domingos)所寫的那樣:“數(shù)據(jù)和直覺就像馬和騎手一樣,,騎手不會試圖超越一匹馬,因為騎手正在騎馬,,馬無法脫離,。數(shù)據(jù)和直覺也不是機器與人的較量,而是有機器的人和沒有機器的人之間的較量,?!?/p>
譯者:甜湯
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1108372.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議。