編者按:自生成式人工智能(GenAI)問世以來,其產(chǎn)出很快取代人力,,人們對(duì)它的期望都越來越高,,人類生產(chǎn)力的未來變得越來越模糊。我們對(duì)GenAI的反應(yīng)跨越了“希望”和“恐懼”兩個(gè)極端,,無論對(duì)其反應(yīng)如何,,GenAI都是在法律、金融和文化現(xiàn)實(shí)等影響的大背景下運(yùn)作的,,它的最終用途和價(jià)值始終掌握在它的需求方——人類手中,。它作為革命性工具,不會(huì)很快取代人類,。作者在本文列舉了4個(gè)原因,,請(qǐng)大家詳細(xì)了解下吧!本文來自編譯,,希望對(duì)您有幫助,。
生成式人工智能是一種革命性的工具,,但它不會(huì)很快取代人類,。
企業(yè)家發(fā)言人對(duì)此紛紛發(fā)表了見解。
自生成式人工智能(或“GenAI”)問世以來,,人類生產(chǎn)力的未來變得越來越模糊,。像ChatGPT、Midjourney,、Bard等這些工具的產(chǎn)出將很快取代人力,,人們每天對(duì)它們的期望越來越高。
與大多數(shù)顛覆性技術(shù)一樣,,我們對(duì)GenAI的反應(yīng)跨越了“希望”和“恐懼”兩個(gè)極端,。從希望方面來講,GenAI被吹捧為“革命性的創(chuàng)意工具”,,風(fēng)險(xiǎn)投資專家馬克·安德森(Marc Anderson)認(rèn)為它們有朝一日會(huì)“拯救世界”,。從恐懼方面來講,則有其他人警告說,,GenAI將帶來獨(dú)創(chuàng)性,、民主甚至文明本身的“終結(jié)”。
我們對(duì)GenAI的反應(yīng)不應(yīng)該僅僅是關(guān)于GenAI能做什么,。實(shí)際上,,還要考慮它是在法律,、金融和文化現(xiàn)實(shí)等因素共同影響的大背景下運(yùn)作的,。
而且,這個(gè)更大的圖景已經(jīng)為我們呈現(xiàn)出至少4個(gè)很好的理由,,其結(jié)果是人工智能不會(huì)很快取代人類,。
人工智能不會(huì)很快消滅人類的4個(gè)理由:
1. GenAI的輸出內(nèi)容可能不是專有的
美國版權(quán)局(The US Copyright Office)最近決定,,GenAI生成的作品不受版權(quán)保護(hù),。
當(dāng)作品是混合體時(shí),只有由人類創(chuàng)作的部分受到保護(hù),。
縱然作品中輸入再多提示也是不夠的:即使一個(gè)人使用Midjourney輸入了 624 個(gè)提示來創(chuàng)作作品,,也會(huì)被拒絕注冊(cè)。這一事實(shí)后來在華盛頓州立法院得到了證實(shí),。
在為人工智能創(chuàng)造的發(fā)明申請(qǐng)專利方面也存在類似的版權(quán)保護(hù)困難,。
市場是受法律約束的游戲。它們需要投資風(fēng)險(xiǎn),、受控分銷和營銷預(yù)算的分配,。沒有權(quán)利,體系就會(huì)崩潰。
雖然某些國家可能承認(rèn)有限的GenAI產(chǎn)出權(quán)利,,但想要保證GenAI產(chǎn)出在全球范圍內(nèi)的權(quán)利還需要很大的努力,。
2. GenAI的可靠性仍然時(shí)好時(shí)壞
在一個(gè)信息已經(jīng)飽和的世界里,可靠性比以往任何時(shí)候都更加重要,。時(shí)至今日,,GenAI的可靠性一直非常不穩(wěn)定。
例如,,一位上訴律師最近因使用 ChatGPT 寫案卷而上了熱搜,。事實(shí)證明, ChatGPT引用的案例是捏造的,,結(jié)果使律師受到了處罰,。ChatGPT這個(gè)奇怪的缺陷已經(jīng)導(dǎo)致了法律后果:德克薩斯州的一名聯(lián)邦法官最近要求律師證明他們?cè)谖募袥]有使用未經(jīng)檢查的人工智能,而對(duì)于其他材料,,對(duì)人工智能的使用必須明確披露,。
GenAI的可靠性問題在STEM領(lǐng)域也出現(xiàn)過。斯坦福大學(xué)和伯克利大學(xué)的研究人員發(fā)現(xiàn),,隨著時(shí)間的推移,,GPT-4 生成代碼的能力莫名其妙地變得更糟。另一項(xiàng)研究發(fā)現(xiàn),,它識(shí)別質(zhì)數(shù)的能力從3月份的97.5%下降到三個(gè)月后的2.4%,,表現(xiàn)令人震驚。
無論這些是暫時(shí)的缺陷還是永久性的波動(dòng),,人類在真正利害關(guān)系面前,,是否應(yīng)該盲目地相信人工智能而不讓人類專家審查其結(jié)果?目前,,人類如果真這樣做,,即使不是魯莽的,也是輕率的,。此外,,不管個(gè)人是否能夠容忍,監(jiān)管機(jī)構(gòu)和保險(xiǎn)公司已經(jīng)開始要求對(duì)人工智能輸出進(jìn)行人工審查,。
GenAI可生成“看起來”合法的信息,,在這個(gè)時(shí)代,僅僅具備這個(gè)能力并不那么有價(jià)值,。信息的價(jià)值越來越在于其可靠性,。為了確保這一點(diǎn),仍然需要人工審查,。
3. LLM 是“數(shù)據(jù)短視”的
一般來說,,可能還有一個(gè)限制大型語言模型(LLM)生成信息質(zhì)量的更深層次的因素:即作為一個(gè)物種的生成,它們沒有在一些最豐富和最高質(zhì)量的數(shù)據(jù)庫上進(jìn)行過訓(xùn)練。
這些生成信息包括由上市公司,、私營企業(yè),、政府、醫(yī)院和專業(yè)公司創(chuàng)建的信息,,以及個(gè)人信息——所有這些信息現(xiàn)在是不允許被使用的,。
當(dāng)我們專注于數(shù)字世界時(shí),我們可能會(huì)忘記有大量信息從未被轉(zhuǎn)錄或數(shù)字化,,例如我們口頭通信,。
信息拼圖中的這些缺失部分不可避免地導(dǎo)致知識(shí)空白,對(duì)此,,我們無法輕易填補(bǔ)上,。
如果女演員莎拉·西爾弗曼(Sarah Silverman)和其他人最近提起的版權(quán)訴訟成功,LLM可能很快就無法訪問作為數(shù)據(jù)集的版權(quán)內(nèi)容,。它們的可用信息范圍實(shí)際上可能在擴(kuò)大之前就縮小了,。
當(dāng)然,LLM當(dāng)前可以使用的數(shù)據(jù)庫將持續(xù)擴(kuò)大,,AI推理將變得更好,。但這些被禁止訪問的數(shù)據(jù)庫也會(huì)并行擴(kuò)大,將這種“信息短視”問題變成一個(gè)永久性的特征,,而不是一個(gè)錯(cuò)誤,。
4.AI不能決定什么是有價(jià)值的
GenAI的終極局限性,也可能是它最明顯的局限性:它永遠(yuǎn)不會(huì)是人類,。
當(dāng)我們關(guān)注GenAI在供應(yīng)方面能做什么和不能做什么時(shí),,誰真正決定了產(chǎn)出的最終價(jià)值?
能真正決定產(chǎn)出最終價(jià)值的不是一個(gè)客觀評(píng)估作品復(fù)雜性的計(jì)算機(jī)程序,,而是反復(fù)無常,、情緒化和有偏見的人類。需求方有許多怪癖和細(xì)微差別,,仍然“太人性化了”。
我們可能永遠(yuǎn)不會(huì)像品味人類藝術(shù)那樣,,將藝術(shù)家的生活經(jīng)歷和詮釋作為鑒賞基礎(chǔ)去品味人工智能藝術(shù),。文化和政治轉(zhuǎn)變可能永遠(yuǎn)無法被算法完全捕捉到,可能總是需要人類基于自身更廣泛的背景和了解去感知,,并將感受到的現(xiàn)實(shí)轉(zhuǎn)化為最終的輸入和輸出,,然后將其運(yùn)用于人類的文化和政治活動(dòng)中——畢竟,這才是人類的終極游戲,。
GPT-4本身對(duì)此有何看法,?
GPT-4自述:“我根據(jù)訓(xùn)練數(shù)據(jù)中的模式生成內(nèi)容。這意味著,雖然我可以以新穎的方式組合和重新利用現(xiàn)有知識(shí),,但我無法真正創(chuàng)造或引入全新或前所未有的東西,。另一方面,人類創(chuàng)作者經(jīng)常創(chuàng)作出開創(chuàng)性的作品,,重塑整個(gè)領(lǐng)域或引入全新的視角,。這種獨(dú)創(chuàng)性往往來自現(xiàn)有知識(shí)的界限之外,這是我無法實(shí)現(xiàn)的飛躍,。我的最終用途仍然由人類決定,,作為人工智能工具,只是比人類具有更強(qiáng)的計(jì)算能力這一不公平的優(yōu)勢,?!?/p>
因此,由于人類始終處于需求方地位,,這就使得GenAI有了一個(gè)優(yōu)勢——對(duì)人類現(xiàn)實(shí)的直觀理解,。
需求方總是會(huì)限制人工智能產(chǎn)出的價(jià)值。GenAI越“聰明”(或人類越“愚蠢”),,這個(gè)問題就會(huì)變得越嚴(yán)重,。
這些限制并沒有降低GenAI作為革命性工具的上限。它們只是指出了一個(gè)未來,,即我們?nèi)祟惪偸羌袇⑴c文化和信息生產(chǎn)的所有關(guān)鍵方面,。
釋放我們自身潛力的關(guān)鍵可能是更好地理解人工智能可以在哪些方面提供其前所未有的好處,以及我們可以在哪些方面做出獨(dú)特的人類貢獻(xiàn),。
因此,,人工智能的未來將是不可預(yù)測的。正如《終極算法》(The Master Algorithm)一書的作者,、計(jì)算機(jī)科學(xué)家佩德羅·多明戈斯(Pedro Domingos)所寫的那樣:“數(shù)據(jù)和直覺就像馬和騎手一樣,,騎手不會(huì)試圖超越一匹馬,因?yàn)轵T手正在騎馬,,馬無法脫離,。數(shù)據(jù)和直覺也不是機(jī)器與人的較量,而是有機(jī)器的人和沒有機(jī)器的人之間的較量,?!?/p>
譯者:甜湯
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1108372.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。