ChatGPT的主要用途是開放式對話,,但人們很快就找到了使用它的創(chuàng)造性方法,比如:
– 回答Stack Overflow(程序員問答平臺)問題
– 為Dall-e/Stable Diffusion生成圖像提示信息
– 從頭開始構(gòu)建應(yīng)用程序和網(wǎng)站
看上去ChatGPT是很有創(chuàng)造力的,,然而,重點是ChatGPT并沒有為這些用途進(jìn)行專門優(yōu)化,也沒有考慮到它的通用性,。即便如此,在某些特定任務(wù)上的結(jié)果是相當(dāng)顯著的,,這讓許多人看到了可能即將到來的東西,。也就是說,這些用例雖然不會使ChatGPT擴(kuò)展成為一個通用的人工智能,但它們可以非??斓卦谔囟ǖ念I(lǐng)域或應(yīng)用中發(fā)揮作用,。
毫無疑問,新一代的人工智能工具正在風(fēng)靡全球,這些工具可以幫助你寫得更好,,編碼更快,,并大規(guī)模地生成獨(dú)特的圖像。如此強(qiáng)大的人工智能工具的出現(xiàn)引出了一個問題:在人工智能創(chuàng)意的時代,,成為一個創(chuàng)造者意味著什么,?
我傾向于認(rèn)為,如果類似ChatGPT這樣的軟件實現(xiàn)了它的宏偉承諾,,它可以重新定義人類的認(rèn)知和創(chuàng)造力,。
生成式人工智能對創(chuàng)造力的挑戰(zhàn)
人工智能創(chuàng)造力,也可以稱為計算創(chuàng)造力,,是一個多學(xué)科的研究領(lǐng)域,,旨在設(shè)計能夠達(dá)到人類水平的創(chuàng)造力的程序。
這個領(lǐng)域并不新鮮,。早在19世紀(jì),,科學(xué)家們就在爭論人工創(chuàng)造力是否可能。埃達(dá)·洛夫雷斯(Ada Lovelace)提出了可能是對機(jī)器智能最著名的反對意見:如果計算機(jī)只能做它們被編程的事情,,它們的行為怎么能被定義為有創(chuàng)造性呢,?在她看來,獨(dú)立學(xué)習(xí)是創(chuàng)造力的一個基本特征,。
但最近在無監(jiān)督機(jī)器學(xué)習(xí)方面的進(jìn)展,,確實帶來了這樣一個問題:一些人工智能軟件所表現(xiàn)出的創(chuàng)造力是否仍然是簡單執(zhí)行人類工程師指令的結(jié)果,?如果埃達(dá)目睹人工智能已經(jīng)能夠創(chuàng)造的東西,也許很難不懷疑她最初的想法,。隨著大型語言模型(LLMs)越來越大,,它們開始提供人類水平的、然后是超人的結(jié)果,。
由此催生了有關(guān)人工智能創(chuàng)造力的兩派觀點,。第一派認(rèn)為人工智能是增強(qiáng)人類創(chuàng)造力的一種方式——它是人類的創(chuàng)造性的伙伴,,可以激發(fā)靈感,提出想法,,并克服創(chuàng)造性的障礙,。而第二派人夢想著人工智能能夠模仿人類的創(chuàng)造力,成為一個獨(dú)立的創(chuàng)造性思維者,,能夠完全自我制造和產(chǎn)生新穎的創(chuàng)造性工作,。
有些人認(rèn)為,由于聊天機(jī)器人只是學(xué)習(xí)其訓(xùn)練集中的單詞之間的統(tǒng)計關(guān)聯(lián),,而不是理解它們的含義,,所以LLMs(大型語言模型)永遠(yuǎn)只能回憶和綜合人們已經(jīng)做過的事情,而不能表現(xiàn)出科學(xué)過程中人類的某些方面,,比如創(chuàng)造性和概念性思維,。但是不是會永遠(yuǎn)如此?未來的人工智能工具是否能夠掌握今天看來遙不可及的科學(xué)過程的各個方面,?
在1991年的一篇開創(chuàng)性的論文中,,研究人員寫道,人和智能技術(shù)之間的“智能伙伴關(guān)系”可以超越人單獨(dú)的智力能力,。這些智能伙伴關(guān)系可以將創(chuàng)新加速到以前無法想象的水平,。問題是,創(chuàng)造性的增強(qiáng)和創(chuàng)造性的生產(chǎn)之間的界限在哪里,?在創(chuàng)造力方面,,人工智能可以和應(yīng)該走多遠(yuǎn),?如果人工智能可以產(chǎn)生高質(zhì)量的創(chuàng)作,,那么是否還需要人類的創(chuàng)造者?
盡管令人驚艷,,我認(rèn)為,,人工智能不太可能完全取代人類的創(chuàng)造力。首先,,創(chuàng)造力是一種獨(dú)特的人類特質(zhì),,深深扎根于我們的生物學(xué)和心理學(xué),。它是復(fù)雜而不為人知的認(rèn)知過程的結(jié)果,如模式識別,、聯(lián)想和綜合,,這些都是機(jī)器不容易復(fù)制的。雖然人工智能肯定可以在某些方面具有創(chuàng)造性,,但它不可能完全匹配人類創(chuàng)造力的深度和廣度,。
其次,創(chuàng)造力的核心在于以獨(dú)特和個人的方式表達(dá)情感和經(jīng)驗的能力,。人工智能算法無法真正理解激發(fā)創(chuàng)造力的人類經(jīng)驗和情感,。一個人工智能作家將能夠拼湊出足夠多的人類經(jīng)歷,以講述一個令人信服的故事,,但是讀者在知道作者經(jīng)歷了他們所描述的痛苦和快樂時,,有一種內(nèi)在于人性的東西即代入地體驗創(chuàng)作者的感受,是機(jī)器作家無法帶來的,。人類創(chuàng)造者給他們的工作帶來的個人感受,,增加了人工智能算法根本無法比擬的真實性。
許多人工智能研究者在爭論是否應(yīng)該創(chuàng)造出具有情感的機(jī)器。在典型的人工智能模型中沒有情感,,而一些研究者稱將情感編程到機(jī)器中可以讓它們擁有自己的心智,。然而,情感可以對人類經(jīng)驗加以總結(jié),,因為它使人類能夠記住這些經(jīng)驗,。耶魯大學(xué)計算機(jī)科學(xué)家戴維·格勒恩特爾(David Gelernter)寫道:“除非能模擬人類情感的所有細(xì)微差別,否則任何計算機(jī)都不會有創(chuàng)造力,?!?/p>
再次,創(chuàng)造力往往涉及捕捉人類的敏感度,,如環(huán)境,、觀點和文化的細(xì)微差別。雖然人工智能算法可以被訓(xùn)練成識別模式并根據(jù)數(shù)據(jù)生成內(nèi)容,,但它們無法像人類那樣理解人類的敏感性,。這也使得人工智能在處理社會尚未形成普遍共識的主題時會陷入困難,比如政治和宗教問題,。如果你試圖就這些主題生成文本,,最終可能會得到有偏見的、不準(zhǔn)確的或過時的文本,。
人工智能不能取代人類創(chuàng)造力的第四個重要原因,,是缺乏想象力和直覺,。創(chuàng)造力需要超越現(xiàn)有事物的思考能力和對新的可能性的想象力,而人工智能算法缺乏這種能力,。他們無法想出真正獨(dú)特和原創(chuàng)的概念,。正因為人工智能并非真正的創(chuàng)作者,其生成的內(nèi)容的一大缺點是,,它并非完全原創(chuàng),。內(nèi)容生成器只是在一定的參數(shù)范圍內(nèi)收集已經(jīng)存在的信息。因此,,雖然內(nèi)容將通過抄襲檢查,,但它不會包括原創(chuàng)研究、見解或數(shù)據(jù),。在實踐中,,這意味著它沒有能力分享觀點或創(chuàng)造思想性內(nèi)容。
最后,,創(chuàng)造力的不可預(yù)測性是使其有別于人工智能的另一個因素,。創(chuàng)造力可以是不可預(yù)測和自發(fā)的,涉及靈感的突然閃現(xiàn),、實驗和偶然的事件,。然而,人工智能算法受到它們所訓(xùn)練的程序和數(shù)據(jù)的限制,,缺乏對新信息作出實時反應(yīng)的能力,,因此它們不可能完全復(fù)制人類創(chuàng)造力的不可預(yù)知性。
總而言之,,生成式人工智能不能替代人類的智慧和洞察力,。為了實現(xiàn)真正的原創(chuàng),生成式人工智能需要由具有領(lǐng)域?qū)I(yè)知識和背景經(jīng)驗的人類創(chuàng)造者來指導(dǎo)和培養(yǎng),。通過提供正確的提示,,人類創(chuàng)造者可以幫助生成式人工智能充分發(fā)揮其潛力,產(chǎn)生令人印象深刻的結(jié)果,。因此,,雖然生成式人工智能是一個非常強(qiáng)大的工具,但它仍然只是一個工具,,它需要依靠人類的創(chuàng)造力,、專業(yè)知識和經(jīng)驗才能真正發(fā)揮作用。
雖然我們承認(rèn)人工智能的工具性,,問題在于,,大多數(shù)人都沒有什么人工智能素養(yǎng)——對何時以及如何有效使用人工智能工具的理解。我們需要的是一個直接的,、通用的框架來評估人工智能工具的優(yōu)點和缺點,,每個人都可以使用。只有這樣,,公眾才能在將這些工具納入我們的日常生活中做出明智的決定,。
為了滿足這一需要,我們不妨使用教育領(lǐng)域的一個古老方法:布魯姆分類法,。這個分類法最早發(fā)表于1956年,,由教育心理學(xué)家本杰明·布魯姆(Benjamin Bloom)提出,后來在2001年進(jìn)行了修訂,。它是一個描述思維水平的層次結(jié)構(gòu),,其中更高的水平代表更復(fù)雜的思維。它的六個層次是:
1)知識記憶:即承認(rèn)或記住事實,、術(shù)語,、基本概念或答案,而不必理解其含義,。
2)理解:通過解釋,、分類、總結(jié),、推論、比較和闡明來解釋主要思想和概念并表達(dá)意義,。
3)應(yīng)用:使用知識來解決問題,、確定事物之間的聯(lián)系以及它們在新情況下的應(yīng)用方式。
4)分析:檢查信息并將其分解為組成部分,,確定各部分之間的關(guān)系,,確定動機(jī)或原因,進(jìn)行推斷,,并找到支持概括的證據(jù),。
5)評估:基于一組標(biāo)準(zhǔn)對信息、想法的有效性或工作質(zhì)量進(jìn)行判斷來提出和捍衛(wèi)意見,。
6)創(chuàng)造:將元素放在一起以形成一個連貫的或功能完整的整體,。這是布魯姆分類法的最高等級。
布魯姆分類法并不與特定的技術(shù)相聯(lián)系——它廣泛適用于認(rèn)知領(lǐng)域,。我們可以用它來評估ChatGPT或其它操縱圖像,、創(chuàng)造音頻或駕駛無人機(jī)的人工智能工具的優(yōu)勢和局限性。
一般來說,,ChatGPT在記憶,、理解和應(yīng)用任務(wù)方面做得很好,但在更復(fù)雜的分析,、評估和創(chuàng)造任務(wù)方面卻很困難,。比如講,,對醫(yī)生、律師和顧問的職業(yè)未來,,用布魯姆分類法加以觀照,,我們會發(fā)現(xiàn),人工智能有朝一日可能重塑這些職業(yè),,但并不是完全取代,。雖然人工智能可能擅長記憶和理解任務(wù),但很少有人向醫(yī)生咨詢自己所患疾病的所有可能癥狀,,或要求律師逐字逐句地講解法律條文,,或聘請顧問解釋邁克爾·波特(Michael Porter)的五力理論。
在那些更高層次的認(rèn)知任務(wù)中,,我們會求助于專家,。我們重視醫(yī)生在權(quán)衡治療方案的好處和風(fēng)險時的臨床判斷,重視律師綜合先例并代表我們進(jìn)行有力辯護(hù)的能力,,以及顧問找出別人沒有想到的開箱即用的解決方案的能力,。這些技能屬于分析、評估和創(chuàng)造的任務(wù),,是人工智能技術(shù)目前所不及的認(rèn)知水平,。
使用布魯姆分類法,我們可以看到,,有效的人與人工智能合作,,將在很大程度上意味著委托交辦較低層次的認(rèn)知任務(wù),以便我們可以將精力集中在更復(fù)雜的認(rèn)知任務(wù)上,。因此,,與其糾結(jié)于人工智能是否能與人類創(chuàng)造者競爭,不如問問人工智能的能力如何被用來幫助培養(yǎng)人類的批判性思維,、判斷和創(chuàng)造力,。
當(dāng)然,布魯姆分類法也有自己的局限性,。許多復(fù)雜的任務(wù)涉及分類法的多個層次,,使分類的嘗試受挫。而且布魯姆分類法并不直接解決偏見或仇恨問題,,這是大規(guī)模人工智能應(yīng)用中的一個主要問題,。
但是,盡管不完美,,布魯姆分類法仍然有用,。它足夠簡單,每個人都能掌握;足夠通用,,適用于廣泛的人工智能工具,;結(jié)構(gòu)化,足以確保我們對這些工具提出一套一致的,、徹底的問題,。
就像社交媒體和假新聞的興起要求我們發(fā)展更好的媒體素養(yǎng)一樣,,ChatGPT等工具要求我們發(fā)展我們的人工智能素養(yǎng),。布魯姆分類法提供了一種思考人工智能能夠做什么以及不能做什么的方法,因為這種類型的技術(shù)已經(jīng)嵌入到我們生活的更多部分,。
有意思的是,生成式人工智能似乎創(chuàng)造了對人類創(chuàng)造力的迫切需求,。對于人工智能來說,,僅僅隨機(jī)地想出一些新奇的東西是很容易的。但要想出一些新穎的,、出乎意料的,、同時又有用的東西是非常困難的。
然而吊詭之處在于,,由于有生成式人工智能可以依賴,,人類創(chuàng)造力或許會進(jìn)入一個低谷。2019年7月,,在法國一場國際象棋比賽中,,全世界排第53名的國際特級大師伊戈斯·勞西斯(Igors Rausis)被曝比賽中途使用手機(jī),按規(guī)則來說已屬作弊,。人類歷史上第一位輸給計算機(jī)的棋類世界冠軍加里·卡斯帕羅夫(Garry Kasparov)引申評論說,,雖然在現(xiàn)實生活中使用手機(jī)并不是作弊,但你可能會因為過度依賴數(shù)字拐杖而出現(xiàn)認(rèn)知上的缺陷,。
他強(qiáng)調(diào),,如果我們只依靠機(jī)器來告訴我們?nèi)绾纬蔀閮?yōu)秀的模仿者,我們將永遠(yuǎn)無法邁出下一步,,成為創(chuàng)造性的創(chuàng)新者,。與我們的身體類似,我們的大腦也需要鍛煉,,并通過執(zhí)行高要求和具有挑戰(zhàn)性的認(rèn)知任務(wù)來不斷訓(xùn)練,,以便出類拔萃,擦出“Aha,!”般的洞察力的火花,。
不幸的是,一旦我們將認(rèn)知自主權(quán)部分下放給智能機(jī)器,再想要把它拿回來將千難萬難,。這就是為什么,,當(dāng)人類在享受認(rèn)知的旅程中踩下剎車時,算法和人工智能機(jī)器卻會以難以置信的速度快速前進(jìn),,成為創(chuàng)造力的新來源,。有些人對我們正以快速增長的速度進(jìn)入的完全自動化的人工智能未來有一個烏托邦式的愿景,而另一些人則對此懷抱一個歇斯底里的愿景,。在這種情況下,,我們每個人都要做出選擇:是擁抱這些新的挑戰(zhàn),還是遏制它們,。我們是要幫助塑造未來,,設(shè)定我們與算法和智能機(jī)器的關(guān)系條款,還是讓算法與智能機(jī)器強(qiáng)加于我們,?
在1976年的精彩著作《計算機(jī)能力與人類理性》中,,約瑟夫·魏岑鮑姆(Joseph Weizenbaum)認(rèn)為:“無論機(jī)器如何智能,有些思想行為只能由人類來嘗試,?!彼灀P(yáng)了判斷力、智慧和同情心的重要性——即使我們可以,,也不能把這些東西外包給機(jī)器,。在一個深刻的表述中,他寫道,,機(jī)器可以決定,,但它們不會選擇。為什么機(jī)器會做它所做的事,?每一個機(jī)械化的決定都可以通過算法一步步追溯,,直到最后得出一個不可避免的結(jié)論:“因為是你告訴我的?!睂θ祟悂碚f,,況并非如此,根本的解釋是:“因為我選擇了,?!痹谶@個簡單的短語中,包含著人類的能動性,、人類的創(chuàng)造力,、人類的責(zé)任以及人類本身。
我們已經(jīng)論證過,,我們的技術(shù)可以使我們更有人性,,讓我們自由地發(fā)揮更多的創(chuàng)造力,,但作為人類,除了創(chuàng)造力,,還有更多的東西,。我們有機(jī)器無法比擬的其他品質(zhì)。它們有指令,,而我們有目的,。機(jī)器不能做夢,甚至在睡眠模式下也不能,。人類可以,,而且我們將需要我們的智能機(jī)器,以便將我們最偉大的夢想變成現(xiàn)實,。正如卡斯帕羅夫所說,,如果我們停止做大夢,,如果我們停止尋找更大的目標(biāo),,那么我們自己也可能是機(jī)器。
創(chuàng)造力一直被認(rèn)為是人類中心論的主要支柱之一,。除了語言,、價值觀、情感和知覺以外,,如果沒有創(chuàng)造力,,還有什么能讓我們成為人類呢?
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1061606.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議。