朱昌俊
炙手可熱的人工智能語言模型ChatGPT正在遭遇一盆盆冷水,。繼全球千余名科技界人士呼吁暫停訓(xùn)練包括ChatGPT在內(nèi)的強(qiáng)大人工智能系統(tǒng)之后,,聯(lián)合國教科文組織日前也號(hào)召各國立即執(zhí)行其《人工智能倫理問題建議書》,。這份建議書由教科文組織193個(gè)會(huì)員國一致通過,是首個(gè)關(guān)于以符合倫理要求的方式運(yùn)用人工智能的全球框架,,旨在指導(dǎo)各國最大限度發(fā)揮人工智能優(yōu)勢,,降低其帶來的風(fēng)險(xiǎn)。
不僅如此,,一些國家和企業(yè)也對ChatGPT發(fā)出禁令,。在意大利,,數(shù)據(jù)監(jiān)管機(jī)構(gòu)宣布禁止ChatGPT在意大利運(yùn)營,;在德國,聯(lián)邦數(shù)據(jù)保護(hù)專員發(fā)言人稱,,出于數(shù)據(jù)保護(hù)方面的考慮,,可能會(huì)暫時(shí)禁止在德國使用ChatGPT;在韓國,,三星表示,,為了避免數(shù)據(jù)泄露事件再次發(fā)生,已經(jīng)告知員工謹(jǐn)慎使用ChatGPT……幾乎一夜之間,,ChatGPT熱潮在全球范圍內(nèi)出現(xiàn)風(fēng)向逆轉(zhuǎn),。
實(shí)際上,ChatGPT自公開亮相的那一刻起,就伴隨著巨大的爭議,。樂觀者認(rèn)為它打開了通向“新世界”的大門,,其作為新技術(shù)的范式革命將給人類帶來全新的機(jī)遇;但同時(shí),,也有一部分人認(rèn)為,,它可能會(huì)全面挑戰(zhàn)人類的現(xiàn)有秩序,并帶來數(shù)據(jù)安全,、隱私保護(hù)等風(fēng)險(xiǎn),。而更多普通人的一個(gè)現(xiàn)實(shí)擔(dān)憂是,自己的崗位是不是將被人工智能所替代……
幾乎每一輪新的科技革命到來,,或是某個(gè)重大技術(shù)取得新突破時(shí),,都會(huì)引發(fā)社會(huì)爭議,這在歷史上已被重復(fù)了很多次,。從一定程度上說,,它和人類與生俱來的對于未知的恐懼是息息相關(guān)的。比如,,最近的一個(gè)案例是,,2019年5月,美國舊金山城市監(jiān)督委員會(huì)通過一條禁令,,決定禁止該市所有單位使用人臉識(shí)別技術(shù),。但這并未帶來更多地方的跟進(jìn)。相反,,僅僅差不多半年后,,舊金山就對該禁令作出修改,放寬人臉識(shí)別的使用限制,。
因此,,以史為鑒,完全不必過于放大ChatGPT目前所遭遇的“寒流”,。事實(shí)上,,這次全球千余名科技人士的呼吁,也只是要求暫停訓(xùn)練更強(qiáng)大的人工智能系統(tǒng),。聯(lián)合國教科文組織發(fā)出的號(hào)召,,亦只是強(qiáng)調(diào)各國“發(fā)展符合倫理規(guī)范的人工智能”,并不等于不發(fā)展,。換言之,,這類對ChatGPT“急剎車”的行動(dòng),主要還是提醒人類,,對于ChatGPT的應(yīng)用要做好更充分的準(zhǔn)備,,盡可能趨利避害。與其說這是包括ChatGPT在內(nèi)的人工智能所遭遇的信任危機(jī),不如說是其成長路上的必經(jīng)煩惱,。
關(guān)于ChatGPT的下一步走向,,能夠在全球范圍引起如此大的關(guān)注和討論,,其實(shí)恰恰說明,,其所展現(xiàn)出的技術(shù)突破性已經(jīng)不得不讓人正視。而一項(xiàng)創(chuàng)新技術(shù)突破性越強(qiáng),,對于現(xiàn)實(shí)社會(huì)的“改造”越大,,就越需要對其倫理規(guī)范有更多的審視。近年來,,隨著人工智能、自動(dòng)駕駛等新技術(shù)不斷取得進(jìn)展,,其對應(yīng)的科技倫理風(fēng)險(xiǎn)和科技治理挑戰(zhàn),,也愈發(fā)引起重視。比如,,中國在2020年就專門成立了國家科技倫理委員會(huì),,目的就是加強(qiáng)統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動(dòng)構(gòu)建覆蓋全面,、導(dǎo)向明確,、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系,。
不過,,這次針對ChatGPT的科技倫理規(guī)范討論,盡管在全球取得了一定共識(shí),,但不同國家和地區(qū)在人工智能技術(shù)的研發(fā)和應(yīng)用進(jìn)度上存在差異,,且存在一定的競爭關(guān)系,不同社會(huì)對新技術(shù)的接受程度也不盡一致,,因此在談?wù)摽萍紓惱砩?,也勢必要尊重不同區(qū)域的實(shí)際情況,。歷史已證明,,對于某項(xiàng)具備趨勢性的新技術(shù)“一刀切式”的嚴(yán)控或是放縱,,只會(huì)令技術(shù)發(fā)展遭遇“科林格里奇困境”,。因此,最好的方式只能是在發(fā)展中平衡,,在平衡中發(fā)展,。比如,ChatGPT訓(xùn)練時(shí)需要遵循哪些倫理,開放應(yīng)用又要符合哪些前提條件,,既避免它帶來諸如放大虛假信息,、侵犯隱私和知識(shí)產(chǎn)權(quán)等風(fēng)險(xiǎn),也考慮它可能給社會(huì)就業(yè)帶來的沖擊,,這需要盡快明確一些全球性的底線共識(shí),,也有必要參照各個(gè)國家和地區(qū)的現(xiàn)實(shí)情況。
當(dāng)然,,守住人工智能發(fā)展的倫理大門,,一些工作對不同國家來說是共同的挑戰(zhàn),就像這次全球千余科技人士的公開信中所呼吁的,。如人工智能開發(fā)人員應(yīng)與政策制定者合作,,以加快開發(fā)強(qiáng)大的人工智能治理系統(tǒng)。也即,,在人工智能技術(shù)不斷進(jìn)化的同時(shí),,相應(yīng)的監(jiān)管機(jī)構(gòu),或者說對科技倫理的規(guī)范力量,,也應(yīng)與時(shí)俱進(jìn),。此外,諸如建立專門負(fù)責(zé)人工智能的新監(jiān)管機(jī)構(gòu),;建立水印系統(tǒng),,以幫助人們區(qū)分真實(shí)與人工智能合成內(nèi)容;界定人工智能造成的傷害的責(zé)任等,,同樣也是每個(gè)國家和地區(qū)有必要做好的準(zhǔn)備,。
“科技向善”的重要性,可能從來沒有如此清晰地被所有人所感知,。誠如比爾·蓋茨所言,,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實(shí),。但確保其被健康地使用,,防止打開潘多拉魔盒,卻是必要的,??梢哉f,各國爭相謀求技術(shù)突破的同時(shí),,如何構(gòu)建一套適配技術(shù)發(fā)展和應(yīng)用的科技倫理治理體系,,同樣是一條不可忽視的競爭賽道。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1013182.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。