潮新聞 執(zhí)筆 陸遙 鄔敏 王艷瓊
歷史仿佛又一次重演,。
十九世紀初,,工業(yè)革命時期,歐洲逐漸用機器生產(chǎn)替代手工勞動,。工資下跌,、失業(yè),導致大量手工業(yè)者破產(chǎn),。人們開始把搗毀機器作為反對企業(yè)主的手段,。據(jù)說第一個搗毀機器的,是一個名叫盧德的工人,,這次運動也被稱為“盧德運動”,。
今天,,美國好萊塢正在上演的一幕,總是讓人想起“盧德運動” ——這個夏天,,好萊塢影視工業(yè)面臨全面停擺,。當?shù)貢r間7月13日,擁有16萬會員的好萊塢三大工會之一美國影視演員協(xié)會(SAG-AFTRA)宣布罷工,,無數(shù)投入巨資的項目受到影響,。在此之前,美國編劇工會已經(jīng)罷工70多天,。
“如果現(xiàn)在不昂首挺胸,,我們就會陷入困境,都將面臨被機器取代的危險,?!盨AG-AFTRA主席法蘭·德瑞雪的一席話,和200多年前英國勞動者的恐懼何其相似,。
好萊塢在怕什么,?
AI。
這次罷工,,也被看作是人類抵抗AI威脅的首次集體行動,。
當下,飛速發(fā)展的AI技術正越來越多地影響我們的日常生活,,隨之帶來的一系列治理問題,、倫理問題,究竟何解,?日前,,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下稱《辦法》),自2023年8月15日起施行,,一定程度上給AI使用劃定了“紅線”,。
好萊塢在害怕什么?
2001年,,好萊塢著名導演斯皮爾伯格通過科幻片《人工智能》,對未來世界的AI做出了種種設想,。故事里,,人類對于AI有糾結、猶豫,,也有恐懼,。可斯皮爾伯格卻用一種近乎悲憫的敘事方式,,講述了AI尋找自我價值,、尋找愛的過程。
諷刺的是,,22年后,,最早開始抵抗AI的集體行動,恰恰來自好萊塢——
美國好萊塢,。圖片來自視覺中國
美國《洛杉磯時報》稱,美國演員工會及電視廣播藝人聯(lián)合會上周四宣布加入美國編劇工會的罷工行動中,。演員與編劇同時罷工,,意味著好萊塢影視業(yè)63年來首次全面停擺,。上次出現(xiàn)這樣的狀況還要追溯到美國前總統(tǒng)里根擔任演員工會主席的1960年,,那次好萊塢大罷工持續(xù)了約6周。
演員缺席首映現(xiàn)場,,影片直接停拍,,如《角斗士2》、《死侍3》,、《碟中諜8:致命清算(下)》等,,甚至影響到了即將在8月和9月舉辦的威尼斯電影節(jié)、多倫多電影節(jié),,所有美國演員工會成員將無法參加,。
據(jù)《紐約時報》報道,這次大罷工使美國價值1340億美元的美國影視業(yè)陷入停頓,,其原因除了對薪酬的不滿,,更有對由科技主導的未來的擔憂。
從演員和編劇們的訴求中,,可以看見他們究竟在擔憂什么:
SAG-AFTRA要求制片公司保證不會以AI和電腦生成面孔和聲音來替代演員,。
此前,,5月初,約1.15萬名電影和電視編劇走上紐約和洛杉磯街頭罷工,,呼吁提高薪資,,拒絕給AI打工。他們的標語很有梗,,“AI無法取代編劇”“用AI替代高管”“AI沒有靈魂”“我讓ChatGPT寫一個標語,,但它寫得很爛?!?/p>
美國作家協(xié)會也提出,,現(xiàn)有的劇本不應該被用于訓練AI,這為知識產(chǎn)權盜竊大開方便之門,。作家和編劇擔心的是,,制片方為了節(jié)省成本,將使用AI制作大量劇本,,而編劇們只能負責做一些修改AI劇本的低報酬,、低附加值的工作。
擔心不是沒有依據(jù),。今年上映的《奪寶奇兵5》正是運用AI,,在大熒幕上展現(xiàn)了整整年輕了40歲的主演哈里森·福特。時至今日,,使用AI分身后該如何向演員分配利益,,還沒有明確的標準。
網(wǎng)飛(Netflix)公司今年上線的劇集《黑鏡 第六季》,,則給人們展現(xiàn)了一個更為具象化的未來:第一集中,,講述的正是由人工智能利用普通人留在電子設備中的個人信息自動生成劇本,再利用影視明星的虛擬形象自動生成劇集,。結局也頗值得玩味:劇集主人公原型和影視明星本人沖入影視公司,,搗毀了AI量子計算機。
當然,,這種警惕,,絕不僅僅發(fā)生在影視界。
我們該如何與AI相處,?
“聳現(xiàn),。”
今年5月,,當人們利用AI技術,,讓“AI孫燕姿”翻唱各類歌曲時,歌手孫燕姿本人用了這樣一個詞。
“你跟一個每幾分鐘就推出一張新專輯的人還有什么好爭的,?”正如孫燕姿所言,,“之前我們一直堅信,思想或觀點的形成是機器無法復制的任務,,這超出了它們的能力范圍,,但現(xiàn)在它卻赫然聳現(xiàn)并將威脅到成千上萬個由人類創(chuàng)作的工作,比如法律,、醫(yī)學,、會計等行業(yè),以及目前我們正在談論的,,唱歌,。”
什么行業(yè)最容易被AI取代,?3月26日,美國高盛公司發(fā)表報告稱,,在美國和歐洲,,AI將取代目前的1/4工作崗位,生成式AI將取代3億個工作崗位,。而最近,,OpenAI與賓夕法尼亞大學聯(lián)合所做的報告結果現(xiàn)實,美國有80%的勞動力至少有10%的任務會受到GPT的影響,,大約19%的員工至少會發(fā)現(xiàn)50%的任務受其影響,。
AI技術滲透在生活、工作各方面,,一定程度上提高效率和節(jié)省成本,,但也不可避免地對傳統(tǒng)技術產(chǎn)生沖擊,甚至衍變出傳播虛假信息,、侵害個人隱私,、數(shù)據(jù)安全等問題。
正因如此,,我們應該持辯證的眼光,使AI真正成為“幫手”,,而非“殺手”,。對于日常的瑣碎事務、繁雜工作等,,AI的進駐無可厚非,。而對于文藝創(chuàng)作這種文化傳承類工作,駕車這類需要價值判斷的工作,,安保等具有攻擊性的工作,,人類或許更勝一籌,。
對于社會發(fā)展來說,在政策監(jiān)管和技術發(fā)展之間需要找到平衡點,。為此,,中國已經(jīng)下了一步先手棋。
日前,,國家網(wǎng)信辦聯(lián)合發(fā)改委,、教育部、科技部,、工信部,、公安部、廣電總局公布《生成式人工智能服務管理暫行辦法》(以下稱《辦法》),,自2023年8月15日起施行,。《辦法》標出了監(jiān)管范圍,,恰好是現(xiàn)行存在AI非法使用最多的生成文本,、圖片、音頻,、視頻等內(nèi)容,,一定程度上給AI使用劃定了“紅線”。
《辦法》共24條,,從生成式人工智能服務提供者的算法設計與備案,、訓練數(shù)據(jù)、模型,,到用戶隱私,、商業(yè)秘密的保護,監(jiān)督檢查和法律責任等方面提出了相關要求,。
比如,,針對好萊塢編劇們的擔憂——生成式人工智能的訓練數(shù)據(jù)中如包括他人已發(fā)表并享有著作權的作品,可能給知識產(chǎn)權造成侵害,?!掇k法》第四條明確,尊重知識產(chǎn)權,、商業(yè)道德,,保守商業(yè)秘密,不得利用算法,、數(shù)據(jù),、平臺等優(yōu)勢,實施壟斷和不正當競爭行為;尊重他人合法權益,,不得危害他人身心健康,,不得侵害他人肖像權、名譽權,、榮譽權,、隱私權和個人信息權益。第七條規(guī)定“涉及知識產(chǎn)權的,,不得侵害他人依法享有的知識產(chǎn)權”等內(nèi)容,。
人工智能算法具有“黑箱”特性,表現(xiàn)為行為不可控,、決策機制難以解釋,。《辦法》明確,,提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,,應當按照國家有關規(guī)定開展安全評估,并按照《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》履行算法備案和變更,、注銷備案手續(xù),。二是明確了信息披露要求?!掇k法》明確規(guī)定,,有關主管部門依據(jù)職責對生成式人工智能服務開展監(jiān)督檢查,提供者應當依法予以配合,,按要求對訓練數(shù)據(jù)來源,、規(guī)模、類型,、標注規(guī)則,、算法機制機理等予以說明,并提供必要的技術,、數(shù)據(jù)等支持和協(xié)助,。
這不是我國第一次對AI治理“出招”。2019年6月,,中國國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,;2021年9月,又發(fā)布了《新一代人工智能倫理規(guī)范》,。2022年3月,,中國發(fā)布了《關于加強科技倫理治理的意見》?;谧陨碓谌斯ぶ悄軅惱眍I域的政策實踐,中國向聯(lián)合國《特定常規(guī)武器公約》締約國大會提交了《關于加強人工智能倫理治理的立場文件》,呼吁國際社會堅持“倫理先行”,,將“以人為本,、智能向善”的理念落實到人工智能技術的管理、研發(fā),、使用等各個層面……一系列中國智慧和方案,,展現(xiàn)出大國積極構建人類命運共同體的責任和擔當。
值得注意的是,,我國相關立法也已提上日程,。根據(jù)今年6月發(fā)布的《國務院2023年度立法工作計劃》,我國今年預備提請全國人大常委會審議人工智能法草案,。
面對新技術,,人類怕過嗎?
從盧德運動,,到好萊塢罷工……對于技術革命,,人類總是喜憂參半。而這種對于新生,、未知事物的恐懼,,恐怕早就銘刻在人類的基因里。
能夠想象嗎,?在文字出現(xiàn)而尚未普及的年代,,即便如蘇格拉底這樣的西方哲學奠基者,也是反對使用文字的,。蘇格拉底認為,,如果人們學會了文字,就會依賴寫下來的東西,,不再去努力記憶,。蘇格拉底還認為,文字如果受到曲解,,就無力為自己辯護,,總是需要它的作者來救援。
然而,,有意思的是,,蘇格拉底排斥文字的這些言論,正是有賴于他的學生柏拉圖用文字才得以被記錄下來,。上述蘇格拉底的觀點,,正來自柏拉圖的著作《對話錄·斐德羅篇》。
電視機被發(fā)明并普及后,,尼爾·波茲曼在其名著《娛樂至死》中認為,,傳統(tǒng)印刷帶來的理性,、秩序和邏輯性的表達,將被電視影響,,以一種膚淺,、碎片化和娛樂化的方式取代。這個時候,,文字又成為一種“正義”,,而影像化表達卻成了洪水猛獸。
回溯人類發(fā)展的歷史,,幾乎每一次技術更迭,,人類的恐懼都會出現(xiàn)。然而一次次迭代之后,,人類依然很好地駕馭著新的技術(至少到目前為止),。
那么,我們究竟應該如何面對新技術的產(chǎn)生,?
首先,,正視新技術。AI的誕生,,會讓一部分職業(yè)消亡,,但它必然也會帶來新的職業(yè)。正如汽車的出現(xiàn),,讓馬車夫失業(yè)了,,卻也誕生了汽車司機;機器的出現(xiàn)讓一部分手工業(yè)者失業(yè),,卻也誕生了機器操作工人,。接受AI的出現(xiàn),并且保持不斷地學習,,以適應AI出現(xiàn)后產(chǎn)生的新變化,,是我們不被技術浪潮拋棄的根本所在。
其次,,正視恐懼感,。新技術會帶來效率、變革,,當然也會面臨失控的風險,。而恐懼感,正是我們在與新技術磨合中,,時刻保持警惕,,不至于陷入“技術狂熱”之中的清醒劑。
最后,,關注掉隊的人,。一場健康的技術革命,不應該放棄掉隊的人,。就像智能手機盛行的時候,,不少老年人掉隊了,。然而現(xiàn)在,,全社會正在幫助老年人盡快消弭數(shù)字鴻溝,App和政務網(wǎng)站紛紛推出了長者版,,不少只能使用移動支付的場景,,也會專門安排志愿者幫助有需要的老人。AI的出現(xiàn)同樣如此,,當我們在享受技術帶來的巨大紅利時,,也要時刻關照到被隔在鴻溝那頭的人。
畢竟,,在不久的未來,,人文關懷,或許是為數(shù)不多AI無法替代勞的事了,。
正如蘋果CEO蒂姆庫克2017年在麻省理工學院畢業(yè)典禮演講時說的那樣:“我所擔心的并不是人工智能能夠像人一樣思考,,我更擔心的是人們像計算機一樣思考,沒有價值觀,,沒有同情心,,沒有對結果的敬畏之心?!?/p>
“轉載請注明出處”
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1060188.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。