作者:郭小平(華中科技大學新聞與信息傳播學院副院長,、教授),;郭瑞陽(華中科技大學新聞與信息傳播學院博士研究生)來源:《青年記者》2024年第6期導 讀:聚焦個人隱私與版權保護,,警惕深度偽造濫用,探究“AI治理AI”新模式,,堅持人本主義,是生成式人工智能風險治理的關鍵,。人工智能的創(chuàng)新應用形塑社會互動模式,。在信息傳播,、醫(yī)療、交通,、教育等場景中,,人工智能成為社會互動的代理,促使人與人的互動越來越多地轉(zhuǎn)換成人機互動,。智能技術重構新聞傳播的業(yè)態(tài)和生態(tài),,深度嵌入信息獲取和決策過程,影響公眾的社會闡釋框架,。作為社會的信息傳遞基座,,新聞傳播業(yè)在接受人工智能技術賦能的同時,也成為人工智能風險生成,、擴散和演變的關鍵場域,。自2022年以來,人工智能的內(nèi)容生成和交互水平取得突破性進展,。人工智能聊天機器人程序ChatGPT,、人工智能圖片生成平臺Midjourney和文生視頻大模型Sora等生成式人工智能出現(xiàn),,掀起內(nèi)容生產(chǎn)和信息消費熱潮。生成式人工智能的數(shù)據(jù)訓練,、程序設計和生成結(jié)果應用等環(huán)節(jié),,也可能產(chǎn)生“被制造的風險”(manufactured risks),[1]涉及人機關系,、深度偽造,、產(chǎn)業(yè)變革等多個維度。一,、新聞傳播業(yè)對人工智能的創(chuàng)新采納人類歷史從根本上是人與物,、物與物糾纏的歷史。[2]人與技術物的關系大致有具身關系,、詮釋關系,、它異關系和背景關系四種,[3]技術物是身體認知的放大器,,也是人類觀察,、理解和操縱世界的中介,可以作為它者或準它者與人類共存,,也可以融為生活環(huán)境的一部分,,潛移默化地發(fā)生作用。作為一類技術物的人工智能與人類展開長期的互動實踐,,新聞生產(chǎn)和傳播實踐就是其中之一,。從數(shù)據(jù)處理到信息分發(fā)再到內(nèi)容生成,人工智能成為新聞傳播業(yè)的創(chuàng)新驅(qū)動力和生產(chǎn)力,。(一)人工智能的發(fā)展:“類人”化與“類物”化無論是將人工智能視作“工具”還是“潛在的合作伙伴”,,公眾對它的存在已習以為常。人工智能發(fā)展和應用是基于不可見的基礎設施支撐體系,,包含計算,、存儲、網(wǎng)絡硬件等硬件基礎設施體系和多樣化的機器學習框架,、算法以及相關工具軟件,、PaaS平臺、服務等軟性基礎設施體系,。近年來,,人工智能的研發(fā)致力提升人工智能與人類社會的適配性,沿著“類人”和“類物”兩個方向使人工智能融入社會的過程“自然化”,。[4]所謂的“類人”,,是指不斷豐富人工智能算法模型的情感和心理維度,如通過分析文字詞頻,、音頻文本中的聲調(diào)語速,、圖像文本中的面部表情特征等推測情感類型,。所謂的“類物”是將易于交互的人工智能物嵌入人類熟悉的場景,如家庭生活場景中的育兒機器人,、養(yǎng)老護理機器人和智能音箱等,。(二)智能化信息生產(chǎn):人工智能成為生產(chǎn)主體人工智能在不同場景中“類人”和“類物”的應用發(fā)展,也包括對傳統(tǒng)信息生產(chǎn)流程的重構,。繼專業(yè)生產(chǎn)內(nèi)容(PGC)和用戶生產(chǎn)內(nèi)容(UGC)后,,人工智能生成內(nèi)容(AI-Generated Content, AIGC)成為一種新型內(nèi)容。作為一個復合型概念,,人工智能生成內(nèi)容“既是從內(nèi)容生產(chǎn)者視角進行分類的一類內(nèi)容,,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動化生成的一類技術集合”[5],。而生成式人工智能(Generative Artificial Intelligence, GAI)是指通過復雜的算法和模型對大規(guī)模數(shù)據(jù)進行集中學習,具有“文本,、圖片,、音頻、視頻等內(nèi)容生成能力的模型及相關技術”[6],,是“根據(jù)人類制定的規(guī)則訓練而成的有立場,、一定程度上受控的智能內(nèi)容生成工具”[7]。在狹義上,,人工智能生成內(nèi)容是生成式人工智能參與生產(chǎn)的結(jié)果,,但生成式人工智能更聚焦于技術、模型和工具,。生成式人工智能可以完成多模態(tài)文本轉(zhuǎn)換,,還能模仿人類的不同情緒口吻來輸出內(nèi)容。目前,,按照任務類型劃分,,傳媒機構生成式人工智能的應用形態(tài)有寫作機器人、數(shù)智記者和AI主播等,。人工智能在災害事件(地震和暴雨等),、天氣預報、財經(jīng),、體育等垂直領域的報道方面,,具有明顯的時效性優(yōu)勢。包含生成式人工智能在內(nèi)的人工智能,,將記者從轉(zhuǎn)錄,、翻譯、校對等流程性工作中解放出來,。傳媒機構希望利用智能工具提升生產(chǎn)力,,放大人類記者在新聞深度和事實核查等方面的獨特優(yōu)勢,,發(fā)展解釋性報道和建設性新聞,進而鞏固行業(yè)邊界,。(三)智能化信息分發(fā):從個性化走向定制化人工智能應用于平臺型媒體,,以場景化、個性化的智能算法分發(fā)滿足用戶需求,。通過收集用戶的個人信息數(shù)據(jù)和使用數(shù)據(jù),,智能算法分析總結(jié)出不同的用戶畫像,根據(jù)歷史偏好,、相似群體偏好以及社交關系進行推薦,。同時,平臺算法會根據(jù)用戶的點擊量,、閱讀時長,、完播率、個性化設置等不斷調(diào)整內(nèi)容推薦模式,。生成式人工智能實現(xiàn)跨平臺內(nèi)容聚合和分析,,還能根據(jù)用戶需求提煉總結(jié)出核心關鍵信息,產(chǎn)出定制化內(nèi)容,。因此,,生成式人工智能有望發(fā)展成為“下一代網(wǎng)絡入口”,[8]也將再次改變內(nèi)容分發(fā)邏輯,。(四)智能化內(nèi)容呈現(xiàn):從“認知新聞”到“體驗新聞”人工智能豐富新聞呈現(xiàn)形式,,推動“認知新聞”向“體驗新聞”轉(zhuǎn)變。面對新聞回避和新聞疲勞的雙重挑戰(zhàn),,新聞業(yè)轉(zhuǎn)型的重要策略是進一步增加音視頻形態(tài)的新聞數(shù)量,,[9]以滿足用戶需求。新聞的數(shù)據(jù)可視化,、碎片化,、視頻化等趨勢,豐富了新聞閱讀體驗,。2023年,,安徽寒潮來襲時,大皖新聞的數(shù)智記者“小朱姐”迅速上鏡播報,,省略拍攝場地準備,、妝造彩排等步驟,保障了新聞的時效性,。川觀新聞的數(shù)字記者矩陣包含20個真人記者的數(shù)字分身,,可以充分發(fā)揮多線程播報的優(yōu)勢,提升內(nèi)容生產(chǎn)效率。近期發(fā)布的Sora類文生視頻模型,,引發(fā)使用生成式人工智能進行時空模擬和時空再造的豐富想象,。Sora雖然在新聞現(xiàn)場采集、新聞調(diào)查和信源核實等方面有缺陷,,但能夠幫助記者還原一些“難以重回的現(xiàn)場”或制作便于理解和傳播的解釋性影像,,提升新聞覆蓋率和受眾參與度。未來,,生成式人工智能和AR/VR等技術結(jié)合,,將會以逼真的感官體驗和自由設定,讓用戶沉浸式體驗各類新聞場景,。此外,,生成式人工智能還能對新聞內(nèi)容作出調(diào)整,以滿足不同用戶群體的閱讀習慣偏好,。新聞閱讀程序“Artifact”,,可以用不同的風格總結(jié)用戶感興趣的文章內(nèi)容,將其改寫成Z世代喜愛的風格或一系列便于在社交媒體傳播的表情符號,。智能社會與圖像社會疊加,,使世界更加趨于圖像化、影像化,。用戶的認知模式也隨之轉(zhuǎn)變,,從借助全面,、客觀,、深度的信息進行“認知”轉(zhuǎn)向習慣于通過影像和主觀情感聯(lián)想進行“體驗”。(五)智能化內(nèi)容治理:用AI治理AI虛假信息的生產(chǎn)傳播是人類社會存在的長期問題之一,。事實核查主體和技術變遷主要經(jīng)歷了三個階段:傳統(tǒng)的新聞事實核查,;基于大數(shù)據(jù)、區(qū)塊鏈等智能技術的事實核查,;用AI治理AI的事實核查。一是傳統(tǒng)的新聞事實核查,。傳統(tǒng)的事實核查依賴人力核實新聞信源與經(jīng)過,,主要由職業(yè)新聞從業(yè)者完成,,所需時間和人力成本較高。二是基于大數(shù)據(jù),、區(qū)塊鏈等智能技術的新聞事實核查,。大數(shù)據(jù)和區(qū)塊鏈技術出現(xiàn)后,人們能夠通過爬梳并分析信息來源的賬號特征,、文本特征,、傳播路徑特征等信息,開展數(shù)據(jù)管理,、追蹤和溯源,,核實信息真實性。新冠疫情期間,,社交媒體上混合著大量有關疫情擴散與治療的信息,,淹沒了可信任的信息來源,影響公眾的健康認知和決策,,形成“信息疫情”,。[10]大數(shù)據(jù)和區(qū)塊鏈技術以分析高效、難篡改,、易追蹤等優(yōu)勢,,為真實防疫信息的共享和傳遞提供技術支撐。三是用AI治理AI的新聞事實核查,。人工智能推動事實核查進入新的發(fā)展階段,,各國傳媒機構和科技公司逐步探索“AI治理AI”模式。國際事實核查網(wǎng)絡(IFCN)等組織以及相關主題國際會議,,推動全球事實核查創(chuàng)新運動的制度化發(fā)展,。其中,機器作為行動者的角色受到重視,。谷歌DeepMind團隊和斯坦福大學研究人員開發(fā)的搜索增強事實評估器(Search-Augmented Factuality Evaluator, SAFE),,可通過大型語言模型分解聊天機器人生成的文本,再分別核查其中所涉及的事實信息準確性,。相較于文字文本的核查,,音頻檢測工具的發(fā)展應用相對滯后。美國西北大學計算機科學教授蘇夫拉曼尼(V.S. Subrahmanian)開展人工智能音頻檢測實驗,,測試了14種現(xiàn)有,、免費且公開的音頻深度偽造檢測工具,結(jié)果卻不盡如人意,。盡管目前使用AI工具識別深度偽造內(nèi)容的難度較大,,但構建行動者網(wǎng)絡、開展人機協(xié)同、“AI治理AI”仍是發(fā)展趨勢,。二,、人工智能技術的媒體采納帶來的行業(yè)焦慮機器主體的參與給人類記者帶來職業(yè)發(fā)展憂慮。生成式人工智能融入新聞生產(chǎn)場域的過程,,不是簡單的“技術使用”,,而是人類行動者與非人類行動者間的交互、協(xié)商與磨合,。[11]面對新技術的沖擊,,身處生產(chǎn)一線的記者和編輯能更加敏銳地捕捉到人機權力關系的變化與職業(yè)邊界的流動。組織,、制度,、文化變革往往會滯后于技術采納,形成一段與技術發(fā)展不相匹配的轉(zhuǎn)型陣痛期,。因此,,面對生成式人工智能嵌入導致的新聞生產(chǎn)工作常規(guī)重構、組織機制變革,、新聞文化重塑,,不少一線從業(yè)者表現(xiàn)出不同于機構管理層的懷疑和冷漠,甚至是抗拒和抵制,。[12]作為傳播主體的機器改變了以人為主體的傳播生態(tài),。記者與編輯要應對行業(yè)內(nèi)外的雙重壓力,迎接包含機器生產(chǎn)者在內(nèi)的多元主體的挑戰(zhàn),。生成式人工智能及相關技術的發(fā)展帶來高階智能社會的迷思,。ChatGPT和Sora等便于交互、面向公眾的生成式人工智能出現(xiàn),,帶動新的內(nèi)容創(chuàng)作和消費方式流行,。在Sora發(fā)布的女性漫步東京街頭的視頻中,,人物在布滿霓虹燈牌和廣告牌的街頭走動,,五官和肢體動作都較為自然。盡管Sora生成視頻中還存在著細節(jié)處理不夠精細,、自然規(guī)律和文化理解錯位,、敘事邏輯斷裂等問題,它仍然承載著公眾對于高階智能社會的想象,。生成式人工智能的應用加劇新聞傳播從業(yè)者的職業(yè)技能恐慌,。生成式人工智能通過人機交互來產(chǎn)出內(nèi)容,因此需要國家,、群體或個體具備一定的數(shù)字資源調(diào)用能力,。生成式人工智能可以根據(jù)指令實現(xiàn)多模態(tài)文本轉(zhuǎn)換,進一步降低了生產(chǎn)門檻,但也考驗著使用者自身的綜合素質(zhì),。自主性的提升常被認為具有賦權意味,,例如提升個體傳播能力和彌合數(shù)字文明社會的能力溝,或是增強個體的知覺與連接能力等,。[13]然而,,技術擴散會受到社會資本不平等的制約?!凹夹g帶來的特權越來越多地只屬于那些負擔得起的人,,特別是當國家退出基礎設施和公共服務供給時?!盵14]當前,,生成式人工智能的賦能所需的前置條件涵蓋語言能力、創(chuàng)意能力,、信息獲取能力,、技術使用素養(yǎng)和可接入設備條件等多方面。三,、生成式人工智能應用于新聞傳播業(yè)的多元風險生成式人工智能的新形態(tài)嵌入新聞傳播業(yè),,不僅會改變新聞生產(chǎn)、分發(fā)和接收環(huán)節(jié),,也會推動相關制度和文化環(huán)境發(fā)生轉(zhuǎn)型,。技術創(chuàng)新、制度創(chuàng)新與知識創(chuàng)新的時差,,給新聞業(yè)帶來多元風險,,并經(jīng)由信息傳播擴散至其他社會領域。(一)數(shù)字信任危機:信息真實性和可靠性下降生成式人工智能參與信息生產(chǎn),,導致人類生成的版權內(nèi)容與AI生成內(nèi)容混雜,。生成式人工智能的模型訓練、內(nèi)容生產(chǎn)及生成物應用環(huán)節(jié),,都存在著侵犯版權的風險,,如未經(jīng)授權使用文本數(shù)據(jù)或者生成結(jié)果中模糊版權信息等。2024年2月,,Raw Story,、The Intercept、AlterNet等新聞機構指控OpenAI及微軟的生成式人工智能刪除了文章作者和標題等版權識別信息,。無版權識別信息的人類產(chǎn)出內(nèi)容與人工智能生成內(nèi)容一同出現(xiàn)在信息流當中,,客觀上會對用戶產(chǎn)生誤導,干擾用戶對生成式人工智能可信度的判斷,。生成式人工智能加劇了深度偽造內(nèi)容泛濫,。2024年初,,世界經(jīng)濟論壇發(fā)布的《2024年全球風險報告》提出,“未來兩年全球十大風險”的首位是“人工智能生成的錯誤信息和虛假信息”,。[15]以深度偽造的負面使用為代表,,生成式人工智能正在危害公民和國家安全。ChatGPT出現(xiàn)后不久,,就被發(fā)現(xiàn)用強大的文本處理能力來拼湊,、編造虛假信息,對用戶“一本正經(jīng)地胡說八道”,。相比之前的Pika,、Runway等視頻生成模型,Sora生成視頻時長較長,、分辨率較高且在多角度多景別的鏡頭變換中能夠保持一定的主體一致性,。脫離了生產(chǎn)主體等背景信息,許多人工智能生成內(nèi)容看起來與人類生產(chǎn)的內(nèi)容極為相似,,幾乎能夠以假亂真,。作為深度偽造最典型的應用,“AI換臉”和音頻深度偽造也被用于欺詐和侵權,。普通用戶利用公開數(shù)據(jù)和生成工具,,就可以輕易生成政治名人、娛樂明星甚至普通社交媒體用戶的有害內(nèi)容,,侵犯其名譽權和隱私權,。鑒別深度偽造內(nèi)容和控制其傳播的成本遠遠高于生成成本,被侵犯者常常難以自證,。此前,,有用戶故意使用Elevenlabs公司的軟件來制作傳播種族主義言論的明星發(fā)言視頻。深度偽造的負面使用不僅僅是用戶的個人行為,,平臺的內(nèi)容篩選,、信息分發(fā)等設計也會產(chǎn)生引導作用。相較于圖像/視頻深度偽造內(nèi)容,,音頻的制作成本和技術門檻更低,,且缺少視覺線索,增加了鑒別難度,。2024年1月,,新奧爾良街頭魔術師保羅·卡彭特(Paul Carpenter)只花了20分鐘和1美元,,偽造了美國總統(tǒng)拜登勸阻民主黨人投票的音頻,。深度偽造音頻常常通過電話而非在線播放的形式傳播,其內(nèi)容難以被暫停,、回放,、留存和截取片段分析,。生成式人工智能的應用,使“后真相”征候更加嚴重,。傳統(tǒng)新聞生產(chǎn)中,,新聞現(xiàn)場的人、物,、環(huán)境等諸多要素,,既是啟發(fā)記者進行個性化表達的靈感來源,也是新聞真實性的佐證,。記者的身體在場和專業(yè)素養(yǎng)使現(xiàn)場變?yōu)樾侣劕F(xiàn)場,,“將各類事情轉(zhuǎn)化為新聞事件”。[16]隨著互聯(lián)網(wǎng)成為信息傳播基礎設施,,新聞傳播主體范圍拓展至非專業(yè)新聞機構,、普通社會個體甚至是機器。UGC和AIGC生產(chǎn)模式普及開來,,使新聞生產(chǎn)規(guī)范受到?jīng)_擊,。監(jiān)控攝像頭和各類傳感器等媒介作為記者身體的延伸,開始代替記者進入現(xiàn)場,?!吧眢w離場”的方式提升了新聞生產(chǎn)的效率,但也制約了“現(xiàn)場感”的表達和實證功能的發(fā)揮,。[17]在融合傳播環(huán)境下,,新聞的傳播和接收遷移到社交媒體平臺,新聞生產(chǎn)流程和新聞文化發(fā)生轉(zhuǎn)變,?!傲髁繛橥酢钡睦骝?qū)動機制以及信息核查的高昂成本,致使部分媒體轉(zhuǎn)而用制造同意替代追求真實,。大量不以事實為基礎且信息,、情感和立場混雜的復合體層出不窮?!昂笳嫦唷闭骱蝾l繁出現(xiàn),,表現(xiàn)為“成見在前、事實在后,,情緒在前,、客觀在后,話語在前,、真相在后,,態(tài)度在前、認知在后”[18],。訓練數(shù)據(jù)庫中信息質(zhì)量良莠不齊,,會影響人工智能生成內(nèi)容的質(zhì)量,。在互動過程中,生成式人工智能所“臆造”的內(nèi)容根據(jù)用戶要求不斷被改寫完善,,變得更加難以辨別,。(二)平臺權力擴張:渠道壟斷、技術壟斷與投資集中化信息分發(fā)渠道集中在互聯(lián)網(wǎng)平臺,,使傳媒業(yè)產(chǎn)生路徑依賴,。與AIGC不同,傳統(tǒng)的新聞生產(chǎn)主要依托于記者對各類新聞現(xiàn)場的挖掘,,新聞價值的定義和傳播方式取決于掌握信息傳播主導權的專業(yè)新聞媒體,,而傳受互動主要采用受眾的訂閱、收聽/視行為或讀者來信等方式,。當互聯(lián)網(wǎng)平臺崛起為信息分發(fā)的主要渠道,,平臺既是信息的中介和代理,也改變了傳受互動關系,。傳媒機構改用不同平臺的賬號或賬號矩陣作為內(nèi)容輸出終端,,根據(jù)平臺的內(nèi)容規(guī)范和推薦機制調(diào)整內(nèi)容,以獲得更高可見性,。傳媒機構對受眾的了解也越來越依賴于平臺的數(shù)據(jù)反饋,,盡管這與真實的用戶需求還存在一定差異。為采納生成式人工智能,,傳媒機構對科技公司產(chǎn)生技術依賴,。目前,我國除少數(shù)中央級媒體外,,大部分地方媒體的相關業(yè)務都依賴騰訊,、字節(jié)跳動等少數(shù)平臺巨頭的技術支持。傳媒機構的技術依賴,,導致平臺公司對新聞生產(chǎn)的控制權從分發(fā)渠道側(cè)拓展至內(nèi)容生產(chǎn)側(cè),。[19]許多地方傳媒機構雖然采納態(tài)度較為積極,但具體措施更像是完成一種“AI熱”下的“必選項”:采納生成式人工智能的主要貢獻在于獲取新聞效應,,缺少連續(xù)的,、實質(zhì)性的內(nèi)容產(chǎn)出能力以及與之配套的制度和文化環(huán)境。生成式人工智能的發(fā)展具有一種潛在的壟斷屬性,,強化平臺對媒體市場的影響力,。資金、高水平人才和關鍵技術缺失以及對意識形態(tài)風險的擔憂,,制約著傳媒業(yè)的智能化發(fā)展,。在平臺媒體化與媒體平臺化的雙向進程中,傳統(tǒng)媒體機構承載了更多的市場競爭壓力,,不得不與科技公司開展合作,。少數(shù)科技巨頭掌握著生成式人工智能的研發(fā)主導權,。傳媒機構擔憂媒體投資會因此受到影響,,從而導致媒體多樣性削弱,,影響行業(yè)生態(tài)平衡。(三)現(xiàn)實映射能力弱化:內(nèi)容同質(zhì)化和公共議題失焦生成式人工智能的信息生產(chǎn)是基于既有語料庫進行人機互動,,本質(zhì)上是根據(jù)用戶提出的需求,,對已有信息進行聚合、分析以及多元化呈現(xiàn),,無法為公眾提供知識增量,。從生成邏輯上,生成式人工智能遵循基于相關性的概率學分析和匹配,,本質(zhì)上是數(shù)據(jù)邏輯,,不同于人類基于人生經(jīng)驗和特殊情境觸發(fā)的情感表達。技術不可生成的部分,,也即物的能動性界限,,證實了人的主體性價值以及多元主體協(xié)同的重要性。逐利的商業(yè)邏輯會引導生產(chǎn)邏輯,,進而損害創(chuàng)意實踐空間,。新技術展現(xiàn)出的可供性常常引發(fā)美好浪漫的想象,但社會資本不平等的現(xiàn)實和資本逐利的特性,,可能導致技術使用“應然”與“實然”的偏差,。在生成式人工智能之前,算法推薦也曾被認為能夠鼓勵個性化,、創(chuàng)意化的視聽生產(chǎn),,使小眾內(nèi)容走向大眾。相反,,平臺的流量投放成為創(chuàng)作者的指揮棒,,推動他們使用相似的視頻元素和敘事方式生產(chǎn)大量同質(zhì)化的“工業(yè)品”。平臺型文化生產(chǎn)的結(jié)果是出現(xiàn)了一個“不太可能有創(chuàng)意的階層”(Unlikely Creative Class),,[20]他們具備一定影響力,,卻不斷生產(chǎn)平庸的內(nèi)容占據(jù)注意力空間。生成式人工智能改變公共輿論的形成環(huán)境,,可能導致公共議題的失焦,。智能算法提供個性化推薦,而生成式人工智能則走向定制化信息服務,。這將進一步強化個體層面的微觀重要性,,使公共利益層面的總體重要性不再占據(jù)主流。[21]市場導向下,,新聞接收方式和新聞內(nèi)容趨向大眾化和商業(yè)化,,曾占據(jù)主流的“公眾啟蒙”實踐走向衰弱,,社會生活的其他領域成為媒介信息產(chǎn)品的原料。[22]新聞內(nèi)容與社會議題間的連接變得松散,,對國家政策制定和社會行動的影響具有不確定性,,地區(qū)、國家,、群體與個人的聯(lián)結(jié)處于松散耦合狀態(tài),。[23]如果無法有效設置公眾輿論場的議程,形成“共同焦點”,,連接個體與集體,、國家與公民等社會關系,大眾傳媒就面臨著功能失靈的窘境,。(四)治理的悖論:AI治理的風險再生產(chǎn)“AI治理AI”揭示出深度媒介化時代風險生產(chǎn)的遞歸性,。平臺媒體上虛假信息泛濫,,諸多媒體、監(jiān)管機構和科技公司加快探索智能核查工具的使用。事實核查主要包含三種類型:信息發(fā)布前后對事實信息的核查糾偏,,對觀點信息的核查糾偏,,識別信息來源賬號主體,。訓練事實核查AI需要信息來源更可靠的數(shù)據(jù)庫,。一旦數(shù)據(jù)庫中混入錯誤信息或負面價值觀的信息,事實核查不但無法實現(xiàn)治理,,還會帶來更大的真?zhèn)巫R別難題,。許多觀點類信息的理解往往需要結(jié)合具體語境,在觀點與情境脫嵌的情況下,,事實核查AI容易存在理解偏差,。在被要求辨別網(wǎng)絡仇恨和極端主義言論時,事實核查AI無法理解情緒的多義性,、情緒產(chǎn)生的復雜場景和情緒傳播中豐富的象征形式,。[24]受原始數(shù)據(jù)庫和程序設計影響,事實核查AI的誕生和應用帶有原始立場和價值標準,,可能導致觀點霸權的形成,。識別賬號主體能夠助力防范機器人水軍操縱輿論。事實核查AI主要通過賬號的使用行為辨別人類用戶和機器賬號,,但也容易因無法理解人類使用行為的復雜性導致識別錯誤,。事實核查AI用于治理,可能導致信息,、倫理,、社會等多維度的風險以相似的機制被再生產(chǎn)。生成式人工智能的治理過程不僅會導致原有風險的循環(huán),也會引發(fā)新風險,。從長期來看,,提升公民媒介素養(yǎng)是必要的應對舉措,但在短期內(nèi)容易制造出一種“說謊者的紅利”(liar’s dividend)[25]——輿論操縱者利用公眾對虛假信息的警惕和防范心理,,將與自己立場不同的內(nèi)容稱為“虛假新聞”和“深度偽造內(nèi)容”,,用簡明的斷言替代復雜的舉證過程,從而在公眾輿論中制造懷疑,,排擠其他觀點,。無論原始信息究竟是否真實,,損害社會信任都變得越來越容易,。這不僅會誘發(fā)用戶的新聞回避,也會導致話語權再度集中于少數(shù)意見領袖之處,,形成話語權壟斷,。(五)算法矯正的窘境:偏見循環(huán)與話語風險從算法推薦到生成式人工智能應用,信息的偏見循環(huán)仍然存在,。智能模型和算法對人類偏見和立場的復制和循環(huán),,主要來源于原始數(shù)據(jù)庫、程序設計和人機互動,。[26]生成式人工智能的訓練使用大量包含立場偏見的網(wǎng)絡信息數(shù)據(jù),,其內(nèi)容拓展和總結(jié)功能常常融真假信息為一體,甚至放大原始數(shù)據(jù)中的邏輯錯誤和價值觀偏見,。此前,,智能模型和算法生成歧視言論的相關案例時有出現(xiàn),使相關科技公司遭受輿論壓力,。由于清洗數(shù)據(jù)庫成本極高,、用戶使用行為難以控制,科技公司主要通過優(yōu)化程序設計來控制價值觀風險,。生成式人工智能的價值觀“矯正”,,又陷入刻板化和模糊化的窘境。生成式人工智能的偏見循環(huán)和“政治正確”,,本質(zhì)上都是源于數(shù)據(jù)在情境脫嵌,、轉(zhuǎn)換和再嵌入時發(fā)生了偏差。生成式人工智能目前無法做到根據(jù)不同情境作出價值排序,,再給予適當反饋,,在面對歷史事實與現(xiàn)代觀念的沖突、不同社會文化的異質(zhì)性等復雜問題時顯得十分刻板和生硬,。原本具備特殊性和情境性的數(shù)據(jù)被公理化,,制造出數(shù)字的“普世景觀”,掩飾社會中業(yè)已存在的不平等現(xiàn)象。[27]谷歌的智能生成工具Gemini因過于尊崇美式“政治正確”,,忽略客觀事實以及用戶的創(chuàng)作需求和文化背景,,引發(fā)用戶不滿。有用戶指出,,對指定人物膚色或種族的要求,,Gemini有時會拒絕響應,或者隨機生成不同膚色的人物圖像,。與之類似,,ChatGPT也在戰(zhàn)爭、種族,、宗教,、性別等議題上表現(xiàn)得立場混亂或回避。生成式人工智能存在著被武器化的風險,,[28]可能被用作國際政治博弈的工具,。少數(shù)平臺巨頭在發(fā)達國家的背后支持下,憑借數(shù)據(jù)掠奪能力,、算力壁壘和豐富的模型訓練經(jīng)驗,,搶占AI領域發(fā)展制高點并借此發(fā)揮輿情制造和引導能力。數(shù)字資本主義及數(shù)字帝國主義操縱輿論的企圖,,常常隱匿在貌似開放,、“無國界”的生成式人工智能背后。內(nèi)容的智能生成和傳播伴隨著意識形態(tài)的輸出和輿論話語權的爭奪,,影響話語生態(tài),。四、新聞傳播業(yè)的GAI風險治理嵌入新聞傳播業(yè)的生成式人工智能,,體現(xiàn)出“媒介發(fā)展中持續(xù)不斷的,、顯而易見的‘新異性’(newness)”[29],也引發(fā)了“自動化規(guī)范”與社會秩序中人類傳統(tǒng)規(guī)范的沖突,。傳媒機構對人工智能角色認知和采納態(tài)度的曖昧性,,導致風險認知和應對存在差異。人工智能技術的迭代與應用,,使信息環(huán)境和人機關系發(fā)生變化,。不同國家和地區(qū)相繼發(fā)布針對性的規(guī)制措施,以控制AI使用風險,。(一)版權侵犯與深度偽造成為GAI治理的重點內(nèi)容GAI的核心功能是生成,,其治理首先圍繞內(nèi)容生產(chǎn)主體以及內(nèi)容真實性展開。1.傳媒機構對版權保護的態(tài)度差異,。訓練和應用生成式人工智能的過程信息吞吐量巨大,,涉及大量版權信息。絕大部分傳媒機構都在技術采納與版權保護之間尋求平衡,但具體措施中也體現(xiàn)出明顯的優(yōu)先級差異,。作為最早使用人工智能賦能新聞生產(chǎn),、分發(fā)與核查的傳媒機構之一,美聯(lián)社的態(tài)度相對包容,。美聯(lián)社積極與科技公司展開合作,、設立人工智能和新聞自動化部,同時也進一步規(guī)范新聞生產(chǎn)領域的AI使用,。2023年7月,,美聯(lián)社與OpenAI公司簽署合作協(xié)議,同意OpenAI使用美聯(lián)社的部分文本資料來訓練生成式AI模型,,而美聯(lián)社將獲得OpenAI的技術和產(chǎn)品知識支持,。2023年8月,美聯(lián)社發(fā)布給記者和編輯的“生成式人工智能使用指南”,,規(guī)定智能生成內(nèi)容在發(fā)布前必須通過人工審查,,不能使用智能工具更改照片,、視頻或音頻素材的任何元素,,也應避免傳播虛構現(xiàn)實的圖像。[30]相較而言,,紐約時報高度重視版權保護,,對智能工具的使用作出嚴格限制。2023年8月,,紐約時報更新服務條款,,明確禁止將紐約時報的內(nèi)容(包括文本、照片,、圖像,、音頻/視頻剪輯、“外觀和感覺”,、元數(shù)據(jù)或編譯內(nèi)容等)用于開發(fā)“任何軟件程序,,包括但不限于訓練機器學習或人工智能系統(tǒng)”。未經(jīng)書面許可,,禁止使用爬蟲類自動化工具訪問,、收集紐約時報平臺發(fā)布的內(nèi)容。[31]2023年12月,,紐約時報起訴OpenAI及其投資者微軟公司侵犯版權,,[32]雙方就信息獲取的合法性、證據(jù)真實性等問題相互指控,。傳媒行業(yè)積極通過法律訴訟等方式捍衛(wèi)自身合法權利,,同時也希望向外釋放預警信號,提醒公眾關注生成式人工智能的威脅。2023年8月,,蓋蒂圖片社,、法新社、歐洲新聞圖片社等組織機構聯(lián)合簽署公開信,,要求人工智能模型數(shù)據(jù)透明化并尊重原作版權,,呼吁制定AI的使用標準。[33]公開信指出,,訓練生成式人工智能和語言模型使用了海量的原創(chuàng)數(shù)據(jù),,其中包括大量新聞文字和圖像文本,卻并未給原作者相應的價值回饋,。傳媒機構與科技公司的博弈,,反映出當前算法優(yōu)化和版權保護之間的矛盾。一方面,,新聞產(chǎn)品可以作為優(yōu)化算法的高質(zhì)量數(shù)據(jù),,提升AIGC的準確度和合規(guī)性;但另一方面,,在版權未得到有效保護的情況下,,算法的優(yōu)化會威脅到原創(chuàng)作者的利益,導致版權方缺少支持模型訓練的積極性,。2.深度偽造的治理包括源頭防范,、過程控制與末端治理。技術的健康發(fā)展往往需要調(diào)用倫理,、法律等其他維度的資源,。不同國家和地區(qū)相繼推出了倫理法律規(guī)制舉措。歐盟側(cè)重從源頭防范深度偽造的負面使用,,集中于數(shù)據(jù)管控和主體權利保護等方面,。2018年,歐盟通過《通用數(shù)據(jù)保護條例》(GDPR),,保護數(shù)據(jù)主體的知情權,、刪除權、反對權和自動化個人決策等相關權利,,提出公平,、合法、透明,、目的限制性,、存儲限制等數(shù)據(jù)保護原則。2022年6月正式生效的歐盟《數(shù)據(jù)治理法案》(DGA)則鼓勵為了公共利益的數(shù)據(jù)共享和使用,,標志著歐盟對數(shù)據(jù)使用的整體態(tài)度從主張嚴格限制轉(zhuǎn)向倡導“合理使用”,。2024年3月13日,,歐洲議會通過《人工智能法案》(Artificial Intelligence Act),提倡促進以人為本,、值得信賴的AI發(fā)展,,保護公民基本權利、民主,、法治和生態(tài)環(huán)境,。我國對數(shù)據(jù)和智能技術應用的規(guī)制具有彈性,側(cè)重流程管控和分類監(jiān)管,,在促進技術創(chuàng)新發(fā)展和維持社會環(huán)境有序之間尋求平衡和共贏,。在我國,網(wǎng)絡安全法,、數(shù)據(jù)安全法和個人信息保護法三部基礎性法律構成了數(shù)據(jù)使用和智能工具應用的基本規(guī)制框架,。2020年更新的《中國禁止出口限制出口技術目錄》中,“基于數(shù)據(jù)分析的個性化信息推送服務技術”被列為禁止出口的技術,,例如字節(jié)跳動公司研發(fā)的TikTok核心算法等,。2022年發(fā)布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》中,明確了深度合成服務技術支持者,、提供者和使用者三類主體,,構建以服務提供者為核心、連接技術支持者與使用者的監(jiān)管模式,,強化平臺中介在深度合成內(nèi)容傳播和使用過程中的責任和義務,。2023年7月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務管理暫行辦法》提出,,堅持包容審慎和分類分級監(jiān)管:對于合理創(chuàng)新的應用,鼓勵行業(yè)協(xié)作和場景優(yōu)化,;對“具有輿論屬性或者社會動員能力”的生成式人工智能,,要求按規(guī)定進行安全評估。相關條例辦法以及網(wǎng)絡治理行動作為對基礎性法律的靈活補充,,可以更加及時地應對技術的快速迭代和應用風險,。美國是最早提出對深度偽造技術進行立法規(guī)制的國家,從聯(lián)邦到各州政府層面都確立了相關法案,,側(cè)重對深度偽造的負面使用結(jié)果進行治理,,涵蓋干擾選舉、傳播色情等多個方面,。2019年6月,,美國眾議院的《深度偽造責任法案》要求,任何創(chuàng)建深度偽造視頻媒體文件的人必須添加“不可刪除的數(shù)字水印以及文本描述”予以說明,,否則將屬于犯罪行為,。隨后,,美國得克薩斯州通過了《關于制作欺騙性視頻意圖影響選舉結(jié)果的刑事犯罪法案》,弗吉尼亞州也頒布了一項反色情復仇修正法案,,把發(fā)布和傳播深度偽造視頻視為實施色情報復的一種方式,。2024年3月底,美國田納西州通過《確保肖像,、聲音和圖像安全法案》,,“保護個人的聲音和形象不在未經(jīng)授權的情況下被人工智能所使用”,把權利主體范圍拓展到了未成年人和已故個人,,并特別提及了對音頻作品的保護,。(二)人本主義成為GAI治理的基本倫理導向“現(xiàn)代社會的控制形式在新的意義上是技術的形式?!盵34]媒介影響社會各類制度以及制度之間的互動,,不僅是通過一系列媒介技術裝置的嵌入,也體現(xiàn)在圍繞媒介技術形成的特定認知視角發(fā)揮著建構作用,。生成式人工智能帶來的機遇與挑戰(zhàn),,為反思高度現(xiàn)代性時期的治理倫理提供了一個契機。2017年,,美國舉辦的“Beneficial AI”會議上,,由844名人工智能和機器人領域的專家聯(lián)合簽署的23條AI發(fā)展原則,被稱為“阿西洛馬人工智能原則”,。其內(nèi)容包括堅持人類價值觀,、確保人類控制權等,并強調(diào)人工智能研究的目標是創(chuàng)造有益于人類而不是不受人類控制的智能,?!鞍⑽髀羼R人工智能原則”成為全球領域AI發(fā)展的指導性原則。然而,,人工智能的發(fā)展和應用始終伴隨著倫理爭議,。由于發(fā)展歷史、現(xiàn)實情況和執(zhí)政觀念各不相同,,不同國家和地區(qū)對于智能社會的愿景存在差異,,其核心問題是:AI發(fā)展的受益者是誰?美國的人工智能研發(fā)計劃重視本國的國家利益以及全球領導力,,對以中國為代表的AI發(fā)展大國多采用競爭修辭,。歐盟堅持追求理性與道德的傳統(tǒng),以維護“公共利益”作為AI發(fā)展的基本原則,,從制度設計上將數(shù)據(jù)利他主義作為新的數(shù)據(jù)使用理念,。中國近年來從國家戰(zhàn)略層面鼓勵智能技術創(chuàng)新和數(shù)字化基礎設施建設,同時始終強調(diào)堅持以人為本,,致力于構建共建共享的和諧社會,。(三)“AI治理AI”成為GAI治理的技術發(fā)展方向生成式人工智能將機器的主體性提升到了前所未有的程度,。即便是在風險治理場景下,社會行動者的應對思路仍然是訴諸媒介,,進一步引入媒介技術來解決問題,。“AI治理AI”存在著技術邏輯和治理邏輯的融合和博弈,,其中的悖論隱藏著一個啟示:應對生成式人工智能的相關風險,,需要多元行動者的協(xié)同參與,尤其需要建立整體性,、系統(tǒng)性和結(jié)構性的韌性治理思維,。傳播學研究者需突破圍繞“恐懼”的研究范式,[35]客觀認識技術和社會互動中的人機關系及其變化,,探索健康高效的人機交流和協(xié)作方式,,以應對內(nèi)外部風險。五,、結(jié)語以生成式人工智能為代表的智能技術,,提供了更多元的信息生產(chǎn)、呈現(xiàn)和場景體驗模式,。垂直領域的寫作機器人能夠自動進行數(shù)據(jù)抓取,、分析并生成稿件,從而快速響應突發(fā)事件,、精準分析財務報表,、低成本地報道體育賽事。圖像生成模型可以突破時空限制,,根據(jù)已知信息模擬事件發(fā)生經(jīng)過和“還原”新聞現(xiàn)場,,用具象化的方式解釋新聞事件。參與式文化下,,“我在現(xiàn)場”“重返現(xiàn)場”不僅是記者的職業(yè)需要,,也是普通用戶通過適度曝光、提升可見性,,滿足自身存在感需要的一種途徑。生成式人工智能的“創(chuàng)造”屬性將進一步提升用戶的自由度,,提供“第一視角”的場景體驗,,也便于用戶生產(chǎn)出更個性化的解讀內(nèi)容。生成式人工智能在信息呈現(xiàn)上的聚合化,、影像化特點,,會加劇輿論環(huán)境失序。同時,,“AI治理AI”的模式卻暫時難以跳出虛假信息和偏見循環(huán)的怪圈,。生成式人工智能的虛假信息和價值偏見源于原始數(shù)據(jù)庫,、技術設計和人機交互,從根本上是對現(xiàn)實世界的映射,。生成式人工智能還被用在政治經(jīng)濟博弈中,,甚至被用于發(fā)表仇恨言論、煽動情緒,。就現(xiàn)實狀況而言,,“AI治理AI”的模式在當前承載了過高期待。現(xiàn)有的AI治理工具無法精準辨別復雜情感及其文化語境,,也難以分辨情感表達的不同信息載體,。[36]生成式人工智能會進一步模糊人類生成內(nèi)容和機器生成內(nèi)容的界限,讓輿論環(huán)境面臨更大的風險,。在與技術的相互規(guī)訓和共生中,,人類需要共同承擔維護公共利益和價值觀的責任。生成式人工智能具備“成為道德上被接受的新聞內(nèi)容生產(chǎn)主體”的潛力,,[37]但它只是有限道德代理者,,無法替人類做出道德決策和承擔責任。[38]生成式人工智能的技術迭代和監(jiān)管具有明顯的區(qū)域特色和文化差異,,但其作為一種新興媒介所引發(fā)的風險具有相似性,。在此過程中,人本主義仍然是應對風險的基本價值取向,,發(fā)展對社會負責的AI是人類社會的共同目標,,建立一個情境兼容的全球性信息治理框架是大勢所趨?!颈疚臑閲疑缈苹鹬卮箜椖俊疤嵘鎸χ卮笸话l(fā)風險事件的媒介化治理能力研究”(批準號:21&ZD317)階段性成果】參考文獻:[1]吉登斯,,皮爾森.現(xiàn)代性:吉登斯訪談錄[M].尹宏毅,譯.北京:新華出版社,,2001:79-80.[2]霍德.糾纏小史:人與物的演化[M].陳國鵬,,譯.北京:新經(jīng)典文化出版社,2022:68.[3]伊德.技術與生活世界:從伊甸園到塵世[M].韓連慶,,譯.北京:北京大學出版社,,2012:72-117.[4]吉頓.與類人智能交互:從分歧到融合[J].全球傳媒學刊,2024(01):1-2.[5]中國信息通信研究院,,京東探索研究院.人工智能生成內(nèi)容(AIGC)白皮書[R/OL].(2022-09-25)[2024-04-20].http://www.caict.ac.cn/kxyj/qwfb/bps/202209/P020220902534520798735.pdf.[6]國家互聯(lián)網(wǎng)信息辦公室.生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-10)[2024-04-20].https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.[7]陸小華.智能內(nèi)容生成的實質(zhì),、影響力邏輯與運行范式:ChatGPT等智能內(nèi)容生成現(xiàn)象透視與解析[J].新聞大學,2023(04):19.[8]喻國明,,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài):從ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),,2023,44(05):81-90.[9]NEWMAN N. Journalism, media, and technology trends and predictions 2024[R/OL]. Reuters Institute for the Study of Journalism, [2024-02-21]. https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2024.[10]World Health organization.2019 Novel Coronavirus(2019-n Co V):Strategic Preparedness and Response Plan [R/0L].[2024-04-17].https://www.who.int/docs/defaultsource/coronaviruse/srp-04022020.pdf.[11]NEWMAN N. Journalism, media, and technology trends and predictions 2024[R/OL]. Reuters Institute for the Study of Journalism, (2024-01-09)[2024-04-21]. https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2024.[12]周葆華,陸盈盈.生成式人工智能影響下的新聞生產(chǎn)創(chuàng)新:實踐與挑戰(zhàn)[J].青年記者,,2024(03):10.[13]胡正榮,,李涵舒.“數(shù)字在場”:社交媒體時代視覺圖像的傳播范式重構[J].傳媒觀察,,2024(02):64-71.[14]Pitt, J. (2023). Toxic technology. IEEE Technology and Society Magazine,42(1),9.[15]楊逸夫.應對人工智能技術濫用,合作才是未來[N/OL].光明日報,,(2024-03-17)[2024-04-19].https://epaper.gmw.cn/gmrb/html/2024-03/17/nw.D110000gmrb_20240317_1-08.htm.[16]塔克曼.做新聞:現(xiàn)實的社會建構[M].李紅濤,,譯.北京:中國人民大學出版社,2022:18.[17]胡洪江.從“身體在場”到“多元在場”:移動互聯(lián)時代記者與新聞現(xiàn)場的關系重構[J].青年記者,,2022(15):53-55.[18]張華.“后真相”時代的中國新聞業(yè)[J].新聞大學,,2017(03):30.[19]方師師,賈梓晗.AI如何做新聞:基于全球106個案例的分析(2017-2022)[J].青年記者,,2023(01):56-59.[20]Lin, J., & de Kloet, J. (2019). Platformization of the unlikely creative class: Kuaishou and Chinese digital cultural production. Social Media+ Society,5(4),1-12.[21]鄭滿寧.人工智能技術下的新聞業(yè):嬗變,、轉(zhuǎn)向與應對:基于ChatGPT帶來的新思考[J].中國編輯,2023(04):39.[22]夏瓦.文化與社會的媒介化[M].劉君,,李鑫,,漆俊邑,譯.上海:復旦大學出版社,,2018:28.[23]夏瓦.文化與社會的媒介化[M].劉君,,李鑫,漆俊邑,,譯.上海:復旦大學出版社,,2018:37-38.[24]卞清,陳迪.互聯(lián)網(wǎng),、智能算法與賽博仇恨:人類的情感干預如何可能?[J].媒介批評,,2021(02):1-22.[25]Chesney, B., & Citron, D. Deep fakes: A looming challenge for privacy, democracy, and national security[J]. Calif. L. Rev., 2019,107, 1785-1786.[26]郭小平,秦藝軒.解構智能傳播的數(shù)據(jù)神話:算法偏見的成因與風險治理路徑[J].現(xiàn)代傳播,,2019(09):21-22.[27]吳靜.營造景觀還是呈現(xiàn)“真實”[N].社會科學報,,2024-03-21(006).[28]Chesney, B., & Citron, D. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. Calif. L. Rev., 107,1773.[29]庫爾德利,赫普.現(xiàn)實的中介化建構[M].劉泱育,,譯.上海:復旦大學出版社,,2023:7-12.[30]THE ASSOCIATED PRESS. Standards around generative AI [EB/OL].(2023-08-16)[2024-04-20].https://blog.ap.org/standards-around-generative-ai.[31]澎湃新聞.《紐約時報》更新服務條款 禁止將新聞報道用于AI開發(fā)[EB/OL].(2023-08-16)[2024-04-20].https://m.thepaper.cn/kuaibao_detail.jsp?contid=24251759.[32]央視新聞.《紐約時報》起訴微軟和OpenAI侵權[EB/OL].(2023-12-28)[2024-04-20].https://content-static.cctvnews.cctv.com/snow-book/index.html?item_id=2161282052940446687&toc_style_id=feeds_default.[33]澎湃新聞.歐美新聞圖片機構發(fā)布聯(lián)合公開信 要求提高AI版權保護[EB/OL].(2023-08-16)[2024-04-20].https://www.thepaper.cn/newsDetail_forward_24223981.[34]赫伯特.單向度的人:發(fā)達工業(yè)社會意識形態(tài)研究[M].劉繼,譯.上海:上海譯文出版社,,2014:9.[35]吉頓.與類人智能交互:從分歧到融合[J].全球傳媒學刊,,2024(01):1-2.[36]卞清,陳迪.互聯(lián)網(wǎng),、智能算法與賽博仇恨:人類的情感干預如何可能?[J].媒介批評,,2021(02):1-22.[37]劉海明,張銘麟.想象AIGC:生成式人工智能浪潮下融媒體內(nèi)容生產(chǎn)的思維特征與操作關鍵[J].中國記者,,2024(02):6.[38]簡小烜.人工智能體作為有限道德代理者的道德責任[J].倫理學研究,2022(06):124-132.本文引用格式參考:郭小平,,郭瑞陽.新聞傳播業(yè)的生成式人工智能應用及其風險應對[J].青年記者,,2024(06):5-13.
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1107049.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。