A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

生成式人工智能的風險與治理——以ChatGPT為例

作者:馬羽男以ChatGPT為代表的生成式人工智能在創(chuàng)造社會福利的同時,,也帶來了諸多風險。因此,,當務(wù)之急是結(jié)合我國生成式人工智能發(fā)展狀況,厘清其應(yīng)用價值與潛在風險之間的關(guān)系,以便在不影響應(yīng)用發(fā)展的前提下有效化解風險,。生成式人工智能的運行機理主要分為三個階段,也就是機器學(xué)習(xí)和人工標記的準備階段,、運用算法對數(shù)據(jù)進行處理以求出處理后結(jié)果的運算階段,、數(shù)據(jù)運算產(chǎn)出成品向社會輸出并產(chǎn)生影響的生成階段。當前,,生成式人工智能最突出的風險就是在準備階段的數(shù)據(jù)合規(guī)風險,、運算階段的算法偏見風險以及生成階段的知識產(chǎn)權(quán)風險。準備階段的數(shù)據(jù)合規(guī)風險,。我國當前的數(shù)據(jù)合規(guī)體系是建立在《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》之上的,要求數(shù)據(jù)處理者在處理過程中采取必要措施以保障基本的數(shù)據(jù)安全、網(wǎng)絡(luò)安全和個人信息安全,?;谖覈姆煽蚣埽墒饺斯ぶ悄艿臄?shù)據(jù)合規(guī)風險主要體現(xiàn)在三個方面:數(shù)據(jù)來源合規(guī)風險,、數(shù)據(jù)使用合規(guī)風險,、數(shù)據(jù)的準確性風險。首先是數(shù)據(jù)來源合規(guī)風險。以 ChatGPT為代表的生成式人工智能,初始階段往往要采集大量數(shù)據(jù)以供其訓(xùn)練,。基于此,,可能會面臨如下問題:一是收集個人信息用戶是否同意;二是收集使用已公開的信息是否在“合理范圍”;三是收集的樣本受到版權(quán)保護,進行訓(xùn)練時可否被認定為“合理使用”,。其次是數(shù)據(jù)使用合規(guī)風險,。一方面是數(shù)據(jù)泄露風險,。用戶會將個人信息、商業(yè)信息甚至商業(yè)機密等傳輸給ChatGPT,。分析ChatGPT運行機理不難發(fā)現(xiàn),,在迭代訓(xùn)練中,它也會使用用戶輸入的信息和交互信息,。因此,,如何保證這些數(shù)據(jù)的安全是一個很大的難題。另一方面是用戶行使個人信息刪除權(quán)比較困難,。雖然 OpenAI的隱私協(xié)議中規(guī)定了用戶對其個人信息享有相關(guān)的權(quán)利,,但是鑒于要求生成式人工智能系統(tǒng)刪除數(shù)據(jù)的復(fù)雜特性,,開發(fā)者能否實現(xiàn)對個人信息的真實刪除,從而達到符合法規(guī)的要求還存在較大的不確定性,。最后是數(shù)據(jù)的準確性風險,。因為在 ChatGPT訓(xùn)練的早期,被投入到數(shù)據(jù)中的內(nèi)容是由開發(fā)人員從網(wǎng)絡(luò)中獲得和選擇的,,因此就有可能出現(xiàn)因為數(shù)據(jù)的缺失或錯誤等情況而致使所生成內(nèi)容的不準確,。運行階段的算法偏見風險。以“人工標注”為輔助的“機器學(xué)習(xí)”,,通過二者的結(jié)合,,提高了生成式人工智能的智能化與精確性。但是,,這也使得算法偏見的概率急劇增加,。這種結(jié)合方法比傳統(tǒng)的機器學(xué)習(xí)方法更能體現(xiàn)人的主觀判斷和偏好,這是由于人們將自己的偏好信息加入到機器學(xué)習(xí)的模型中,,從而增加了人們的偏見,,并且這種偏見很難被追蹤和防范。在對 ChatGPT的運作方式進行分析后發(fā)現(xiàn),,算法偏見主要表現(xiàn)為兩方面:其一,,由于接收到的數(shù)據(jù)需要人工標注,因此在理解過程中存在著一定的誤差,。其二,,對數(shù)據(jù)進行加工,當 ChatGPT對數(shù)據(jù)進行加工得出結(jié)論后,,由于原始結(jié)果與大眾期望不一致,,需要對之進行修正,但這一過程同樣會產(chǎn)生一定程度的算法偏見,。生成階段的知識產(chǎn)權(quán)風險,。生成式人工智能的興起,對眾多產(chǎn)業(yè)提出了新的挑戰(zhàn),,而最具沖擊之處,在于在生成階段對知識產(chǎn)權(quán)領(lǐng)域所構(gòu)成的挑戰(zhàn),。因為生成式人工智能具有高度的智能化,,所以在運算過程中,與之前的人工智能系統(tǒng)相比,,其知識產(chǎn)權(quán)的歸屬發(fā)生了顛覆性的變化,。ChatGPT是一種生成式人工智能,它在處理和分析數(shù)據(jù)方面遠遠強于分析式人工智能,,其內(nèi)容生成過程主要包括內(nèi)容自動化編纂,、智能化修整加工,、多模態(tài)轉(zhuǎn)換、創(chuàng)意生成等,,直接影響著出版的內(nèi)容生產(chǎn)模式和內(nèi)容供應(yīng)模式,。盡管ChatGPT的創(chuàng)造者中包含一些自然人的創(chuàng)作因素,從某種意義上來說,,更符合作品的構(gòu)成要件,,但這種由生成式人工智能所創(chuàng)造的作品能否被賦權(quán),仍然存在爭論,,并且具體的賦權(quán)認定標準研究還處于空白狀態(tài),。因此,知識產(chǎn)權(quán)風險成為生成式人工智能無法規(guī)避的第三大風險,。針對上述生成式人工智能三個方面的風險,,建議采取以下三種應(yīng)對策略來化解風險。強化生成式人工智能企業(yè)的數(shù)據(jù)合規(guī)建設(shè),。生成式人工智能的發(fā)展不能只重能力和效率而忽視安全,,相關(guān)企業(yè)應(yīng)當利用良好的數(shù)據(jù)合規(guī)體系來保障數(shù)據(jù)安全。企業(yè)數(shù)據(jù)合規(guī)建設(shè)可以通過三個措施強化,。其一,,確立數(shù)據(jù)合規(guī)原則。其原則主要有四點,,分別是合法合規(guī)原則,、告知同意原則、正當目的原則,、最小必要原則,。其二,建立數(shù)據(jù)合規(guī)的多元技術(shù)機制,。首先是宏觀層面的行業(yè)標準要統(tǒng)一,。各行業(yè)的主管部門,應(yīng)該帶頭建立一個數(shù)據(jù)版本的“新華辭典”,,讓數(shù)據(jù)編碼,、制式等保持一致,,確保數(shù)據(jù)的來源,、內(nèi)容和處理邏輯能夠被“反事實驗證”。其次是中觀層面的內(nèi)外審查體系,。在內(nèi)部設(shè)立數(shù)據(jù)合規(guī)專門機構(gòu),,負責企業(yè)日常的數(shù)據(jù)合規(guī)處理,,在外部引入第三方審查機制,對企業(yè)數(shù)據(jù)合規(guī)進行審計和倫理審查,。最后是微觀層面的倫理規(guī)范,。將倫理規(guī)范與原則以法律形式嵌入到技術(shù)應(yīng)用的行為邏輯中去,,使之能夠因勢而為。其三,,完善數(shù)據(jù)合規(guī)相關(guān)法律,。首先是完善立法,在立法層面加快出臺數(shù)據(jù),、人工智能方面的基本法,,以作為企業(yè)數(shù)據(jù)合規(guī)法律方面的頂層指導(dǎo)。其次是執(zhí)法完善,,盡快明確各部門的執(zhí)法權(quán)限,,避免“多頭治理”產(chǎn)生“九龍治水”的局面。最后是完善司法,,完善電子證據(jù)制度,,保障權(quán)利人的相關(guān)訴權(quán)。技管結(jié)合矯正生成式人工智能的算法偏見,。這主要包含兩個措施,。其一,針對生成式人工智能機器學(xué)習(xí)過程中所出現(xiàn)的先天性算法偏見,,應(yīng)當調(diào)整相關(guān)算法模型的學(xué)習(xí)路徑,,遵守相關(guān)規(guī)范和技術(shù)標準,在生成式人工智能投入市場前應(yīng)當進行實質(zhì)審查,。鑒于生成式人工智能的特征,,可將其糾偏工作分為兩個方面:一方面,采用算法程序編譯預(yù)防機器學(xué)習(xí)中可能存在的先天偏見,;另一方面,,設(shè)置人工標注的標準,提高從業(yè)人員的執(zhí)業(yè)水平以應(yīng)對人工標注的算法偏見,。其二,,針對生成式人工智能的自我學(xué)習(xí)而得出的后天性算法偏見,應(yīng)當通過建立敏捷化,、自動化,、全流程的監(jiān)管體系來消除偏見。首先,,實現(xiàn)對算法技術(shù)的自動化監(jiān)管,。針對機器學(xué)習(xí)和人工標注實現(xiàn)自動化監(jiān)管,每當出現(xiàn)算法偏見時暫停輸出結(jié)果,,返回查找問題根源。其次,,建立多元主體監(jiān)管模式,。行政主體,、平臺、行業(yè)協(xié)會,、企業(yè)自身多方主體參與監(jiān)管,。最后,落實全流程敏捷的監(jiān)管機制,。對生成式人工智能產(chǎn)出結(jié)論的全過程進行監(jiān)管,,切實降低由于算法偏見導(dǎo)致錯誤結(jié)論的概率,有效推進可信算法體系的構(gòu)建,。采用有限保護模式,,以防范生成式人工智能作品在知識產(chǎn)權(quán)方面的風險。相較于傳統(tǒng)的人工智能技術(shù),,生成式人工智能的創(chuàng)新之處在于其擁有一定程度的自我認知,,并且參與了輸出結(jié)果的加工和創(chuàng)造。如果基于其自我認知,,而將其所有成果都進行保護,,那么未來可能會出現(xiàn)生成式人工智能公司手握“創(chuàng)作霸權(quán)”的局面。但從商業(yè)角度而言,,生成式人工智能公司耗費大量金錢和技術(shù)資本打造高度智能的人工智能程序,,如果對該程序衍生的“作品”完全不予保護,也有違公平,。因此,,對于ChatGPT生成物的知識產(chǎn)權(quán)屬性,現(xiàn)階段應(yīng)該根據(jù)其技術(shù)運行模式,、參與程度,、創(chuàng)新程度等進行綜合評判,對其產(chǎn)品的知識產(chǎn)權(quán)采用有所區(qū)分的有限保護模式,。等到未來生成式人工智能發(fā)展到一定階段,,深入了解其運行機制時,再確定具體的知識產(chǎn)權(quán)保護模式,。以ChatGPT為代表的生成式人工智能方興未艾,,它所帶來的法律風險,很多都應(yīng)在既有法律框架內(nèi)妥善應(yīng)對,。面對風險和問題,,不能因為產(chǎn)業(yè)有風險和理論有爭議,就限制生成式人工智能發(fā)展,。這需要采取“法律+技術(shù)”的融合治理來營造一個好的市場環(huán)境,,保障生成式人工智能市場茁壯成長。(本文系國家社科基金一般項目“個人信息的競爭法保護疑難問題研究”(23BFX186)階段性成果)(作者單位:西南政法大學(xué)經(jīng)濟法學(xué)院)來源:中國社會科學(xué)網(wǎng)-中國社會科學(xué)報

免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1102495.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。

(0)
光明網(wǎng)的頭像光明網(wǎng)
上一篇 2024年5月16日 下午2:25
下一篇 2024年5月16日 下午3:23
198搶自鏈數(shù)字人

相關(guān)推薦