北京日?qǐng)?bào) | 作者 王利明原標(biāo)題:ChatGPT引發(fā)的侵權(quán)行為,,主要是侵害人格權(quán)和著作權(quán)——生成式人工智能帶來新侵權(quán)形式我們已經(jīng)進(jìn)入了人工智能時(shí)代,,人工智能是未來新一輪科技革命和產(chǎn)業(yè)變革的核心力量,生成式人工智能以億萬的龐大的數(shù)據(jù)為參數(shù),,具有更出色的生成能力,,其用途廣泛,并且具有驚人的應(yīng)用價(jià)值,。生成式人工智能的發(fā)展所產(chǎn)生的最大挑戰(zhàn)就是引發(fā)侵權(quán)風(fēng)險(xiǎn),。與傳統(tǒng)的侵權(quán)行為不同的是,ChatGPT引發(fā)的侵權(quán)行為,,主要是侵害人格權(quán)和著作權(quán),。例如,在ChatGPT問世后,,有人就利用它生成了受著作權(quán)保護(hù)的書籍的縮略版,,用以幫助他人快速閱讀書籍,由于此種行為會(huì)構(gòu)成對(duì)原書的市場(chǎng)替代,,很難構(gòu)成合理使用,,因此有可能會(huì)被認(rèn)定為侵害著作權(quán)的行為。同時(shí),生成式AI也可能侵害商標(biāo)權(quán),。如果未經(jīng)授權(quán)許可,,在生成式圖片中使用他人的商標(biāo),并將其作為某種廣告宣傳或者產(chǎn)品裝潢,,引發(fā)消費(fèi)者的混淆,,這就可能構(gòu)成對(duì)商標(biāo)權(quán)的侵害。但與侵害知識(shí)產(chǎn)權(quán)相比較而言,,生成式人工智能因可能產(chǎn)生虛假信息等原因,,而對(duì)人格權(quán)侵害的風(fēng)險(xiǎn)更大。具體而言,,生成式AI不僅會(huì)引發(fā)針對(duì)各類人格權(quán)的侵權(quán)行為,,還帶來了新的人格權(quán)侵權(quán)形式,主要表現(xiàn)在以下四個(gè)方面,。第一,,侵害隱私和個(gè)人信息。生成式AI可能引發(fā)大規(guī)模隱私或者個(gè)人信息泄露問題,。大型生成式AI需要大量數(shù)據(jù)作為參數(shù),,而AI產(chǎn)品的提供者在訓(xùn)練AI產(chǎn)品時(shí)違規(guī)收集大量的個(gè)人信息,或者運(yùn)用大量沒有合法來源的信息訓(xùn)練AI產(chǎn)品,,這就可能帶來一些侵害隱私和個(gè)人信息的新形式,。有研究發(fā)現(xiàn),由于大模型收集大量個(gè)人信息和隱私,,且模型越大,,所搜集的信息和隱私越多,因此,,不法行為人有可能通過攻擊大規(guī)模語言模型,,提取出訓(xùn)練數(shù)據(jù)中的核心隱私和敏感個(gè)人信息,從而導(dǎo)致個(gè)人信息,、隱私的大規(guī)模泄露,,形成了“大規(guī)模微型侵害”的現(xiàn)象,。第二,,侵害名譽(yù)權(quán)。大型生成式AI模型主要依賴消化人類文本輸入生成輸出產(chǎn)品,,如文本,、圖像、音頻,、視頻等,,一旦這些輸出的信息是虛假的,就有可能導(dǎo)致對(duì)他人名譽(yù)權(quán)的侵害。ChatGPT也會(huì)帶來一些侵害名譽(yù)權(quán)的新形式,。OpenAI公司首席執(zhí)行官山姆·阿爾特曼在接受采訪中說,,“我特別擔(dān)心這些人工智能被用于大規(guī)模制造虛假信息”。例如,,生成式AI如ChatGPT的“臆造”現(xiàn)象,,可能會(huì)導(dǎo)致ChatGPT在回答問題時(shí),編造有關(guān)他人涉嫌性騷擾,、某人與他人非法同居等消息,,造成對(duì)他人名譽(yù)的損害。還可能自動(dòng)生成虛假圖片,、音頻,、視頻,不僅可以“以假亂真”,,還能夠“無中生有”,,導(dǎo)致對(duì)他人名譽(yù)、隱私等人格權(quán)益的侵害,,生成式人工智能自動(dòng)生成的包含虛假信息的圖片,、視頻、聲音,,已經(jīng)達(dá)到了以假亂真的地步,,甚至生成式AI都難以辨別其生成的圖片等是真實(shí)拍攝的還是自動(dòng)生成的。如果這些虛假信息在產(chǎn)生之后,,不法行為人利用這些信息傳播,,受眾就很容易受到虛假的影響,造成對(duì)他人名譽(yù)等人格權(quán)益的重大侵害,。第三,,侵害肖像權(quán)。因?yàn)樯墒饺斯ぶ悄芸梢宰詣?dòng)生成圖片,、視頻,,隨著生成式人工智能的發(fā)展,其比深度偽造更加難以辨別,。所以,,利用生成式人工智能自動(dòng)生成的圖像,比深度偽造造成的損害后果更加嚴(yán)重,,其不僅會(huì)侵害個(gè)人的肖像權(quán),,甚至可能透過圖片、視頻扭曲個(gè)人的形象,,特別是當(dāng)生成的圖片涉嫌性騷擾,、猥褻,、非法同居等虛假信息后,將會(huì)造成對(duì)他人的名譽(yù)權(quán),、隱私權(quán)等權(quán)益的嚴(yán)重侵害,。第四,侵害死者人格利益,。生成式AI的技術(shù)超越深度偽造,,可以將死者的圖像和聲音匯集在一起,生成虛假的信息,。例如,,在自然人去世后,他人可以利用ChatGPT生成具有死者風(fēng)格的文字,,用來生成一些歧視,、偏見、仇恨言論或者其他有毒害的言論,,事實(shí)上構(gòu)成對(duì)死者人格尊嚴(yán)的侵害,。又如,侵權(quán)人還可以利用生成式AI來模仿死者的口吻與死者近親屬進(jìn)行交流,,實(shí)施侵權(quán),,這樣的行為也可能導(dǎo)致對(duì)死者人格利益的侵害。隨著生成式人工智能運(yùn)用的場(chǎng)景越來越寬泛,,由此造成的侵權(quán)風(fēng)險(xiǎn)必須在法律上予以應(yīng)對(duì),。但面對(duì)像生成式AI這樣的新技術(shù)帶來的問題,民法上首先應(yīng)當(dāng)秉持鼓勵(lì)創(chuàng)新,、預(yù)防風(fēng)險(xiǎn)的價(jià)值取向,。一方面,不能因?yàn)榭赡芤l(fā)侵權(quán)風(fēng)險(xiǎn)而對(duì)人工智能服務(wù)提供者課以過重的責(zé)任,,從而妨礙人工智能技術(shù)的創(chuàng)新,。另一方面,也應(yīng)當(dāng)要求服務(wù)提供者盡可能采取必要措施(例如,,將人工智能產(chǎn)生的信息明確標(biāo)識(shí)),,預(yù)防損害的發(fā)生和擴(kuò)大。在引發(fā)侵權(quán)之后,,除了大規(guī)模泄露個(gè)人信息之外,,仍然應(yīng)當(dāng)由服務(wù)提供者承擔(dān)過錯(cuò)責(zé)任,以兼顧服務(wù)提供者,、用戶等各方的利益,,公平確定責(zé)任的承擔(dān)。(作者為中國(guó)人民大學(xué)法學(xué)院教授,、中國(guó)人民大學(xué)民商事法律科學(xué)研究中心研究員)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1082773.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。