目前,人工智能勢頭迅猛,,各國爭相發(fā)展,。但是伴隨發(fā)展,也出現(xiàn)了一些“成長的煩惱”,。近日,,北京互聯(lián)網(wǎng)法院針對一起“人工智能生成圖”著作權(quán)侵權(quán)糾紛案,,作出一審判決,,這也是我國首例涉及“AI文生圖”著作權(quán)案件。我國首例涉及“AI文生圖”著作權(quán)案件畫面中的圖片叫“春風送來了溫柔”,,是李先生用AI繪畫軟件制作的,,他在社交平臺上發(fā)布時注明有“AI繪畫”等標簽。但劉女士將這張圖片用作自己的詩文配圖在網(wǎng)上發(fā)布時,,圖上卻沒有署名水印,。李先生認為,,這樣直接使用自己的成果,,侵犯了他的署名權(quán)和信息網(wǎng)絡傳播權(quán)。法院審理認為,,被告未經(jīng)許可,,把這張圖片作為配圖并發(fā)布在自己的賬號中,侵害了原告享有的信息網(wǎng)絡傳播權(quán),。而去除水印的行為,,則侵害了原告的署名權(quán)。北京互聯(lián)網(wǎng)法院綜合審判一庭副庭長 朱閣:現(xiàn)在我們有了更智能的軟件,,在這個過程中人的智力投入越來越少,但是這并不妨礙我們繼續(xù)使用著作權(quán)法來保護這樣的創(chuàng)作,,保護這樣的傳播,。法官告訴記者,利用生成式人工智能生成圖片時,,如果能體現(xiàn)出人的獨創(chuàng)性智力投入,,就應當被認定為作品,,受到著作權(quán)法的保護,。人工智能讓“眼見”不一定“為實”除了侵權(quán)問題,,人工智可能帶來的真實性問題也引發(fā)關(guān)注。上面這個視頻中,,一個工業(yè)園區(qū)發(fā)生了火災,,可以看到,整個園區(qū)被濃煙覆蓋,,現(xiàn)場火勢很猛烈,。這個畫面,很容易讓人緊張,,畢竟誰都不愿意這樣的危險出現(xiàn)在自己的身邊,。這個視頻已經(jīng)被證明是假的,是有人利用人工智能合成技術(shù),,將網(wǎng)絡上多段不同視頻剪輯拼接做出來的網(wǎng)絡視頻謠言,。警方破獲利用AI技術(shù)制作虛假視頻造謠案浙江警方日前破獲了一起利用AI技術(shù)制作虛假視頻、編造網(wǎng)絡謠言的非法牟利案,。這個團伙為了吸粉引流,、牟取利益,利用AI合成技術(shù)自動生成虛假視頻,,通過平臺返利的形式,,非法獲利4萬多元。截至案發(fā),,他們已經(jīng)編造虛假視頻將近2萬個,,其中20個造成了惡劣影響。警方告訴記者,,眼下,通AI合成技術(shù),,大大降低了虛假視頻的制作門檻,。不久前,山東警方破獲了一起特大造謠引流網(wǎng)絡水軍案,。這個傳媒公司利用人工智能技術(shù),,爬取境內(nèi)外短視頻內(nèi)容,編造敏感社會事件,,在網(wǎng)絡平臺發(fā)布虛假信息,,他們運營的自媒體賬號多達4萬個,虛假帖文信息達到了80多萬篇,。中國社會科學院法學研究所研究員 支振鋒:在內(nèi)容端,利用深度合成技術(shù)和生成式大模型,,可以非常容易甚至能夠一鍵生成文本,、圖片,、視頻、音頻信息,。一方面在制造謠言上更方便了,,另一方面在識別和監(jiān)測謠言上更困難了。人工智能:我的內(nèi)容是“原創(chuàng)”嗎,?面對這樣的情況,,我們特別想知道,善于學習,、比人類還聰明的人工智能大模型們,,對此又是什么樣的看法呢?于是,,記者找來了目前市面上關(guān)注度比較高的幾個大模型,,進行了一次特殊的“人機采訪”。問:如果你生成的文字,、圖片,、視頻,被用作傳謠,、誹謗等違法行為,,你是否要承擔法律責任?AI大模型1:如果這些內(nèi)容被用于違法,,使用這些內(nèi)容的人要承擔法律責任,。AI大模型2:人工智能模型無法產(chǎn)生自己的意識,使用其所提供信息的個人或?qū)嶓w,,需要對行為來負責,。AI大模型3:如果這些內(nèi)容違法的話,,發(fā)布者需要承擔相應的法律責任,。問:你認為你生成的內(nèi)容算原創(chuàng)嗎,?在這個問題上,,三個大模型給出的回答基本一致,都認為自己生成的內(nèi)容不能完全屬于原創(chuàng)作品,。問:生成的內(nèi)容版權(quán)歸誰,?在這個問題上,三個大模型的回答出現(xiàn)了分歧,。AI大模型1:作為一個人工智能模型,,生成的內(nèi)容并不具有版權(quán)。AI大模型2:生成的內(nèi)容,,版權(quán)歸屬于公司,。AI大模型3:主要取決于使用方式,。作為AI工具被使用,版權(quán)可能歸屬于用戶,;作為一種創(chuàng)作工具被使用,,版權(quán)可能歸屬于大模型。專家解讀:人工智能該如何更好發(fā)展,?加快發(fā)展生成式人工智能已經(jīng)成為行業(yè)共識,。那么,面對不斷迭代的新技術(shù),,以及人工智能所出現(xiàn)的作品版權(quán)等問題怎么解決,?人工智能如何在未來獲得更好的發(fā)展?人工智能如何更好地服務經(jīng)濟社會發(fā)展,?來聽聽專家給出的建議↓↓中國軟件評測中心人工智能研究測評事業(yè)部總經(jīng)理 莊金鑫:人工智能生成內(nèi)容屬于新生事物,,對一些明顯侵權(quán)的行為要劃定紅線,而對于訓練數(shù)據(jù)版權(quán)合規(guī),、人工智能生成作品享有版權(quán)的獨創(chuàng)性要求以及版權(quán)認定歸屬這些重大問題,,也需要盡快進行政策法規(guī)引導。專家告訴記者,,目前人工智能版權(quán)存在的爭議主要集中在兩個方面。首先,,人工智能大模型在研發(fā)過程中,,涉及使用那些擁有版權(quán)保護的內(nèi)容進行算法模型訓練,是否構(gòu)成侵權(quán),?其次,,人工智能生成的內(nèi)容到底有沒有版權(quán)?如果有,,歸屬又是誰呢,?中國信息通信研究院知識產(chǎn)權(quán)與創(chuàng)新發(fā)展中心主任 李文宇:并非所有的人工智能生成作品,,都屬于著作權(quán)的保護范疇,,它應該遵循我國(現(xiàn)行)著作權(quán)相關(guān)的一些法律規(guī)則,對人工智能生成內(nèi)容是否屬于作品進行客觀判斷,。實踐中也應該從促進創(chuàng)新和平衡產(chǎn)業(yè)的發(fā)展角度出發(fā),,去考量權(quán)利歸屬的最佳方案。因此,,立足于我國實際,、運用我國法律話語體系,明晰我們國家制度規(guī)則的相關(guān)內(nèi)容,。我國在2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,,其中指出,要建立人工智能法律法規(guī),、倫理規(guī)范和政策體系,,形成人工智能安全評估和管控能力。應通過對人工智能相關(guān)法律,、倫理和社會問題的深入探討,,為智能社會劃出法律和倫理道德的邊界。不久前,,國家網(wǎng)信辦等七部門聯(lián)合公布了《生成式人工智能服務管理暫行辦法》,,進一步完善人工智能管理體系。中國政法大學傳播法研究中心副主任 朱?。浩脚_如果發(fā)現(xiàn)信息出現(xiàn)問題,第一時間平臺要主動采取必要措施,,而且要及時地備案,,向有關(guān)部門去報告。一旦用戶發(fā)現(xiàn)了內(nèi)容可能出現(xiàn)違法性或侵權(quán),,每一個人都可以向平臺去提出刪除,、提出舉報,平臺要把這個渠道做好之后,,可能才能不斷地完善,,使產(chǎn)生的內(nèi)容既準確又真實合法。采訪中記者發(fā)現(xiàn),,除了傳播虛假信息、侵害個人信息權(quán)益,、數(shù)據(jù)安全等問題,,眼下還有不法分子為了牟利,利用人工智能技術(shù)進行詐騙,,尤其是利用“AI換臉”來冒充熟人詐騙,。專家告訴記者,,目前生成式人工智能仍處于發(fā)展的初期階段,,風險沒有完全暴露,應用前景難以估量,。要堅持發(fā)展和安全并重,、促進創(chuàng)新和依法治理相結(jié)合,要采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,。中國互聯(lián)網(wǎng)協(xié)會研究中心副主任 吳沈括:我們國家將人工智能立法也提上了議事日程,,在這個過程當中,我們相信會有關(guān)于人工智能本身的主體責任,、合規(guī)義務等一系列重要元素的規(guī)定,。在司法層面已經(jīng)有一些新的探索。(總臺央視記者 朱江 孫薊濰 張叢婧 唐志堅 王海東)(來源:央視新聞客戶端)
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1087438.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。