從導航軟件中的“數(shù)字人”指路,到直播電商中的“虛擬主播”,再到最近爆火的ChatGPT,,隨著深度學習技術(shù)的快速演進和數(shù)據(jù)規(guī)模的快速增長,,人工智能的應用已經(jīng)滲入了我們?nèi)粘I畹姆椒矫婷妫绕涫遣粩啾贿\用于寫作,、繪畫,、編曲和視頻制作等創(chuàng)造性生產(chǎn)領(lǐng)域。這些人工智能“創(chuàng)作”物,,極大地提高了行業(yè)生產(chǎn)效率,但也隱藏著法律與倫理的挑戰(zhàn),。
人工智能生成的畫面,、文字等內(nèi)容有版權(quán)嗎?這是我們需要首先思考和回答的問題,。能否享有版權(quán),,取決于“創(chuàng)作”物是否構(gòu)成著作權(quán)法意義上的“作品”,即是否具有獨創(chuàng)性,。如果人工智能“創(chuàng)作”物符合著作權(quán)法的規(guī)定而享有版權(quán),,那么權(quán)利主體是誰?根據(jù)法律規(guī)定,,一般作品的著作權(quán)歸屬于作者,,但人工智能本身、人工智能的設(shè)計者,、研發(fā)者,、投資者、管理者,、實際操控者等在作品的創(chuàng)作過程中均發(fā)揮著重要作用,,權(quán)利的歸屬如何確定或分配,目前也尚無明確規(guī)定,。
分析人工智能“創(chuàng)作”的過程可知,,部分人工智能“創(chuàng)作”物的確涉及人類思想表達,如果具有獨創(chuàng)性和可復制性,,就可以滿足成為“作品”的要求,,應當享有版權(quán)。目前已有許多國家將人工智能創(chuàng)作的內(nèi)容納入版權(quán)法的保護范圍,,而版權(quán)的歸屬應當屬于自然人,。這是因為,人工智能“創(chuàng)作”物看似機器生成而非人類直接完成,,但其實質(zhì)卻是應用算法,、規(guī)則和模板的結(jié)果,當前人工智能創(chuàng)作主要包括訓練數(shù)據(jù)輸入,、算法模型構(gòu)建和最終結(jié)果生成階段,,無論是訓練數(shù)據(jù)外部調(diào)整還是算法模型人工糾偏,人工智能創(chuàng)作依舊處于自然人的控制之下,,人工智能創(chuàng)作無法脫離自然人的智慧支持,,可以被視為自然人先前智力成果的延伸,,體現(xiàn)的是開發(fā)者的思想與腦力勞動。而權(quán)利主體的確定可以考慮合同約定優(yōu)先,,以使用主體為中心和以投資主體為補充,。
人工智能“創(chuàng)作”過程產(chǎn)生權(quán)利侵犯問題怎么辦?人工智能的創(chuàng)作行為嚴重依賴于數(shù)據(jù)源,,智能機器人要通過一定的程序進行“深度學習”“深度思維”,,在這個過程中有可能收集、儲存大量的他人已享有著作權(quán)的信息或個人隱私信息,,這就有可能構(gòu)成對他人著作權(quán)或隱私權(quán)的侵害,。那么,誰需要為人工智能創(chuàng)作的權(quán)利侵犯問題承擔責任,?是為人工智能創(chuàng)作算法編程的技術(shù)人員,,還是為人工智能創(chuàng)作注入資金的投資主體,抑或?qū)嶋H使用人工智能創(chuàng)作的用戶群體,?這是相關(guān)領(lǐng)域立法需要充分考量的問題,。另一方面,技術(shù)的誤用或濫用也可能滋生違法犯罪行為,。如今,有的人工智能學習生成的內(nèi)容在形式和邏輯上足以“以假亂真”,,倘若技術(shù)被誤用,、濫用,比如被用于抄襲,、詐騙等,,甚至可能被用于危害個人生命財產(chǎn)安全、國家安全和社會公共利益,。因此,,有必要構(gòu)建人工智能“創(chuàng)作”的規(guī)范標準,對相關(guān)技術(shù)使用者的行為形成有效約束,,有效規(guī)制減少,、防范智能內(nèi)容科技應用可能帶來的負面影響。
具體來說,,一是明確人工智能創(chuàng)作的合理使用范疇,,打破人工智能創(chuàng)作的算法黑箱,并實行差異化歸責原則,。著作權(quán)法規(guī)定的合理使用是指在特定情況下使用作品,,可以不經(jīng)著作權(quán)人許可,不向其支付報酬,,但應當指明作者姓名或者名稱,、作品名稱,,并且不得影響該作品的正常使用,也不得不合理地損害著作權(quán)人的合法權(quán)益,。人工智能“創(chuàng)作”必然需要學習海量的關(guān)聯(lián)性知識,,方能組織、推理和生成最終的輸入結(jié)果,。為促進人工智能創(chuàng)作的良性發(fā)展,,可以將人工智能的創(chuàng)作過程納入著作權(quán)法的合理使用范疇,但要將人工智能創(chuàng)作故意復制,、惡意使用等情形排除在外,。二是數(shù)據(jù)隱私、平等權(quán)的保護需要堅持算法透明原則,。目前,,我國個人信息保護法明確了依法使用個人信息的情形,個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明,。在這些規(guī)定的基礎(chǔ)上,,人工智能創(chuàng)作主體應當公開個人數(shù)據(jù)處理規(guī)則,明示處理的目的,、方式和范圍,。三是人工智能創(chuàng)作如果發(fā)生侵權(quán)行為,需要相關(guān)的自然人主體承擔責任,。人工智能創(chuàng)作各個階段對應著不同的責任主體,,基于技術(shù)責任承擔與內(nèi)部追責視角的分立,需要實行差異化歸責原則,,技術(shù)主體偏重于算法設(shè)計和數(shù)據(jù)處理責任,,使用主體和投資主體偏重于核驗檢查和終端更正責任。
人工智能進行“創(chuàng)作”,,會影響自然人的法律主體地位嗎,?面對人工智能日益頻繁和廣泛的“創(chuàng)作”活動,有人擔憂這是否會壓制甚至取代自然人的法律主體地位,。針對這一問題,,我們需要回歸“法律主體”的內(nèi)涵和價值來分析。法律主體地位是法律意義上人的抽象和虛擬,,是指法律賦予自然人和社會組織依法承擔責任,、享有權(quán)利的資格,因此,,法律的建構(gòu)始終要以人為中心,。在關(guān)于人工智能“創(chuàng)作”物的法律規(guī)制問題上,需要圍繞保障個人權(quán)利進行,,注重維護自然人的主體地位,。2022年,,深圳制定實施了我國第一部人工智能產(chǎn)業(yè)專項立法——《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》,其他地方的有關(guān)條例也正在制定過程中,,這些地方立法均強調(diào)了“以人為本”的原則,,通過法律規(guī)則盡可能削弱人工智能可能帶來的風險。隨著人工智能技術(shù)的不斷快速發(fā)展和更新迭代,,新問題也會隨之而來,,這需要法律與時俱進,并與技術(shù),、倫理等專業(yè)層面協(xié)同互補,,在擁抱人工智能變革、大力發(fā)展產(chǎn)業(yè)的同時,,著力平衡產(chǎn)業(yè)發(fā)展與社會安全,,確保其安全、可靠,、可控,。
來源:學習時報
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1006216.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。