A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

梅夏英:倫理人格與技術(shù)人格—人工智能法律主體地位的理論框架

來源:法大科技成果轉(zhuǎn)化基地

梅夏英:倫理人格與技術(shù)人格—人工智能法律主體地位的理論框架

以下文章來源于中外法學(xué)編輯部 ,,作者梅夏英

倫理人格與技術(shù)人格:人工智能法律主體地位的理論框架

梅夏英

對外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院教授

摘 要

目前人工智能法律主體地位的理論探討遵循兩種路徑:一是將人工智能作為具有高級智能的類人“種群”來進(jìn)行理論預(yù)判,;一是探討賦予當(dāng)前弱人工智能某種法律擬制人格來承擔(dān)責(zé)任和享有權(quán)利,。對此有必要提出“倫理人格”和“技術(shù)人格”的區(qū)分理論,來界定人工智能主體地位的不同理論面向,。人格區(qū)分現(xiàn)象在傳統(tǒng)民法中已然存在,,它呈現(xiàn)為以人格抽象程度為標(biāo)志的人格遞進(jìn)序列,其中存在著兩種人格的“漸變”和“斷裂”現(xiàn)象。人工智能作為倫理主體遇到了“自我意識(shí)”的難題,,目前的弱人工智能尚不能獲得獨(dú)立的倫理人格,規(guī)制技術(shù)開發(fā)者的科技倫理起主導(dǎo)作用,,同時(shí)不排除人機(jī)交互倫理可能會(huì)賦予機(jī)器人某種道德性“權(quán)利”,。就人工智能的技術(shù)性人格而言,如果只是將人工智能作為“個(gè)體”進(jìn)行研究,,并無自然人的意思表示機(jī)制和機(jī)器人自身財(cái)產(chǎn)的支撐,,賦予機(jī)器人技術(shù)人格便不完全具備條件。未來人工智能的主體性將依照兩種人格的路徑各自發(fā)展,,以技術(shù)人格的探索先行,,逐漸進(jìn)行倫理人格的塑造,人類或機(jī)器人的倫理人格最終成為技術(shù)人格的依歸,。

關(guān)鍵詞人工智能 倫理人格 技術(shù)人格 法律擬制 人機(jī)關(guān)系

目 錄

引言

一,、人工智能主體性的兩個(gè)理論面向:倫理性人格和技術(shù)性人格

二、倫理性人格:人工智能作為新的智能“種群”?

三,、技術(shù)性人格:責(zé)任主體和權(quán)利主體

四,、未來人工智能兩種人格融合的“抽象度”分析和展望

引 言

人工智能是否具有法律主體地位,或能否成為法律意義上的“人”,,是近年來數(shù)字法學(xué)的一個(gè)重要理論問題,。人工智能的出現(xiàn),給法律領(lǐng)域帶來了一個(gè)富有建設(shè)性和挑戰(zhàn)性的事實(shí),,即它創(chuàng)造和開啟了一個(gè)前所未有的新型關(guān)系——“人機(jī)”關(guān)系,。這種“人機(jī)”關(guān)系隨著技術(shù)的進(jìn)步快速演進(jìn),成為未來數(shù)字法學(xué)甚至整個(gè)法學(xué)必須面對的一種基礎(chǔ)關(guān)系,,并將很大程度上影響未來的立法進(jìn)程,。“人機(jī)”關(guān)系在法律上之所以具有歷史性的,、突破性的意義,,主要原因在于它將深刻改變未來社會(huì)的社會(huì)關(guān)系、生活方式和社會(huì)形態(tài),,人與機(jī)器(主要指人工智能)將由傳統(tǒng)的“主客體”支配關(guān)系轉(zhuǎn)向一種深度“合作”關(guān)系,,并遍布生活的每一個(gè)角落。在可預(yù)見的人機(jī)融合的未來社會(huì)場景中,,法律如何看待人工智能以及賦予人工智能何種法律地位,,成為數(shù)字法學(xué)必須回答的問題。當(dāng)前法學(xué)界對于人工智能的法律主體地位問題已經(jīng)進(jìn)行了探討,,并主要局限在私法領(lǐng)域,,這是由于在人工智能目前的發(fā)展?fàn)顩r下,私法領(lǐng)域的討論已經(jīng)具有相對確定的現(xiàn)實(shí)意義,因?yàn)樗诮鉀Q諸如無人駕駛,、醫(yī)療機(jī)器人,、機(jī)器代理等領(lǐng)域的責(zé)任承擔(dān)以及機(jī)器作品的創(chuàng)造者和權(quán)利享有者的界定等問題上均有所建樹。但基于人機(jī)關(guān)系的普遍性和公共性,,人工智能的法律地位問題在公法領(lǐng)域亦有充分的討論空間,。針對當(dāng)前私法上關(guān)于人工智能法律地位問題的討論,,本文擬在傳統(tǒng)私法的基礎(chǔ)上,,依據(jù)傳統(tǒng)私法所隱含的(未被充分揭示的)兩類主體內(nèi)涵的差異,梳理人工智能在私法主體領(lǐng)域的兩個(gè)面向或訴求:倫理性人格和技術(shù)性人格,,并將之作為基礎(chǔ)理論框架,,分別探討人工智能在兩種人格類型上的意義和現(xiàn)實(shí)可行性,最后嘗試性地提出理論展望,,即人工智能的主體性是否將如傳統(tǒng)民法主體制度一樣,,呈現(xiàn)出以“抽象度”為標(biāo)志的兩種人格融合場景。

一,、人工智能主體性的兩個(gè)理論面向:倫理性人格和技術(shù)性人格

當(dāng)前關(guān)于人工智能主體地位的私法探討,,將人工智能納入到傳統(tǒng)民法的“人法”部分予以統(tǒng)一回答,并形成了兩種截然相反的觀點(diǎn):否定說和肯定說,。否定說目前成為大多數(shù)人支持的主流觀點(diǎn),,該說認(rèn)為人工智能目前成為民事主體并不現(xiàn)實(shí),其主要理由在于:人工智能目前并不具有人類的理性和自我意識(shí),,亦不具有自身財(cái)產(chǎn),且不賦予其主體地位并不影響法律解決與人工智能相關(guān)的法律問題,;肯定說則針對性地認(rèn)為,,對于一種新型民事主體的承認(rèn),法律并不必然要求主體具有人類理性,,如法人(尤其是財(cái)團(tuán)法人)就體現(xiàn)為財(cái)產(chǎn)的聚合,;亦不要求責(zé)任財(cái)產(chǎn)的存在,如動(dòng)物,、胎兒和非法人團(tuán)體等民法上的“有限主體”就與財(cái)產(chǎn)無直接關(guān)系,。顯然,如果按照上述理論框架來論證人工智能的主體性,,我們很可能無法在統(tǒng)一的理論基礎(chǔ)上達(dá)成有效結(jié)論,。其中被忽略的一個(gè)事實(shí)是,兩種觀點(diǎn)談及的人格很可能不是一回事,,故有必要對人工智能的人格類型進(jìn)行區(qū)分,,并回到傳統(tǒng)民法找到這種區(qū)分的依據(jù),以做出合理解釋。

(一)人工智能主體中倫理性人格和技術(shù)性人格的區(qū)分

人工智能能否成為法律上的主體,,是數(shù)字技術(shù)為法學(xué)理論界提出的一個(gè)全新的問題,。在將人工智能納入傳統(tǒng)法律主體制度予以定位時(shí),除了要與原有制度形成體系性的契合外,,也將加深我們對傳統(tǒng)法律主體制度的整體性理解,,甚至能在原有體系上有所豐富和發(fā)展。就上述關(guān)于人工智能主體地位的當(dāng)前理論分歧而言,,從表面上看,,持不同觀點(diǎn)的雙方都是在對人工智能能否成為民法上的“人”這一命題進(jìn)行論證,但實(shí)際上雙方在人工智能成為民法上的何種“人”這一立場上卻存在顯著差別,。具體而言,,當(dāng)前人工智能為我們提出的法律主體問題呈現(xiàn)兩種不同的樣貌:一是從智能或“自我意識(shí)”角度探討人工智能是否具有“類人”智慧,或是否可能超過人類成為強(qiáng)人工智能或超級人工智能,,并以此探討人與機(jī)器的交互關(guān)系,。如果未來人工智能具有高度智能或“自我意識(shí)”,那么它就不能被僅僅局限于人機(jī)之間的支配關(guān)系中,,而是帶有“類人”的理性,、種群性、倫理性和社會(huì)性,,并會(huì)穿透民法進(jìn)入到公法體系,;二是從解決與目前初級智能機(jī)器人相關(guān)的侵權(quán)責(zé)任或權(quán)利歸屬的角度出發(fā),探討運(yùn)用傳統(tǒng)民法中財(cái)產(chǎn)性的“擬制”人格來解決上述問題,,這個(gè)討論角度帶有濃厚的技術(shù)性、工具性和財(cái)產(chǎn)性的色彩,,其針對的技術(shù)性人格形象與第一種“類人”人格形象具有顯著的差別,。上述人工智能的兩種主體形象分別遵循不同的理論基礎(chǔ)、規(guī)范路徑和社會(huì)功能,,基于上述兩種形象分別立足于主體的“倫理性”和“擬制性”,,本文在此正式提出“倫理性”人格和“技術(shù)性”人格的區(qū)分,這種區(qū)分似應(yīng)成為研究人工智能法律主體問題的一個(gè)理論框架,。 具體而言,,倫理性人格立足于人格的智性、種群性,、倫理性和社會(huì)性,,以某種形式的復(fù)雜系統(tǒng)的“生命”活性為表征。當(dāng)前理論界經(jīng)常非正式地將人與人工智能并列為“碳基生命”和“硅基生命”,,亦可視為某種生命倫理傾向,。技術(shù)性人格在民法上亦可稱為“工具性人格”或“財(cái)產(chǎn)性人格”,,指的是立法通過某種擬制技術(shù)來創(chuàng)造享有權(quán)利和承擔(dān)義務(wù)的主體,這種主體在現(xiàn)實(shí)社會(huì)的倫理生活中并不必然存在,,它的目的是為了在技術(shù)上合理安排財(cái)產(chǎn)的法律狀態(tài)和責(zé)任承擔(dān)者,。當(dāng)然這兩種人格的區(qū)分并不是絕對的,它只是為我們提供了一個(gè)觀察人工智能在社會(huì)不同場景中所扮演角色的視角,,且不同角色是可以依據(jù)場合而變化的,。盡管如此,這種理念上的區(qū)分仍然具有基礎(chǔ)性的意義和必要性,,主要體現(xiàn)在如下方面:首先,,這種區(qū)分可以有效避免在人工智能主體問題討論中常見的范疇混淆?;趥鹘y(tǒng)民法的主體制度并未嚴(yán)格區(qū)分倫理人格和技術(shù)人格,,當(dāng)前的理論探討沿襲了傳統(tǒng)民法上統(tǒng)一的人格理論,,對人工智能的主體問題做出統(tǒng)一的肯定或否定的回答,,但由此便會(huì)導(dǎo)致一個(gè)理論誤區(qū)的出現(xiàn),即學(xué)者常常會(huì)用一種人格形象的必要條件缺失,,來否定另一種人格形象成立的可能性,。如用人工智能沒有理性和意識(shí)這一理由,來否定人工智能可能獲得財(cái)產(chǎn)法上的“有限主體”資格,;又如以“未成年人”“胎兒”等倫理主體沒有任何財(cái)產(chǎn)亦可構(gòu)成民事主體為由,,來降低對于人工智能責(zé)任財(cái)產(chǎn)的要求。這種人格錯(cuò)位在傳統(tǒng)民法上的自然人上亦有顯現(xiàn)(下文將會(huì)述及),,只是由于機(jī)器由“客體”成為“主體”的假設(shè)本身理論跨度過大,,故在人工智能領(lǐng)域體現(xiàn)得更為明顯。通過對倫理性人格和技術(shù)性人格進(jìn)行區(qū)分,,就可以有效避免上述范疇混淆的誤區(qū),。 其次,這種區(qū)分可以有效厘清兩種人格的理論和立法路徑,。兩種人格雖然可以毫不違和地并存于民法中,,但由于機(jī)器人畢竟不具有自然人的天然身份,故兩種人格從一開始就體現(xiàn)出不同的理論和立法路徑,。如2017年沙特阿拉伯授予美國漢森公司的人工智能“索菲亞”以法律公民身份,、日本在個(gè)案中確立了陪護(hù)老人的寵物機(jī)器人“帕羅”的戶籍地位等,就是將機(jī)器人視為倫理意義上的主體而在公法上做出的法律判斷,,并不首先體現(xiàn)為私法上的主體,。除此之外,一旦“類人”機(jī)器智慧體被法律承認(rèn),,其首先要考慮的是它在整個(gè)社會(huì)層面的地位,,而不會(huì)首先考慮財(cái)產(chǎn)問題,,如2016年美國國家公路安全交通管理局認(rèn)定谷歌無人駕駛?cè)斯ぶ悄芟到y(tǒng)可以被認(rèn)為是“司機(jī)”,亦是基于智能方面的判斷,。人工智能倫理人格遵循由公法論證確認(rèn)后再下沉至私法領(lǐng)域的路徑,,它更多考慮的是“類人”智能的社會(huì)身份(如公民或戶籍等)和社會(huì)權(quán)利(如選舉權(quán),、自由權(quán)、財(cái)產(chǎn)權(quán)甚至家庭生活的權(quán)利)等,,繼而會(huì)在私法上得到體現(xiàn),。而傳統(tǒng)私法對于人工智能的主體界定則只能局限于民法范圍內(nèi),通過技術(shù)擬制人格來解決財(cái)產(chǎn)地位和責(zé)任承擔(dān)等私法問題,,這種擬制人格無法延展至公法體系,。如果立法不明示人工智能人格的類型,我們就無法判斷將其安置于何種法律范疇,,如2016年歐盟委員會(huì)法律事務(wù)委員會(huì)曾主張賦予人工智能“電子人”的法律主體身份,,這種抽象的主張并不能明確“電子人”屬于何種人格,故無從將其納入合適的法律領(lǐng)域予以討論,。 最后,,人工智能倫理人格的理論顛覆性遠(yuǎn)遠(yuǎn)大于技術(shù)人格。對當(dāng)下尚未達(dá)到人類智能程度的機(jī)器人賦予某種工具性人格,,只是民法的擬制技術(shù)以及法解釋學(xué)的運(yùn)用問題,只要形成邏輯閉環(huán)即可(盡管障礙重重),,并不會(huì)對現(xiàn)實(shí)社會(huì)的公法秩序造成實(shí)質(zhì)影響,。而一旦人工智能具有“類人”的倫理人格,,則會(huì)產(chǎn)生顛覆性的社會(huì)變革,,甚至法律本身亦會(huì)受到巨大的沖擊,。比如,,如果人工智能具有“類人”智慧或自我意識(shí),,那么人類的法律如何能有效約束他?換言之,,人類是否有能力為具有高度智能的另類智慧體立法,,以及人工智能是否愿意聽從人類的安排就成為一個(gè)問題,。這個(gè)問題會(huì)轉(zhuǎn)化為,人類如何與另一個(gè)“硅基”生命種群和平共處,。比如美國科幻作家艾薩克·阿西莫夫(Isaac Asimov)為機(jī)器人設(shè)定的三個(gè)倫理定律并沒有得到技術(shù)上的有效支持,,當(dāng)前的自動(dòng)駕駛尚未能保證完全遵守上述定律,。又如,由于人工智能缺少時(shí)間概念,,無自然衰老死亡,,亦無生物繁殖能力等人類典型特征,,它是否能分享人類的律法規(guī)則,,以及人和機(jī)器之間的倫理和法律規(guī)范如何形成和發(fā)展,,目前完全無法想象和預(yù)知。故倫理性人格的意義更為宏大和深遠(yuǎn),,有必要與私法領(lǐng)域的財(cái)產(chǎn)性人格分開探討,。上述對于兩種人格的理論假設(shè)必要性的論述,部分地超出了傳統(tǒng)的理論背景,,但通過一定的理論想象,,有助于我們更好地認(rèn)識(shí)上述人格區(qū)分的法律意義,。

(二)兩種人格區(qū)分的民法學(xué)溯源解釋

倫理性人格和技術(shù)性人格的區(qū)分在傳統(tǒng)民法中已然存在,,只是這種區(qū)分并未在“人法”部分得到彰顯,,并被正式地作為討論民事主體的理論工具,。其直接原因在于,,民法上對自然人作為倫理主體和財(cái)產(chǎn)主體的雙重身份并未進(jìn)行區(qū)分,而是將自然人與作為財(cái)產(chǎn)主體的法人(還包括非法人團(tuán)體)并列,,以此形成人法的基本結(jié)構(gòu)和內(nèi)容,。但兩種人格的區(qū)分是客觀存在的,時(shí)常會(huì)造成民法理論上的困境甚至體系上的紊亂,。如德國學(xué)者迪特爾·梅迪庫斯(Dieter Medicus)認(rèn)為,,親屬法和繼承法規(guī)定了相互之間具有聯(lián)系的生活事實(shí),而物權(quán)和債法規(guī)則體系不是基于生活事實(shí)的相似性,,而是基于法律后果層面上的相似性。他揭示了,,基于生活中的倫理共同體形成的人身法人格與基于財(cái)產(chǎn)占有和交易形成的形式化技術(shù)人格具有本質(zhì)的不同,,并進(jìn)而提出:“民法典的人法部分僅僅是一件未完成的作品,。人們幾乎不可能從這些規(guī)定中推斷出一般性的結(jié)論,。”另一當(dāng)代德國學(xué)者羅爾夫·克尼佩爾(Rolf Knieper)則從財(cái)產(chǎn)的角度指出,法人的本質(zhì)是對財(cái)產(chǎn)的法律調(diào)整,,絲毫不涉及個(gè)人身體體格的調(diào)整。這說明諸多學(xué)者已經(jīng)注意到民法上兩種人格的存在,,只是未對民法典的人法體系做進(jìn)一步的延伸論述,。 倫理人格與技術(shù)人格的區(qū)別在民法體系中體現(xiàn)在如下方面:一是兩者所依賴的人格原型不同,。倫理性人格針對的人格原型是具有生物性、倫理性和社會(huì)性的自然人,,并調(diào)整基于上述特征而形成的親屬關(guān)系和人格權(quán)關(guān)系。而法人針對的對象原型則是圍繞特定財(cái)產(chǎn)形成的社會(huì)組織,、財(cái)團(tuán)甚至單一的獨(dú)立財(cái)產(chǎn),,并在此上形成了抽象的符號化人格,從而完全脫離了人的生物性形象,,進(jìn)入了徹底非個(gè)人化的領(lǐng)域,。親屬法上的自然人與法人以何種共性能同時(shí)成為民事主體,,至今在理論上仍難以得到完整解釋,。二是兩者在立法上被抽象的性質(zhì)和結(jié)果不同?;诜傻钠毡樾?,親屬法人格或人格要素會(huì)被適當(dāng)?shù)爻橄笥枰苑诸悾缬H權(quán)上的父子,、人格權(quán)法上的身體,、肖像諸要素等,但始終保留自然人的社會(huì)生物性特征。而法人則不以自然人為立法抽象化目標(biāo),,而純粹是對財(cái)產(chǎn)的形式化抽象,,憑空創(chuàng)造出一個(gè)“符號”化的人格,從而實(shí)現(xiàn)了從“自然人”向“非人”,、從“生物人”向“觀念人”的轉(zhuǎn)變,,它與自然人分享的共同點(diǎn)僅在于“權(quán)利能力”,經(jīng)過技術(shù)上的過濾和抽象,,自然人與財(cái)產(chǎn)實(shí)際上處在同一地位,。這種理論上的跨越在統(tǒng)一的人格理論下也很難得到充分解釋。三是兩者的價(jià)值基礎(chǔ)不同,。民法上的主體概念具有強(qiáng)烈的價(jià)值導(dǎo)向,,它遵從近代歐洲法律對于自然人的平等、理性和自由等基本價(jià)值的倡導(dǎo)和顯揚(yáng),,彰顯自然人的“目的性”價(jià)值,,在公私法上分享同樣的價(jià)值意義。而法人則作為被形式化的抽象主體符號,,純?nèi)挥蓪?shí)證法創(chuàng)造,表征的是相對空洞的“手段性”價(jià)值,,這種技術(shù)“擬制”產(chǎn)物僅具有私法上的形式化意義,并不能適用于公法領(lǐng)域,。究言之,,這也是德國民法將人格、主體等價(jià)值性概念由技術(shù)性概念“權(quán)利能力”統(tǒng)一替代后的結(jié)果,。因?yàn)椤皺?quán)利能力”是一個(gè)功能性的概念,一個(gè)實(shí)體只要能獲得權(quán)利和承擔(dān)義務(wù),,就可能成為民事主體,;而非可以反過來理解,即先有主體再有權(quán)利享有問題,,自然人的主體價(jià)值在此并未被優(yōu)先考慮,。 除了上述主要表現(xiàn)外,兩種人格區(qū)分還體現(xiàn)在民法體系中人身法與財(cái)產(chǎn)法的顯著分野上,,即人身法并不能當(dāng)然適用民法典抽象的形式理性和概念系統(tǒng),,如果將親屬法,、人格權(quán)法和繼承法從民法典中抽離,也絲毫不會(huì)影響民法典內(nèi)外邏輯體系的完整。另外,,以身份和人格為前提的人身關(guān)系也不能完全適用“權(quán)利能力”和“法律行為”的概念規(guī)則系統(tǒng),這兩個(gè)概念主要是對財(cái)產(chǎn)主體能力和財(cái)產(chǎn)行為的抽象,。 在了解了兩種人格區(qū)分在體系上的價(jià)值后,,我們在理論上依然應(yīng)該承認(rèn)法人等財(cái)產(chǎn)主體在法律上的正當(dāng)性和科學(xué)價(jià)值,只是應(yīng)當(dāng)將民法上的相關(guān)主體合理地歸入倫理主體和財(cái)產(chǎn)主體兩大系統(tǒng)中,,并適用不同的規(guī)則體系,。這種區(qū)分會(huì)給我們解決傳統(tǒng)主體問題提供新的視角和契機(jī),它的理論意義體現(xiàn)在如下方面: 首先,,傳統(tǒng)民法人格理論沒有對自然人的兩種人格進(jìn)行區(qū)分,,遮蔽了兩種人格區(qū)分的體系價(jià)值,。自然人在人身法和財(cái)產(chǎn)法上人格的顯著差別,因在民法上被歸入統(tǒng)一的“自然人”范疇而被強(qiáng)制熨平了,,這極大地淡化了人格區(qū)分在理論和法律適用上的意義,。實(shí)際上,自然人在親屬和人格關(guān)系中的人格屬性,,與自然人在與法人財(cái)產(chǎn)交往中的屬性迥乎不同,,按照主體對等原則,一為人倫主體,,一為形式化的“符號”主體,,兩者完全無法被通約為一種身份。盡管兩種主體都體現(xiàn)為自然人,,但如果我們想象一下一個(gè)在家庭環(huán)境中的自然人與一個(gè)遠(yuǎn)在電商互聯(lián)網(wǎng)另一端以卡通形象示現(xiàn)的自然人,,就可想見兩者的巨大區(qū)別,也可了解兩種交往的民事規(guī)則系統(tǒng)的不同,。 其次,,兩格人格區(qū)分可以在理論上明晰民法上多種“主體”的討論范疇,。除了自然人和法人外,民法存在多種“中間主體”或“第三主體”,,如動(dòng)物,、胎兒(甚至胚胎)和非法人團(tuán)體等,過去我們都將其納入統(tǒng)一的主體理論予以定位,,討論其是否具有民法上的“主體”資格或“權(quán)利能力”,,實(shí)則適用的是抽象的、形式化的財(cái)產(chǎn)法主體標(biāo)準(zhǔn)。實(shí)際上如果理論上接受兩種人格的區(qū)分,,則可以將上述主體歸入不同范疇:如對于胎兒和動(dòng)物而言,,不存在“主體”或“權(quán)利能力”問題,法律保護(hù)他(它)們的目的是基于人倫關(guān)系或生物種群倫理,,來善待同類或特定生物種群,,與財(cái)產(chǎn)并無直接關(guān)聯(lián),,并不需要適用財(cái)產(chǎn)法主體規(guī)則,,直接適用由人倫關(guān)系或種群倫理決定的行為規(guī)則即可。當(dāng)前理論上對于胎兒(以及胚胎),、動(dòng)物等主張的“主體說”“非主體說”和“有限主體說”等都如出一轍,,難以自圓其說,均是用錯(cuò)了人格范疇的緣故,。對于第三主體(如合伙)或非法人團(tuán)體(如籌建中的法人)等,,因主要涉及財(cái)產(chǎn)關(guān)系,則應(yīng)將其歸入民法上占主導(dǎo)地位的抽象財(cái)產(chǎn)人格范疇進(jìn)行討論和定位,。 最后,,人格區(qū)分理論對于界定特定主體的人格序列及立法模式亦具有重要的意義。民事主體存在一個(gè)明顯的序列性規(guī)律,,即從親權(quán)到股份有限公司法人之間存在一個(gè)倫理性遞減和財(cái)產(chǎn)性遞增的趨勢,,其中倫理人格和財(cái)產(chǎn)人格的轉(zhuǎn)換是在自然人身處不同的民事關(guān)系場景中不經(jīng)意間完成的,如民間所言的“親兄弟,,明算賬”即為適切場景,。由此我們可以根據(jù)主體所處序列位置(以“抽象度”為表征)來確定特定主體適用的私法規(guī)則領(lǐng)域,。如對于人格權(quán)而言,,其主體人格仍屬于倫理性人格的范疇,,只是其倫理性較親權(quán)稍弱,但與財(cái)產(chǎn)性人格有本質(zhì)的區(qū)別,,故人格保護(hù)無法在傳統(tǒng)“人法”中解決,,因?yàn)槊穹ㄖ幸浴皺?quán)利能力”為基礎(chǔ)的核心人格理論主要針對的是財(cái)產(chǎn)法人格,,無法調(diào)整倫理性的人格內(nèi)容。同時(shí)亦不能通過侵權(quán)法來獲得完全的保護(hù),,因?yàn)榍謾?quán)法解決不了人格利益的法律內(nèi)涵和人格要素法定的問題,故通過人格權(quán)法來調(diào)整是較為妥當(dāng)?shù)姆椒?。其他如環(huán)境法學(xué)界一直有學(xué)者倡導(dǎo)的“環(huán)境法人”等,由于其針對的主要是財(cái)產(chǎn)責(zé)任和賠償受益對象問題,,故應(yīng)歸入財(cái)產(chǎn)人格序列討論。關(guān)于不同民事主體的序列定位,,下文將會(huì)進(jìn)一步涉及,。 上述關(guān)于倫理人格和財(cái)產(chǎn)人格相區(qū)分的討論,對于人工智能法律主體地位的探討亦具有重要意義,,并將構(gòu)成未來研判人工智能法律地位問題的理論框架,。值得注意的是,人工智能在主體領(lǐng)域正在同時(shí)沿著兩種人格路線展開,,并展現(xiàn)出不同的理論意趣和走向,對此下文將分別進(jìn)行闡述,。二,、倫理性人格:人工智能作為新的智能種群?

當(dāng)前人工智能的快速發(fā)展,客觀上激發(fā)了當(dāng)代社會(huì)對于人工智能具有類人智慧,,甚至越過“奇點(diǎn)”成為超級人工智能的想象,。過去的幾十年里倫理學(xué)和社會(huì)學(xué)對此進(jìn)行了大量的前瞻性研究,而法學(xué)界則相對保守,,對于人工智能能否成為具有人類意識(shí)的獨(dú)立主體一直持審慎態(tài)度,,其中,人工智能是否具有人類理性或自我意識(shí)又是重要關(guān)切點(diǎn),。

(一)理性抑或自我意識(shí),?

人類具有與生俱來的理性能力是近代法律建立的重要理論前提,它決定了法律主體固有的理性基礎(chǔ)和道德實(shí)踐能力,,近代私法和經(jīng)濟(jì)學(xué)均將理性人假設(shè)作為社會(huì)主體的理論基礎(chǔ),。當(dāng)前人工智能是否具有人類的理性與能否成為倫理主體具有直接關(guān)系。從目前的智能程度上看,,人工智能已表現(xiàn)出類似人類的“理性”能力,,如自2016年谷歌開發(fā)的“AlphaGo”戰(zhàn)勝韓國選手李世石之后,ChatGPT生成式大模型系列在應(yīng)對人類重要考試中陸續(xù)超過人類,,據(jù)稱新近發(fā)布的ChatGPT-4o1在“推理”方面已經(jīng)達(dá)到博士能力水平,。這種計(jì)算智能還將在算力,、算法和數(shù)據(jù)的增強(qiáng)和優(yōu)化下繼續(xù)發(fā)展進(jìn)化。理性能力在傳統(tǒng)理論中是相對于非理性行為(如情緒,、欲望等)而言的,,它體現(xiàn)在對客觀事物的感知、辨識(shí)以及推理和選擇能力,。就此而言,,計(jì)算智能似乎符合人類理性的表面特征,它們均以冷峻的,、一絲不亂的程序執(zhí)行者著稱,,但以此認(rèn)定人工智能具有人類理性還遠(yuǎn)遠(yuǎn)不夠。其原因在于,,人類的理性能力可以自然延伸至道德能力上,,對此人工智能尚不具備;另外,,人類的理性能力意味著人類能夠內(nèi)觀反省自身,,認(rèn)識(shí)到自己的存在,并通過調(diào)整來完善自身,,這一點(diǎn)當(dāng)前的人工智能亦不具備。由于人工智能算法由人類設(shè)定,,也是人類理性的延伸,,故“理性”標(biāo)準(zhǔn)在衡量人工智能主體性上并不是一個(gè)好用的概念,,實(shí)際上按照笛卡爾的“我思故我在”標(biāo)準(zhǔn),,主體只有在意識(shí)到自己思考時(shí),,才能成為理性人,,法律真正應(yīng)該關(guān)注的其實(shí)是人工智能是否具有“自我意識(shí)”,。 關(guān)于人工智能可否具有自我意識(shí),,目前理論界和產(chǎn)業(yè)界對此分歧甚大,。如西方人士霍金,、馬斯克以及加拿大學(xué)者杰弗里·辛頓(Geoffrey Hinton)等對人工智能可能進(jìn)化為超過人類的自主意識(shí)體表示深切的擔(dān)憂,,認(rèn)為人類對此應(yīng)高度警惕,提前謀劃應(yīng)對。英美學(xué)者如羅杰·彭羅斯(Roger Penrose)、諾姆·喬姆斯基(Noam Chomsky)以及燕樂存(Yann LeCun)等則認(rèn)為人工智能離具有自我意識(shí)距離尚遠(yuǎn),,甚至在理解、想象,、直覺和創(chuàng)造力上永遠(yuǎn)達(dá)不到人類意識(shí)的水平,。否定的立場大致體現(xiàn)如下:一是人類意識(shí)并不能通過計(jì)算獲得。基于庫爾特·哥德爾(KurtG?del)的自指理論以及“理發(fā)師悖論”,圖靈認(rèn)為計(jì)算機(jī)并不能完全判定自身是否會(huì)“停機(jī)”,這就構(gòu)成算法的根本邏輯局限,類似于人不能反觀自身,,而反觀是自我意識(shí)的基礎(chǔ),。彭羅斯則認(rèn)為意識(shí)不是一個(gè)機(jī)械的計(jì)算過程,而是源于大腦微管中的量子過程,,量子狀態(tài)在量子引力的作用下坍縮,,這一瞬間的變化就是我們意識(shí)體驗(yàn)的來源。二是意識(shí)并不完全來源于大腦,。有學(xué)者認(rèn)為,,意識(shí)沒有存在于大腦中的生理基礎(chǔ),甚至記憶也不存儲(chǔ)于大腦中,。喬姆斯基則認(rèn)為語言能力是人先天的能力,人類意識(shí)只是處于語言思維的表層,,并不完全由基因進(jìn)化決定,,當(dāng)代的機(jī)器學(xué)習(xí)依賴于暴力計(jì)算,并沒有真正的思維和意識(shí)。又如彭羅斯認(rèn)為意識(shí)不僅僅是大腦的產(chǎn)物,,它還與宇宙的基本結(jié)構(gòu)有深刻的聯(lián)系,意識(shí)在某種程度上影響著現(xiàn)實(shí)的結(jié)構(gòu),并意味著主觀現(xiàn)實(shí)和客觀現(xiàn)實(shí)之間的界限變得模糊了。三是機(jī)器學(xué)習(xí)只是軟件的暴力計(jì)算,目前看不到它會(huì)發(fā)展到人類意識(shí)的跡象,。如燕樂存認(rèn)為,目前的生成式大模型尚缺乏人類基本的推理,、想象和長久記憶能力,。亦有一些學(xué)者認(rèn)為,,大型神經(jīng)網(wǎng)絡(luò)算法只是面對過去的事實(shí)數(shù)據(jù),,無法提供面向未來的想象力和創(chuàng)造力,算法仍無法脫離人類意志的支配,。與此相反,,肯定的立場則更多地集中在工程學(xué)上,,以探討意識(shí)與智能,、體驗(yàn),、情感等的區(qū)別和上述事物的生成機(jī)制為核心,并形成了豐富的實(shí)踐性理論和流派,在此不一一贅述。 從認(rèn)知科學(xué),、腦科學(xué)和量子科學(xué)等角度探討人類意識(shí)問題,屬于純粹科學(xué)探究,,但對于法學(xué)研究人工智能主體問題卻是必要的,。因?yàn)槿斯ぶ悄堋耙庾R(shí)”問題是當(dāng)前人工智能領(lǐng)域的新關(guān)口,它直接決定了人工智能未來的發(fā)展趨勢和角色定位,。雖然目前關(guān)于人工智能能否具有自我意識(shí)尚未有定論,,但隨著科學(xué)的發(fā)展并非完全不可能,只是生物意識(shí)和硅基意識(shí)有可能分享不同的技術(shù)路線,。目前人工智能因快速發(fā)展而呈現(xiàn)出來的高度“自主性”和“智能性”,,讓人們對大型數(shù)字復(fù)雜系統(tǒng)涌現(xiàn)出類似“意識(shí)”的事物充滿期待。當(dāng)然在目前人工智能未具備人類意識(shí)的情形下,,法律還無法將其直接賦予倫理人格,,但以深度學(xué)習(xí)為標(biāo)志的具身機(jī)器人已然出現(xiàn)在社會(huì)生活的各個(gè)領(lǐng)域中,并為我們提出了有關(guān)科技倫理和人機(jī)倫理的現(xiàn)實(shí)問題,。

(二)科技倫理和人機(jī)倫理

在人工智能是否具有類人意識(shí)尚不確定的情形下,,當(dāng)今人工智能發(fā)展的倫理治理已經(jīng)被提上日程。人工智能倫理相對于法律而言,,更多地是鼓勵(lì)科技向善,,促使業(yè)界制造出可信的、安全的以及負(fù)責(zé)任的人工智能,。無論是人際間的倫理規(guī)范,,還是種群間、人機(jī)間的倫理規(guī)范,,其核心要義均在于踐行對人類,、生物種群以及特定智能體的尊重,大多數(shù)倫理規(guī)范無法直接上升到強(qiáng)制性的法律層面,。就人工智能倫理而言,目前存在著兩個(gè)維度的倫理要求:一是約束人類開發(fā)行為的科技倫理,,一是關(guān)于人類如何對待機(jī)器人,,并與機(jī)器人的和諧相處的人機(jī)倫理,以下簡述之,。 人工智能的科技倫理目前仍以人類中心主義為依托,,旨在避免人工智能對人類和社會(huì)造成傷害。在谷歌公司將“別作惡”(Don’t be evil)作為公司的座右銘之后,,當(dāng)今較有影響力的人工智能倫理為一群美國科學(xué)家倡導(dǎo)的《阿西洛瑪人工智能準(zhǔn)則》(2015—2017),,該準(zhǔn)則共23條,最后5條明確體現(xiàn)為對超級智能的預(yù)知和應(yīng)對。近幾年國際組織如歐盟,、美國電氣工程協(xié)會(huì)(IEEE)以及各大公司等都提出了自身的人工智能道德框架,,中國也于2019年發(fā)布了《人工智能北京共識(shí)》。上述倡議存在的一個(gè)共同點(diǎn)是可操作性甚弱,,與技術(shù)實(shí)施并不同步,。如美國科幻作家阿西莫夫在1939年即提出了“機(jī)器人三定律”,成為當(dāng)時(shí)對人類和機(jī)器人保護(hù)的基本理念,,但事實(shí)上人工算法在技術(shù)層面上并不能達(dá)到上述要求,,如僅僅就判斷是否對人類造成“傷害”而言,人工智能就不能在編碼中考慮到所有的相關(guān)因素,,并選擇唯一的行為來達(dá)到目的,。“電車難題”則又是另一個(gè)倫理命題,,它要求人工智能具備一定的道德實(shí)踐能力,,但法律對人類通過考試獲得駕照都不做如此要求,要求人工智能解決上述問題離現(xiàn)實(shí)生活過遠(yuǎn),,且這一倫理難題并沒有統(tǒng)一答案,,發(fā)生的機(jī)率甚微。實(shí)際上基于對不確定未來的設(shè)想,,科技倫理目前承載了太多口號性的內(nèi)容,,在發(fā)展階段對人工智能要求過高,如要求人工智能具有道德實(shí)踐能力等,,這是不符合目前行業(yè)發(fā)展實(shí)際的,。 針對上述問題,一個(gè)合理的做法是先確定人工智能可能對人類帶來的諸種負(fù)面影響,,再通過技術(shù)上的要求來對科技倫理予以具體化,。當(dāng)前人工智能對人類社會(huì)帶來的負(fù)面影響體現(xiàn)在如下方面:①人工智能帶來的失業(yè)問題;②算法異化問題,,即算法改變?nèi)说墓ぷ餍再|(zhì),,使人成為算法的奴隸;③人的基本權(quán)利受侵害的風(fēng)險(xiǎn),,這主要體現(xiàn)在人類通過各種風(fēng)險(xiǎn)評估工具(如危害評估和預(yù)測警務(wù)工具等),,在決定是否對人實(shí)施法律手段時(shí)代替人做出判斷,侵害基本人權(quán),;④機(jī)器人殺手問題,,即用當(dāng)代無人機(jī)等作為自主殺人武器,用于戰(zhàn)場和犯罪活動(dòng),;⑤算法偏見問題,,即由于數(shù)據(jù)集的偏差以及設(shè)計(jì)算法的人本身的偏見,,導(dǎo)致算法輸出的結(jié)果對特定人群造成不公平的傷害;⑥人工智能造假,,當(dāng)前的算法通過自動(dòng)化推薦為用戶構(gòu)造了一個(gè)與現(xiàn)實(shí)不同的“信息繭房”,,為用戶制造了一個(gè)虛假的世界,同時(shí)目前也存在一些軟件通過“深度合成”技術(shù)制造出假視頻,、假新聞,,制造社會(huì)輿情混亂。上述負(fù)面影響是目前人工智能應(yīng)用帶來的實(shí)際后果,,除了失業(yè)問題外,,這些后果都是通過算法來實(shí)現(xiàn)的,而人是算法的設(shè)計(jì)者,,故有效的科技倫理應(yīng)主要側(cè)重于算法設(shè)計(jì)者的倫理約束上,。具體表現(xiàn)在:①解釋義務(wù),即算法設(shè)計(jì)者需要對算法針對他人的決策和行動(dòng)做出合理解釋,,但這在機(jī)器深度學(xué)習(xí)(尤其是無監(jiān)督學(xué)習(xí))時(shí)代存在挑戰(zhàn),;②設(shè)計(jì)人責(zé)任,即人工智能目前尚不能成為道德智能體,,軟件本身并不能被追究責(zé)任,,與算法相關(guān)的責(zé)任只能由設(shè)計(jì)者承擔(dān);③透明度原則,,即算法所使用的數(shù)據(jù)來源是明確的,、可獲取的,算法本身對用戶而言也是清楚明晰的,??傊ㄟ^對算法的倫理約束,,機(jī)器人造成的風(fēng)險(xiǎn)和危害能得到最大限度的抑制,。 人機(jī)倫理則是關(guān)于人機(jī)如何共處的倫理問題,是人類歷史上前所未有的人與機(jī)器之間的良性互動(dòng)和信任達(dá)成問題,?;谏疃葘W(xué)習(xí)技術(shù),具身機(jī)器人成為未來人工智能發(fā)展的主流方向,,亦是人機(jī)倫理著重關(guān)注的對象,。倫理學(xué)界較早地涉及到“機(jī)器人權(quán)利”這一領(lǐng)域,他們重點(diǎn)關(guān)注機(jī)器人是否可能享有某種被尊重的權(quán)利,,不被人類濫用、奴役或虐待,。具體而言,,在情感機(jī)器人,、助老機(jī)器人和電子寵物的使用情境中,涉及到人的情感依賴問題,,甚至有可能動(dòng)搖傳統(tǒng)社會(huì)的兩性關(guān)系和婚姻關(guān)系(如情侶機(jī)器人),。雖然機(jī)器人是否享有“有限”的道德權(quán)利目前尚缺乏確定的理論基礎(chǔ),但在主客支配關(guān)系前提下,,我們還是能夠提供兩個(gè)正當(dāng)性理由:一是由動(dòng)物享有的“道德”權(quán)利帶來的啟示,,一是機(jī)器人所具有的“高度”智能,這兩者分別在“生命”和“智能”上與人類相似,。在目前機(jī)器人智能尚未達(dá)到強(qiáng)人工智能的階段,,針對機(jī)器人倫理的研究實(shí)際上仍處于人類中心主義的話語體系中,其本質(zhì)仍然是在規(guī)范人類自身,,引導(dǎo)人類善待機(jī)器人,,并給機(jī)器人足夠的發(fā)展空間。如果未來真有具有“自我意識(shí)”的超級人工智能出現(xiàn),,那么人機(jī)倫理的敘事方式就會(huì)改變,,屆時(shí)人與機(jī)器的支配關(guān)系將會(huì)逆轉(zhuǎn)為兩個(gè)智能“種群”的關(guān)系,新的“社會(huì)”契約將會(huì)以無法預(yù)知的方式上演,。三,、技術(shù)性人格:責(zé)任主體和權(quán)利主體

技術(shù)性人格指的是人工智能在財(cái)產(chǎn)領(lǐng)域的人格表現(xiàn),它主要是為了在技術(shù)上解決人工智能帶來的責(zé)任承擔(dān)和權(quán)利歸屬問題,。這些問題目前已經(jīng)大量發(fā)生,,并引起了學(xué)界和業(yè)界的普遍關(guān)注,主要集中在智能助手,、機(jī)器人侵權(quán)領(lǐng)域以及機(jī)器人創(chuàng)作領(lǐng)域,。目前學(xué)界對于機(jī)器人主體地位的研究主要體現(xiàn)在財(cái)產(chǎn)法領(lǐng)域,鮮少涉及對于倫理性人格的訴求,。倡導(dǎo)機(jī)器人享有某種法律主體地位的法律主張是基于一個(gè)共同的,、特定的技術(shù)事實(shí),即因機(jī)器人顯著的“自主性”而產(chǎn)生的“自動(dòng)化風(fēng)險(xiǎn)”,,它的行為后果已經(jīng)不能被自然人的“過錯(cuò)”規(guī)則所涵蓋,。基于此,,國外有專家提出了賦予機(jī)器人主體地位的兩難困境:一方面,,將機(jī)器人當(dāng)作“主體”缺少事實(shí)基礎(chǔ),因?yàn)槟壳皺C(jī)器人確實(shí)不能算是“人”,;另一方面,,一旦把機(jī)器人當(dāng)作主體,又會(huì)面臨機(jī)器人是否享有自然人的公法權(quán)利,、親權(quán)和人格權(quán)等問題,,顯然又失之過寬。這種“兩難”困境實(shí)際上并不確定存在,。如果我們能夠按照上文所提出的兩種人格區(qū)分理論進(jìn)行理解,,其并不會(huì)成為理論難題,,因?yàn)樵谪?cái)產(chǎn)法上通過擬制賦予某種實(shí)體以“人格”,并不一定要求該實(shí)體是自然人,;同時(shí)該實(shí)體具有某種形式化的財(cái)產(chǎn)人格以后,,也不一定享有以生命形式存在的自然人的倫理人格權(quán)利。將這種主體資格定位于純粹技術(shù)性財(cái)產(chǎn)人格領(lǐng)域就可以順利解決上述問題,,這也是本文反復(fù)強(qiáng)調(diào)兩種人格區(qū)分的重要原因,。人工智能的技術(shù)性人格目前體現(xiàn)在兩個(gè)場景,,一是對于責(zé)任分擔(dān)主體的訴求,一是對于人工智能作品的權(quán)利主體地位的探討,,兩者在理論邏輯上并不重合,,亦不屬于同一技術(shù)人格體。

(一)責(zé)任主體

在侵權(quán)責(zé)任認(rèn)定上,,如果依照傳統(tǒng)法律能夠追究設(shè)計(jì)人,、銷售者或使用人的責(zé)任,就不需要機(jī)器人成為責(zé)任主體,。如上文所述,機(jī)器人獨(dú)立承擔(dān)責(zé)任乃源于不可控制的“自動(dòng)化風(fēng)險(xiǎn)”,,它是在與機(jī)器人相關(guān)的民事主體不存在過錯(cuò)的情形下產(chǎn)生的,。這里的“責(zé)任主體”的在民法上應(yīng)屬于主體的“行為能力”范疇,,“行為能力”在民法上既包括從事合法行為的能力,,又包括對不法后果承擔(dān)責(zé)任的能力,責(zé)任能力屬于后者,。但機(jī)器人是否同時(shí)享有“權(quán)利能力”,,按照傳統(tǒng)理論似乎應(yīng)當(dāng)做出肯定的回答,因?yàn)樵诿穹ㄉ蠙?quán)利能力是行為能力的前提,但在人工智能上卻不一定如此,,這也反映出高度自動(dòng)化智能給法律帶來的理論挑戰(zhàn),。以下以智能合同和機(jī)器人侵權(quán)為例來做簡要分析,。 智能助手既包括如亞馬遜的“Echo”或蘋果的“Siri”等虛擬助手,也包括機(jī)器人管家等具身機(jī)器人,,它們的共同特點(diǎn)是能夠?yàn)橹魅藦氖轮T如網(wǎng)絡(luò)預(yù)訂,、購物等民事行為。智能助手在實(shí)際工作中帶來的問題是,,它常常會(huì)給使用人帶來不必要或“錯(cuò)誤”的訂單,,這就涉及到合同的效力問題。一般來說,,機(jī)器人只是聽從人類的指令行事,,所以在法律上沒有必要將其作為合同主體,但交易卻是由機(jī)器人操作完成的,,那么在民法上就存在是否可以適用代理關(guān)系的問題,。在代理關(guān)系中,意思表示的傳達(dá)和接受都要求雙方具有法律主體必備的“意思能力”,,但智能助手除了按指令和程序行事外,,并沒有超出特定事項(xiàng)的“意思能力”,另外即使智能助手能成為代理人,,也無法承擔(dān)無效代理的法律后果,,故賦予其主體地位顯然用力過猛了。對于自動(dòng)化和程式化交易,,我們很難以“錯(cuò)誤”或“誤解”為由來對交易相對人主張合同效力存在瑕疵,,除非明顯存在其他的指令人如“黑客”或“幼兒”等。故依合同主體和代理人來界定智能助手的地位,,都不能與傳統(tǒng)民法理論很好地融合,。實(shí)則這里面涉及到的根本問題在于,用戶對于因智能助手不合預(yù)期的交易造成的損失由誰承擔(dān),?對此傳統(tǒng)的法律無法自行解決,,從而形成了新的“責(zé)任漏洞”。有德國學(xué)者反復(fù)提出通過“部分權(quán)利能力”來解決機(jī)器人代理問題,,但主體的此種界定亦無法解決責(zé)任承擔(dān)的問題。實(shí)際上由智能助手來承擔(dān)合同責(zé)任目前看來是不可能的,,在針對機(jī)器人的新的責(zé)任模式被創(chuàng)造出來以前,只能由用戶自己承擔(dān)。 侵權(quán)責(zé)任則是學(xué)界和業(yè)界更為關(guān)注的問題,,因?yàn)闄C(jī)器人造成的損害在可預(yù)期的范圍內(nèi)日益增多,,如機(jī)器看護(hù)有可能對家庭成員造成人身或財(cái)產(chǎn)損害,醫(yī)療機(jī)器人會(huì)造成自主范圍內(nèi)的醫(yī)療事故,,自動(dòng)駕駛亦會(huì)因交通事故對乘客或行人造成傷害等,,都會(huì)產(chǎn)生新的侵權(quán)責(zé)任問題。這方面的案例和討論頗多,,本文不作具體分析,。總的說來,,基于“自動(dòng)化風(fēng)險(xiǎn)”帶來的侵權(quán)風(fēng)險(xiǎn),,國內(nèi)外學(xué)界傾向于通過“替代責(zé)任”和“危險(xiǎn)責(zé)任”來追究侵權(quán)責(zé)任。前者主要是類比監(jiān)護(hù)責(zé)任和雇主責(zé)任,,后者主要是類比動(dòng)物責(zé)任和高度危險(xiǎn)責(zé)任,,基本上都是通過嚴(yán)格責(zé)任來防范自動(dòng)化風(fēng)險(xiǎn),。但替代責(zé)任面臨的障礙是,,人工智能并不能像未成年人或雇工一樣,他們的行為可被充分預(yù)見并可以被有效控制,,它涉及的主體和環(huán)節(jié)過多,,很難通過界定自然人的“注意”義務(wù)來確定合適的責(zé)任主體。另外,,這里還要首先解決一個(gè)人工智能自身是否已經(jīng)具有某種“人格”這一前置判斷問題,。“危險(xiǎn)責(zé)任”面臨的困難則在于,,人工智能不似“動(dòng)物”具有獨(dú)立生命且不可控制,,而是由人類設(shè)計(jì)創(chuàng)造并服務(wù)于人類,實(shí)際上它在應(yīng)用中并不“危險(xiǎn)”,,其安全性甚至普遍高于人類(如無人駕駛),,采用危險(xiǎn)責(zé)任會(huì)對技術(shù)創(chuàng)新產(chǎn)生負(fù)面影響,并且面臨風(fēng)險(xiǎn)轉(zhuǎn)嫁,、保險(xiǎn)費(fèi)用高昂等問題,。嚴(yán)格責(zé)任對于人工智能來說并非靈丹妙藥,其原因在于,,作為當(dāng)代智能工具,,人工智能總體上仍然由人類設(shè)計(jì)和支配,且處于技術(shù)進(jìn)化過程中,它產(chǎn)生的一些不可預(yù)知的風(fēng)險(xiǎn),,也只能通過技術(shù)進(jìn)步來解決,,責(zé)任追究應(yīng)朝著促進(jìn)技術(shù)進(jìn)步的方向發(fā)展;通過強(qiáng)制保險(xiǎn)和賠償基金池等完全由社會(huì)分?jǐn)傦L(fēng)險(xiǎn)的做法,,無助于促進(jìn)開發(fā)者通過技術(shù)進(jìn)步來減少甚至消除風(fēng)險(xiǎn)的發(fā)生,。基于此,,有學(xué)者提出人工智能侵權(quán)責(zé)任仍應(yīng)堅(jiān)持傳統(tǒng)侵權(quán)法的原理,,通過產(chǎn)品責(zé)任規(guī)則來追究開發(fā)者的侵權(quán)責(zé)任,通過過錯(cuò)規(guī)則來追究使用者的侵權(quán)責(zé)任,。這種理念在目前情況下仍然具有一定的合理性。 現(xiàn)在回到人工智能的財(cái)產(chǎn)性人格問題,。賦予人工智能財(cái)產(chǎn)性人格完全是另外一個(gè)思路,,它意圖通過機(jī)器人的獨(dú)立責(zé)任使其他主體從侵權(quán)責(zé)任中解脫出來。這種思路仍然是通過類比“自然人”或“法人”的財(cái)產(chǎn)性人格來確立一個(gè)新型的機(jī)器人“人格”,。在技術(shù)上擬制一個(gè)法律人格并沒有理論上的障礙,,但跟倫理人格不同,,技術(shù)人格具有強(qiáng)烈的目標(biāo)導(dǎo)向,,即法律通過某種程度上不存在的“人格”來解決財(cái)產(chǎn)問題。顯然機(jī)器人的財(cái)產(chǎn)人格并不能做到這一點(diǎn),,具體原因在于:一是獨(dú)立的機(jī)器人并沒有社會(huì)交往的獨(dú)立意思表示能力,。機(jī)器人不似法人,法人雖然亦沒有“法人”自身的意思表示能力,,但它可以通過內(nèi)部治理機(jī)制中自然人的組合產(chǎn)生出意思表示能力,。當(dāng)前的弱人工智能尚不能脫離人類指令自由交往,并形成自主財(cái)產(chǎn)關(guān)系,。二是單個(gè)的機(jī)器人沒有獨(dú)立財(cái)產(chǎn)和責(zé)任能力,。由于機(jī)器人缺乏倫理人格,,故不能獲得屬于自身的財(cái)產(chǎn),,法律上設(shè)計(jì)的最低資產(chǎn)要求或者強(qiáng)制責(zé)任保險(xiǎn)都是由相關(guān)參與人(生產(chǎn)者、所有者或使用者)貢獻(xiàn)的,,機(jī)器人并沒有實(shí)際承擔(dān)任何責(zé)任,。三是機(jī)器人的財(cái)產(chǎn)人格無助于促進(jìn)技術(shù)進(jìn)步來預(yù)防損害的發(fā)生。即通過機(jī)器人獨(dú)立承擔(dān)責(zé)任將開發(fā)者從責(zé)任中解放出來,不僅無助于技術(shù)開發(fā)者通過技術(shù)進(jìn)步來預(yù)防損害的發(fā)生,,而且對機(jī)器人的未來重復(fù)侵權(quán)行為毫無作為,。四是除了財(cái)產(chǎn)責(zé)任外,法律無從對機(jī)器人直接追責(zé)和懲罰,,比如包括法律上的停止侵害,、消除危險(xiǎn)、賠禮道歉等救濟(jì)手段,,以及刑事責(zé)任的追究等,,都無法實(shí)現(xiàn)??偠灾?,目前探討賦予機(jī)器人財(cái)產(chǎn)性人格尚為時(shí)過早,機(jī)器人給我們制造了一個(gè)同時(shí)兼具倫理人的形象和工具人的功能的綜合性幻象,,使我們時(shí)常在兩者之間來回跳躍,,但可以肯定的是,在具有自我意識(shí)的人工智能出現(xiàn)之前,,為一個(gè)單獨(dú)的,、沒有“自然人”和“自身財(cái)產(chǎn)”依托的人工智能機(jī)器賦予技術(shù)性人格,可能性甚微,。

(二)權(quán)利主體

上文主要是從承擔(dān)侵權(quán)責(zé)任的角度,,論述了機(jī)器人作為責(zé)任主體的理論困境。與此同時(shí),,當(dāng)前在生成式大模型領(lǐng)域卻存在著人工智能的權(quán)利主體問題,,即ChatGPT系列可否對其生成出來的文字、視頻等作品享有知識(shí)產(chǎn)權(quán),。此處的“權(quán)利”主體與上文中的“責(zé)任”主體并不屬于同一語境,,前者蘊(yùn)含的“創(chuàng)作者”帶有較強(qiáng)的主體性人格色彩,且以權(quán)利能力作基礎(chǔ),;后者則完全以責(zé)任承擔(dān)為導(dǎo)向,,僅作為侵權(quán)責(zé)任風(fēng)險(xiǎn)化解的工具存在,不以權(quán)利能力為基礎(chǔ),,但在人格區(qū)分中都屬于技術(shù)性人格范疇,。目前關(guān)于人工智能著作權(quán)的理論探討主要集中在兩個(gè)方面,即作品的“可作品性”和人工智能的“可主體性”,,這兩個(gè)方面緊密聯(lián)系且相互影響,,實(shí)際上可歸結(jié)為同一個(gè)理論基礎(chǔ),即是由主體性決定作品性,,還是由作品性決定主體性,。限于篇幅,,下文簡述之。 就第一個(gè)問題即人工智能生成的作品是否構(gòu)成著作權(quán)法上的“作品”而言,,目前在理論上贊成者居多,。其主要理由在于,人工智能生成的作品具有獨(dú)創(chuàng)性和藝術(shù)審美價(jià)值,,符合法律上對作品的基本要求,,通過著作權(quán)保護(hù)可以達(dá)到鼓勵(lì)創(chuàng)新的目的;反對的理論較少,,主要還是認(rèn)為創(chuàng)作是專屬于人的活動(dòng),,給機(jī)器生成作品賦予著作權(quán)會(huì)陷入“有成果必有作者”之謬誤。從客觀形式上看,,機(jī)器生成的作品無疑具有與人類作品相似的稀缺性和社會(huì)價(jià)值,,甚至“藝術(shù)”水準(zhǔn)還要高于人類,故問題的焦點(diǎn)不在于“作品”本身,,而在于是否可納入著作權(quán)范疇予以保護(hù),。顯然,從外在作品形式角度就認(rèn)定機(jī)器生成的作品屬于著作權(quán)法上的“作品”,,有些過于簡單了,它給我們帶來的挑戰(zhàn)應(yīng)在“作品”之外,,體現(xiàn)如下: 一是對作品予以著作權(quán)保護(hù)是近代印刷術(shù)和工業(yè)革命興起后的產(chǎn)物,,它具有特定的歷史和技術(shù)背景,在歷史上的絕大多數(shù)時(shí)期人類的創(chuàng)作作品并沒有受到法律保護(hù),,而是由人類成員自由分享,。二是近代以來法律對“作品”的保護(hù)主要是激勵(lì)創(chuàng)新,促進(jìn)藝術(shù)文化的繁榮,,但事實(shí)上著作權(quán)法并沒有做到這一點(diǎn),。盡管法律強(qiáng)調(diào)“作品”的獨(dú)創(chuàng)性不在于客觀的和歷史的創(chuàng)造性,而在于基于人類心理和思維個(gè)性的“心理創(chuàng)造性”,,但很顯然當(dāng)今著作權(quán)幾乎對所有個(gè)人創(chuàng)造的作品(包括正式和非正式,、生活和職業(yè)、有價(jià)值或無價(jià)值等)都予以保護(hù),,沒有任何客觀價(jià)值的“門檻”,,其激勵(lì)創(chuàng)新的功能讓人懷疑。三是如果認(rèn)為“非人”創(chuàng)造的作品亦成為著作權(quán)法上的作品,,那么可以想象,,大自然為人類創(chuàng)造了無與倫比的自然作品,動(dòng)物亦為人類創(chuàng)造了豐富的生態(tài)作品,,并成為人類在觀光旅游中欣賞的對象,,是否亦應(yīng)為之設(shè)定一個(gè)“作品”和“作者”呢,?四是通過“作品”保護(hù)機(jī)器人生成物,并不能有效維持目前的人類作品保護(hù),。它給我們帶來的啟示是,,機(jī)器人以大規(guī)模的“創(chuàng)作”取代了人類通常水準(zhǔn)的創(chuàng)作,并使人類只有通過高水準(zhǔn)的創(chuàng)作才能獲得社會(huì)認(rèn)同和經(jīng)濟(jì)利益,,這就如同傳統(tǒng)社會(huì)的藝術(shù)家和工匠,,近代機(jī)器化生產(chǎn)取代了大部分工匠的工作,藝術(shù)家只有專注于獨(dú)特性和高水準(zhǔn)的創(chuàng)作才能獲得社會(huì)的青睞,。除此之外,,尚有作品法律保護(hù)可能性的問題,如傳統(tǒng)版權(quán)是通過出版環(huán)節(jié)的版稅來實(shí)現(xiàn)經(jīng)濟(jì)利益的,,互聯(lián)網(wǎng)時(shí)代這一環(huán)節(jié)很大程度上被電子化了,,這意味著作品通過類似紙質(zhì)時(shí)代“鎖定”作品利益的方式會(huì)被無差別的網(wǎng)絡(luò)分享所沖擊,對于人工智能作品而言,,它在系統(tǒng)里隨時(shí)大規(guī)模地生成,、復(fù)制和流動(dòng),作品的確權(quán)和利益實(shí)現(xiàn)缺少穩(wěn)定可靠的“鎖定”方式,,作品會(huì)慣常性地溢出到公共領(lǐng)域,。基于以上考慮,,通過所謂的“作品”來決定“主體”的方式并不完全符合社會(huì)和生活常識(shí),,甚至有些本末倒置。 就第二個(gè)問題即人工智能是否可以成為作品主體而言,,由于上文已對機(jī)器作品的“可作品”性進(jìn)行了質(zhì)疑,,故主體性問題相應(yīng)地也不會(huì)存在。但為了使問題更清晰,,不妨也從主體角度來做一番設(shè)想,。設(shè)若我們將人工智能作為創(chuàng)作主體,,它會(huì)面臨以下困難:一是人工智能在目前的技術(shù)條件下無法自主創(chuàng)作,它是人類設(shè)計(jì)出來的智能工具,,并接受人類的指令自動(dòng)生成作品,。二是人工智能目前缺少自我意識(shí)、想象力和直覺,它生成的作品可能具有歷史創(chuàng)新性,,但絕對缺少心理創(chuàng)造性,而后者是“作品”的靈魂,。三是人工智能作為創(chuàng)作人,與著作權(quán)服務(wù)于人際域的初衷相違,。著作權(quán)是人類的創(chuàng)造并服務(wù)于人類,,它調(diào)整的是人際關(guān)系中的創(chuàng)新激勵(lì)和利益分配,,也是私法在近代的權(quán)宜性創(chuàng)造,它不似財(cái)產(chǎn)和人格具有歷史縱深感,而是可供取舍的技術(shù)性的權(quán)利。故著作權(quán)理論不能改變自身小口徑之外的大口徑問題,有關(guān)機(jī)器人人格和財(cái)產(chǎn)的相關(guān)問題應(yīng)當(dāng)在基礎(chǔ)法理層面上予以深入探討。四是人工智能作為創(chuàng)作人,,并不能實(shí)實(shí)在在地享有和行使權(quán)利,亦不能因此承擔(dān)責(zé)任,。 基于此,,學(xué)界將目標(biāo)轉(zhuǎn)移至人工智能的用戶上,以論證用戶取得作品著作權(quán)的合理性。關(guān)于此問題的討論甚多,在此僅簡要陳列幾項(xiàng)主要理論障礙:一是用戶的創(chuàng)作行為并沒有被有效坐實(shí),。將通過指令,、提示以及參數(shù)設(shè)定等方式由機(jī)器人生成的作品,,歸之為用戶的創(chuàng)作,,失之勉強(qiáng),,為眾多案例和學(xué)者所不認(rèn)同,。二是人工智能生成作品,取決于投資人,、開發(fā)人,、所有人和用戶等多個(gè)主體的共同貢獻(xiàn),其中開發(fā)者的貢獻(xiàn)應(yīng)占主導(dǎo)地位,,故人為設(shè)定用戶為主體失之武斷,。人工智能是復(fù)雜的技術(shù)綜合體,我們無法在錯(cuò)綜復(fù)雜的“主體”叢林中任意指定一個(gè)創(chuàng)作人,。三是如果指定用戶作為著作權(quán)人,,那么他應(yīng)同時(shí)承擔(dān)與作品相關(guān)的責(zé)任。如果機(jī)器人作品中涉及到侵害他人著作權(quán)的行為,,用戶作為創(chuàng)作人就應(yīng)當(dāng)應(yīng)承擔(dān)相關(guān)責(zé)任,,試問這種情況該如何處理?其他不一一贅述,。 基于上述分析,,當(dāng)今關(guān)于機(jī)器人作品及主體問題的探討,很大程度上受傳統(tǒng)思維慣性的影響,,即只要存在“作品”,,就會(huì)有“主體”存在,反之亦然,。人工智能的“作品”和“主體”問題實(shí)則為同一問題,,一項(xiàng)不成立應(yīng)當(dāng)隨之導(dǎo)致另一項(xiàng)失效。故人工智能創(chuàng)作是一個(gè)全新的領(lǐng)域,,不一定受傳統(tǒng)規(guī)則的轄制,。我們忽視了除了受現(xiàn)代著作權(quán)保護(hù)的作品外,大量的天然和人工作品自始以來即由人類共同自由分享,,時(shí)代的發(fā)展亦促使人類在人工智能時(shí)代創(chuàng)造出新的創(chuàng)作激勵(lì)機(jī)制,,而非將有益于人類的機(jī)器人作品人為地納入現(xiàn)有權(quán)利框架,以迎合傳統(tǒng)社會(huì)對所有的所謂人類“作品”予以平面化和普惠化保護(hù)的低水平需求,。這一部分主要探討的是人工智能能否成為“權(quán)利”主體的問題,,此處以著作權(quán)為例所做的分析,亦大部分適用于其他“權(quán)利”場合,??偨Y(jié)本部分的論述,一言以蔽之,,將人工智能作為技術(shù)人格中的責(zé)任主體和權(quán)利主體,,目前并沒有任何成功案例和成功征兆,除非具有自我意識(shí)的強(qiáng)人工智能出現(xiàn),。四,、未來人工智能兩種人格融合的抽象度分析和展望

通過上文的分析,我們大致了解了目前賦予人工智能兩種人格面臨的理論和實(shí)際困難,,但這并不意味著未來一直如此,。隨著智能科學(xué)的發(fā)展以及人類對意識(shí)大一統(tǒng)理論的探索,人工智能成為新興的,、具有自我意識(shí)的智能體并非完全不可能,,故我們應(yīng)以開放的眼光看待人工智能的未來?;谶@種愿景,,在此我們可以嘗試對強(qiáng)人工智能時(shí)代的機(jī)器人人格作一個(gè)前瞻式的預(yù)想,即假設(shè)人工智能具有真正類人的智能,,那么它將具有何種法律上的人格形態(tài),,以及兩種人格將以何種方式融合并呈現(xiàn)。這就涉及一個(gè)傳統(tǒng)民法上的人格融合問題,,主要體現(xiàn)在自然人領(lǐng)域,。通過第一部分的分析,我們了解到民法上實(shí)際存在著涇渭分明的兩類人格,,但由于民法理論和結(jié)構(gòu)并未對此進(jìn)行區(qū)分,,加之親屬法和人格法體量較小,兩種人格被人為地統(tǒng)一于具有財(cái)產(chǎn)法人格底蘊(yùn)的“權(quán)利能力”之下,,致使兩種人格在自然人上呈現(xiàn)出一種融合或糾纏的狀態(tài),,并體現(xiàn)為一種位于倫理性和財(cái)產(chǎn)性之間的序列人格體,其中法律對于自然人的“抽象度”成為度量人格具體形象的重要指標(biāo),?;诖耍磥砣斯ぶ悄苁欠褚矔?huì)呈現(xiàn)同樣的特征,以及呈現(xiàn)何種人格融合狀態(tài),,值得我們思考,。以下就傳統(tǒng)民法人格和人工智能人格的抽象度問題做一簡述。

(一)傳統(tǒng)民法基于“抽象度”形成的人格序列遞進(jìn)現(xiàn)象

此處所稱人格的“抽象度”,,指的是民法上在對于人格進(jìn)行抽象形成具體人格的過程中主體的被抽象程度,。從傳統(tǒng)民法體系上看,人法部分看似單一,,實(shí)則呈現(xiàn)出從家庭身份到法人直至商法上的上市公司等一系列人格系列,,從親權(quán)到上市公司,其主體形態(tài)已判若云泥,,其中決定這種人格序列順位的是私法對主體的抽象程度,。它意味著從親屬關(guān)系到上市公司經(jīng)歷了法律一次次的抽象,將自然人從現(xiàn)實(shí)中的家庭成員逐步抽象至普遍性的人格權(quán)主體,、自然人財(cái)產(chǎn)主體,、法人財(cái)產(chǎn)主體直至商法上的商主體等。通過法律的逐步抽象,,自然人的生物,、倫理和社會(huì)屬性逐步褪去,逐漸嬗變成無色無味的“抽象人”,,最后在財(cái)產(chǎn)法上“自然人”亦被抽象掉,,成為與法人同等的“符號”化財(cái)產(chǎn)人格。從人到“非人”,、從倫理人至“符號”,,其間經(jīng)歷的一個(gè)實(shí)質(zhì)性斷裂就在于倫理人格完全變成工具性、形式性的人格,。但在民法上這種立體性的人格體系被平面化的統(tǒng)一人格遮蔽了,,致使我們對于親屬法、人格權(quán)法與財(cái)產(chǎn)法的結(jié)構(gòu)區(qū)分失去參考支點(diǎn),,亦導(dǎo)致在論證民法和商法關(guān)系上失去了一個(gè)重要參考因素,。盡管從抽象度上我們可以列舉私法人格的遞進(jìn)序列,但財(cái)產(chǎn)法上的人格抽象還是根本性的,、徹底性的,,它與倫理人格最后仍然保留社會(huì)化場景中自然人的生物性和倫理性品格不同,而是成為一種完全不同的格式化產(chǎn)物,。這種工具人格并不能通用于其他法律領(lǐng)域,,而倫理性人格卻可以與整個(gè)法律體系分享同樣的價(jià)值體系?;诖?,兩種人格的區(qū)分在對私法上的人格體系的解釋上,,既有“漸變”的一面,亦有“突變”的一面,。實(shí)際上我們可以觀察到,,不同的人格對應(yīng)不同的私法規(guī)則體系,這有利于我們從人格譜系角度區(qū)分人身法和財(cái)產(chǎn)法,、民法和商法的大致界限,,亦有利于我們正確理解由兩種人格因素相互滲透帶來的“民法商法化”和“抽象人格具體化”的私法發(fā)展現(xiàn)象,。 對民法上的兩種人格進(jìn)行理論區(qū)分,,并非要刻意將這種區(qū)分絕對化,以解構(gòu)傳統(tǒng)私法的結(jié)構(gòu),。這種區(qū)分類似于幾何學(xué)上的輔助線具有增進(jìn)理解和解決問題的意義,,并不能用來“切割”現(xiàn)實(shí)生活。實(shí)際上,,自然人在私法人格上擔(dān)負(fù)著基礎(chǔ)的功能和角色,,它同時(shí)具備兩種人格生活,并在人格類型間自由切換且應(yīng)付裕如,,并構(gòu)成近代以來市民生活的底色,。就私法價(jià)值體系而言,技術(shù)性人格只是法律的創(chuàng)造,,它解決的只是財(cái)產(chǎn)領(lǐng)域的歸屬和效率問題,,盡管具有刻板化和程式化的特點(diǎn),但最終還是應(yīng)服務(wù)于或回歸于社會(huì)倫理生活中的基本價(jià)值,。如拉倫茨認(rèn)為,,民法最基本的價(jià)值還是在于對他人的尊重。倫理性人格是技術(shù)性人格的基礎(chǔ)和歸宿,,因?yàn)楣ぞ呷烁癫⒉灰笞匀蝗嗽诔匈徫飼r(shí)設(shè)想對方毫無人情可言,,也不會(huì)要求公司在進(jìn)行交易時(shí)完全漠視社會(huì)的禮節(jié)和社會(huì)責(zé)任。一旦技術(shù)人格發(fā)展過快,,脫離社會(huì)基本面并影響社會(huì)正常運(yùn)轉(zhuǎn)時(shí),,技術(shù)人格又將披上社會(huì)化的具象外衣,來平抑這種失衡,。如當(dāng)代民法頻繁關(guān)注諸如消費(fèi)者,、承租人和勞動(dòng)者等交易角色并予以特殊保護(hù),即當(dāng)產(chǎn)生“強(qiáng)而智”之人對“弱而愚”之人的壓迫現(xiàn)象時(shí),,民法對之干預(yù)便成為必要,,它是民法對市民社會(huì)自我修復(fù)功能的體現(xiàn)。但另一方面,,當(dāng)代商業(yè)社會(huì)的發(fā)展又進(jìn)一步重塑了傳統(tǒng)市民社會(huì)的價(jià)值觀念和生活方式,,尤其是互聯(lián)網(wǎng)商業(yè)模式的普及和演化,,使傳統(tǒng)社會(huì)生活和交易的場景化特征完全消失,以“卡通式”形象出現(xiàn)的個(gè)體電商游走于民事人格和商法人格之間,,呈現(xiàn)出“民法商法化”加劇的趨勢,。總體而言,,倫理人格決定技術(shù)人格的底色,,而技術(shù)人格又將重塑倫理人格的內(nèi)涵,是未來私法人格發(fā)展的主旋律,。

(二)未來人工智能私法人格發(fā)展的展望

隨著人工智能的快速發(fā)展,,人工智能在法律上的主體地位問題會(huì)一直存在,并日趨凸顯,。依上文所述,,在缺乏自主意識(shí)的通用人工智能真正出現(xiàn)以前,人工智能主要體現(xiàn)為人類的智能增強(qiáng)工具,,沒有辦法在法律上賦予其獨(dú)立的倫理性人格,,并把它當(dāng)作完全獨(dú)立的倫理主體來認(rèn)定。同時(shí)在技術(shù)性人格的塑造上,,人工智能又面臨如何用自身獨(dú)立財(cái)產(chǎn)來承擔(dān)自主行為的責(zé)任的問題,,因?yàn)閭鹘y(tǒng)民法上的擬制人格最終需要自然人的自由意志和所投入財(cái)產(chǎn)的支撐,即使將人工智能本身當(dāng)作獨(dú)立“財(cái)產(chǎn)”處理,,亦需要自然人意志的支持,。對于未來人工智能而言,它的主體性發(fā)展在法律上呈現(xiàn)兩種人格并行發(fā)展的趨勢,,且相互促進(jìn),。就倫理性人格而言,在通用人工智能出現(xiàn)以前,,各類專門人工智能將日益普遍地?fù)?dān)當(dāng)服務(wù)人類的各種角色,,如上文所述的情侶機(jī)器人、助老機(jī)器人或電子寵物等將更加深入地融入到人類生活,,并產(chǎn)生人機(jī)交互倫理的訴求,,從而客觀上產(chǎn)生是否應(yīng)將機(jī)器人當(dāng)作類似“動(dòng)物”的第三類主體問題。就財(cái)產(chǎn)性人格而言,,盡管目前為促進(jìn)技術(shù)發(fā)展,,尚不能將相關(guān)風(fēng)險(xiǎn)完全拋給社會(huì),財(cái)產(chǎn)人格仍有發(fā)展空間,,只是它的理論基礎(chǔ)與傳統(tǒng)民法擬制人格有所不同,。傳統(tǒng)法人制度依然是自然人和財(cái)產(chǎn)的結(jié)合,通過有限責(zé)任來形成資本融合和風(fēng)險(xiǎn)限定,,而人工智能本身兼具“智能體”和“財(cái)產(chǎn)”的屬性,,只是體現(xiàn)為“個(gè)體”,,與“組織”無關(guān),在人工智能體本身尚不能承擔(dān)責(zé)任且無法由自然人有限分擔(dān)的情形下,,法律可能會(huì)創(chuàng)造出超越“自己”責(zé)任的另一種社會(huì)化風(fēng)險(xiǎn)分擔(dān)方式,,這有點(diǎn)類似于嚴(yán)格責(zé)任對過錯(cuò)責(zé)任的跨越,只是這次的跨度更大,。在人工智能發(fā)展到一定階段,,通過人類的努力已經(jīng)無法由特定主體承擔(dān)由“算法黑箱”產(chǎn)生的自動(dòng)化風(fēng)險(xiǎn),且這種風(fēng)險(xiǎn)通過大型算法的連接已經(jīng)成為系統(tǒng)性的社會(huì)風(fēng)險(xiǎn)時(shí),,基于公共利益的考慮,,一種全新的社會(huì)風(fēng)險(xiǎn)集體承擔(dān)機(jī)制將會(huì)出現(xiàn)。 在兩種人格以及抽象度問題上,,人工智能在法律上與自然人遵循相反的發(fā)展路徑,,即與私法首先將自然人當(dāng)作生物人和社會(huì)人不同,,法律對于人工智能是以技術(shù)性人格的探討作為起點(diǎn),。人工智能一開始即以極抽象的客體形象出現(xiàn),目前它仍舊處于人類的“財(cái)產(chǎn)”領(lǐng)域,,并逐步往倫理化方向發(fā)展,,在此過程中人工智能會(huì)逐漸被具象化并賦予倫理意義。在人工智能具象化的過程中,,人機(jī)交互充當(dāng)了重要媒介,。人機(jī)關(guān)系是人類從未遇過的人工智能時(shí)代的基礎(chǔ)關(guān)系,它使人類同時(shí)在“智能體”和“財(cái)產(chǎn)”之間進(jìn)行動(dòng)態(tài)權(quán)衡,,既渴望和擔(dān)憂強(qiáng)人工智能的出現(xiàn),,又追求人工智能的利用效益和排斥自動(dòng)化帶來的風(fēng)險(xiǎn)。無論如何,,人工智能一旦被人類開啟,,即如凱文·凱利(Kevin Kelly)所言,技術(shù)本身具有生命,,它將堅(jiān)定地朝著自身固有的方向自動(dòng)演化,。同時(shí)人工智能兼具“智能體”和“財(cái)產(chǎn)”的雙重屬性,對于法律上的主客體理論以及線性思維造成了較大沖擊,,它將使未來社會(huì)生活呈現(xiàn)出原子化和系統(tǒng)化相互交織的圖像,,人格理論在此種社會(huì)場景中亦將呈現(xiàn)出多元化和功能化的趨勢,抽象化和具體化同時(shí)成為人格形象的兩種工具,??梢韵胂螅坏?qiáng)人工智能時(shí)代來臨,,公法首先將確定人工智能的倫理主體意義,,同時(shí)人工智能的自主行為和獨(dú)立財(cái)產(chǎn)會(huì)隨之產(chǎn)生,,屆時(shí)人工智能的財(cái)產(chǎn)屬性將逐漸減弱。至于人工智能是否具有類似人類的倫理生活(如親屬和人格),,以及是否也會(huì)分享人類的財(cái)產(chǎn)人格和交易法則,,只能留待未來去驗(yàn)證了。

梅夏英:倫理人格與技術(shù)人格—人工智能法律主體地位的理論框架

梅夏英:倫理人格與技術(shù)人格—人工智能法律主體地位的理論框架

中國政法大學(xué)科技成果轉(zhuǎn)化基地

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1129665.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。

(0)
新浪財(cái)經(jīng)的頭像新浪財(cái)經(jīng)
上一篇 2025年2月1日 下午7:10
下一篇 2025年2月1日
198搶自鏈數(shù)字人

相關(guān)推薦