來源:法大科技成果轉化基地
以下文章來源于中外法學編輯部 ,,作者梅夏英
倫理人格與技術人格:人工智能法律主體地位的理論框架
梅夏英
對外經(jīng)濟貿(mào)易大學法學院教授
摘 要
目前人工智能法律主體地位的理論探討遵循兩種路徑:一是將人工智能作為具有高級智能的類人“種群”來進行理論預判,;一是探討賦予當前弱人工智能某種法律擬制人格來承擔責任和享有權利,。對此有必要提出“倫理人格”和“技術人格”的區(qū)分理論,來界定人工智能主體地位的不同理論面向,。人格區(qū)分現(xiàn)象在傳統(tǒng)民法中已然存在,,它呈現(xiàn)為以人格抽象程度為標志的人格遞進序列,其中存在著兩種人格的“漸變”和“斷裂”現(xiàn)象,。人工智能作為倫理主體遇到了“自我意識”的難題,,目前的弱人工智能尚不能獲得獨立的倫理人格,規(guī)制技術開發(fā)者的科技倫理起主導作用,,同時不排除人機交互倫理可能會賦予機器人某種道德性“權利”,。就人工智能的技術性人格而言,如果只是將人工智能作為“個體”進行研究,,并無自然人的意思表示機制和機器人自身財產(chǎn)的支撐,,賦予機器人技術人格便不完全具備條件。未來人工智能的主體性將依照兩種人格的路徑各自發(fā)展,以技術人格的探索先行,,逐漸進行倫理人格的塑造,,人類或機器人的倫理人格最終成為技術人格的依歸。
關鍵詞人工智能 倫理人格 技術人格 法律擬制 人機關系
目 錄
引言
一,、人工智能主體性的兩個理論面向:倫理性人格和技術性人格
二,、倫理性人格:人工智能作為新的智能“種群”?
三、技術性人格:責任主體和權利主體
四,、未來人工智能兩種人格融合的“抽象度”分析和展望
引 言
人工智能是否具有法律主體地位,,或能否成為法律意義上的“人”,是近年來數(shù)字法學的一個重要理論問題,。人工智能的出現(xiàn),,給法律領域帶來了一個富有建設性和挑戰(zhàn)性的事實,即它創(chuàng)造和開啟了一個前所未有的新型關系——“人機”關系,。這種“人機”關系隨著技術的進步快速演進,,成為未來數(shù)字法學甚至整個法學必須面對的一種基礎關系,并將很大程度上影響未來的立法進程,?!叭藱C”關系在法律上之所以具有歷史性的、突破性的意義,,主要原因在于它將深刻改變未來社會的社會關系,、生活方式和社會形態(tài),人與機器(主要指人工智能)將由傳統(tǒng)的“主客體”支配關系轉向一種深度“合作”關系,,并遍布生活的每一個角落,。在可預見的人機融合的未來社會場景中,法律如何看待人工智能以及賦予人工智能何種法律地位,,成為數(shù)字法學必須回答的問題,。當前法學界對于人工智能的法律主體地位問題已經(jīng)進行了探討,并主要局限在私法領域,,這是由于在人工智能目前的發(fā)展狀況下,,私法領域的討論已經(jīng)具有相對確定的現(xiàn)實意義,因為它在解決諸如無人駕駛,、醫(yī)療機器人,、機器代理等領域的責任承擔以及機器作品的創(chuàng)造者和權利享有者的界定等問題上均有所建樹。但基于人機關系的普遍性和公共性,,人工智能的法律地位問題在公法領域亦有充分的討論空間,。針對當前私法上關于人工智能法律地位問題的討論,本文擬在傳統(tǒng)私法的基礎上,,依據(jù)傳統(tǒng)私法所隱含的(未被充分揭示的)兩類主體內(nèi)涵的差異,,梳理人工智能在私法主體領域的兩個面向或訴求:倫理性人格和技術性人格,,并將之作為基礎理論框架,分別探討人工智能在兩種人格類型上的意義和現(xiàn)實可行性,,最后嘗試性地提出理論展望,,即人工智能的主體性是否將如傳統(tǒng)民法主體制度一樣,呈現(xiàn)出以“抽象度”為標志的兩種人格融合場景,。
一,、人工智能主體性的兩個理論面向:倫理性人格和技術性人格
當前關于人工智能主體地位的私法探討,將人工智能納入到傳統(tǒng)民法的“人法”部分予以統(tǒng)一回答,,并形成了兩種截然相反的觀點:否定說和肯定說,。否定說目前成為大多數(shù)人支持的主流觀點,該說認為人工智能目前成為民事主體并不現(xiàn)實,,其主要理由在于:人工智能目前并不具有人類的理性和自我意識,,亦不具有自身財產(chǎn),且不賦予其主體地位并不影響法律解決與人工智能相關的法律問題,;肯定說則針對性地認為,對于一種新型民事主體的承認,,法律并不必然要求主體具有人類理性,,如法人(尤其是財團法人)就體現(xiàn)為財產(chǎn)的聚合;亦不要求責任財產(chǎn)的存在,,如動物,、胎兒和非法人團體等民法上的“有限主體”就與財產(chǎn)無直接關系。顯然,,如果按照上述理論框架來論證人工智能的主體性,,我們很可能無法在統(tǒng)一的理論基礎上達成有效結論。其中被忽略的一個事實是,,兩種觀點談及的人格很可能不是一回事,,故有必要對人工智能的人格類型進行區(qū)分,并回到傳統(tǒng)民法找到這種區(qū)分的依據(jù),,以做出合理解釋,。
(一)人工智能主體中倫理性人格和技術性人格的區(qū)分
人工智能能否成為法律上的主體,是數(shù)字技術為法學理論界提出的一個全新的問題,。在將人工智能納入傳統(tǒng)法律主體制度予以定位時,,除了要與原有制度形成體系性的契合外,也將加深我們對傳統(tǒng)法律主體制度的整體性理解,,甚至能在原有體系上有所豐富和發(fā)展,。就上述關于人工智能主體地位的當前理論分歧而言,從表面上看,,持不同觀點的雙方都是在對人工智能能否成為民法上的“人”這一命題進行論證,,但實際上雙方在人工智能成為民法上的何種“人”這一立場上卻存在顯著差別,。具體而言,當前人工智能為我們提出的法律主體問題呈現(xiàn)兩種不同的樣貌:一是從智能或“自我意識”角度探討人工智能是否具有“類人”智慧,,或是否可能超過人類成為強人工智能或超級人工智能,,并以此探討人與機器的交互關系。如果未來人工智能具有高度智能或“自我意識”,,那么它就不能被僅僅局限于人機之間的支配關系中,,而是帶有“類人”的理性、種群性,、倫理性和社會性,,并會穿透民法進入到公法體系;二是從解決與目前初級智能機器人相關的侵權責任或權利歸屬的角度出發(fā),,探討運用傳統(tǒng)民法中財產(chǎn)性的“擬制”人格來解決上述問題,,這個討論角度帶有濃厚的技術性、工具性和財產(chǎn)性的色彩,,其針對的技術性人格形象與第一種“類人”人格形象具有顯著的差別,。上述人工智能的兩種主體形象分別遵循不同的理論基礎、規(guī)范路徑和社會功能,,基于上述兩種形象分別立足于主體的“倫理性”和“擬制性”,,本文在此正式提出“倫理性”人格和“技術性”人格的區(qū)分,這種區(qū)分似應成為研究人工智能法律主體問題的一個理論框架,。 具體而言,,倫理性人格立足于人格的智性、種群性,、倫理性和社會性,,以某種形式的復雜系統(tǒng)的“生命”活性為表征。當前理論界經(jīng)常非正式地將人與人工智能并列為“碳基生命”和“硅基生命”,,亦可視為某種生命倫理傾向,。技術性人格在民法上亦可稱為“工具性人格”或“財產(chǎn)性人格”,指的是立法通過某種擬制技術來創(chuàng)造享有權利和承擔義務的主體,,這種主體在現(xiàn)實社會的倫理生活中并不必然存在,,它的目的是為了在技術上合理安排財產(chǎn)的法律狀態(tài)和責任承擔者。當然這兩種人格的區(qū)分并不是絕對的,,它只是為我們提供了一個觀察人工智能在社會不同場景中所扮演角色的視角,,且不同角色是可以依據(jù)場合而變化的。盡管如此,,這種理念上的區(qū)分仍然具有基礎性的意義和必要性,,主要體現(xiàn)在如下方面:首先,這種區(qū)分可以有效避免在人工智能主體問題討論中常見的范疇混淆,?;趥鹘y(tǒng)民法的主體制度并未嚴格區(qū)分倫理人格和技術人格,,當前的理論探討沿襲了傳統(tǒng)民法上統(tǒng)一的人格理論,對人工智能的主體問題做出統(tǒng)一的肯定或否定的回答,,但由此便會導致一個理論誤區(qū)的出現(xiàn),,即學者常常會用一種人格形象的必要條件缺失,來否定另一種人格形象成立的可能性,。如用人工智能沒有理性和意識這一理由,,來否定人工智能可能獲得財產(chǎn)法上的“有限主體”資格;又如以“未成年人”“胎兒”等倫理主體沒有任何財產(chǎn)亦可構成民事主體為由,,來降低對于人工智能責任財產(chǎn)的要求,。這種人格錯位在傳統(tǒng)民法上的自然人上亦有顯現(xiàn)(下文將會述及),只是由于機器由“客體”成為“主體”的假設本身理論跨度過大,,故在人工智能領域體現(xiàn)得更為明顯,。通過對倫理性人格和技術性人格進行區(qū)分,就可以有效避免上述范疇混淆的誤區(qū),。 其次,,這種區(qū)分可以有效厘清兩種人格的理論和立法路徑。兩種人格雖然可以毫不違和地并存于民法中,,但由于機器人畢竟不具有自然人的天然身份,,故兩種人格從一開始就體現(xiàn)出不同的理論和立法路徑。如2017年沙特阿拉伯授予美國漢森公司的人工智能“索菲亞”以法律公民身份,、日本在個案中確立了陪護老人的寵物機器人“帕羅”的戶籍地位等,就是將機器人視為倫理意義上的主體而在公法上做出的法律判斷,,并不首先體現(xiàn)為私法上的主體,。除此之外,一旦“類人”機器智慧體被法律承認,,其首先要考慮的是它在整個社會層面的地位,,而不會首先考慮財產(chǎn)問題,如2016年美國國家公路安全交通管理局認定谷歌無人駕駛人工智能系統(tǒng)可以被認為是“司機”,,亦是基于智能方面的判斷,。人工智能倫理人格遵循由公法論證確認后再下沉至私法領域的路徑,它更多考慮的是“類人”智能的社會身份(如公民或戶籍等)和社會權利(如選舉權,、自由權,、財產(chǎn)權甚至家庭生活的權利)等,繼而會在私法上得到體現(xiàn),。而傳統(tǒng)私法對于人工智能的主體界定則只能局限于民法范圍內(nèi),,通過技術擬制人格來解決財產(chǎn)地位和責任承擔等私法問題,這種擬制人格無法延展至公法體系,。如果立法不明示人工智能人格的類型,,我們就無法判斷將其安置于何種法律范疇,,如2016年歐盟委員會法律事務委員會曾主張賦予人工智能“電子人”的法律主體身份,這種抽象的主張并不能明確“電子人”屬于何種人格,,故無從將其納入合適的法律領域予以討論,。 最后,人工智能倫理人格的理論顛覆性遠遠大于技術人格,。對當下尚未達到人類智能程度的機器人賦予某種工具性人格,,只是民法的擬制技術以及法解釋學的運用問題,只要形成邏輯閉環(huán)即可(盡管障礙重重),,并不會對現(xiàn)實社會的公法秩序造成實質影響,。而一旦人工智能具有“類人”的倫理人格,則會產(chǎn)生顛覆性的社會變革,,甚至法律本身亦會受到巨大的沖擊,。比如,如果人工智能具有“類人”智慧或自我意識,,那么人類的法律如何能有效約束他,?換言之,人類是否有能力為具有高度智能的另類智慧體立法,,以及人工智能是否愿意聽從人類的安排就成為一個問題,。這個問題會轉化為,人類如何與另一個“硅基”生命種群和平共處,。比如美國科幻作家艾薩克·阿西莫夫(Isaac Asimov)為機器人設定的三個倫理定律并沒有得到技術上的有效支持,,當前的自動駕駛尚未能保證完全遵守上述定律。又如,,由于人工智能缺少時間概念,,無自然衰老死亡,亦無生物繁殖能力等人類典型特征,,它是否能分享人類的律法規(guī)則,,以及人和機器之間的倫理和法律規(guī)范如何形成和發(fā)展,目前完全無法想象和預知,。故倫理性人格的意義更為宏大和深遠,,有必要與私法領域的財產(chǎn)性人格分開探討。上述對于兩種人格的理論假設必要性的論述,,部分地超出了傳統(tǒng)的理論背景,,但通過一定的理論想象,有助于我們更好地認識上述人格區(qū)分的法律意義,。
(二)兩種人格區(qū)分的民法學溯源解釋
倫理性人格和技術性人格的區(qū)分在傳統(tǒng)民法中已然存在,,只是這種區(qū)分并未在“人法”部分得到彰顯,并被正式地作為討論民事主體的理論工具,。其直接原因在于,,民法上對自然人作為倫理主體和財產(chǎn)主體的雙重身份并未進行區(qū)分,,而是將自然人與作為財產(chǎn)主體的法人(還包括非法人團體)并列,以此形成人法的基本結構和內(nèi)容,。但兩種人格的區(qū)分是客觀存在的,,時常會造成民法理論上的困境甚至體系上的紊亂。如德國學者迪特爾·梅迪庫斯(Dieter Medicus)認為,,親屬法和繼承法規(guī)定了相互之間具有聯(lián)系的生活事實,,而物權和債法規(guī)則體系不是基于生活事實的相似性,而是基于法律后果層面上的相似性,。他揭示了,,基于生活中的倫理共同體形成的人身法人格與基于財產(chǎn)占有和交易形成的形式化技術人格具有本質的不同,并進而提出:“民法典的人法部分僅僅是一件未完成的作品,。人們幾乎不可能從這些規(guī)定中推斷出一般性的結論,。”另一當代德國學者羅爾夫·克尼佩爾(Rolf Knieper)則從財產(chǎn)的角度指出,,法人的本質是對財產(chǎn)的法律調整,,絲毫不涉及個人身體體格的調整,。這說明諸多學者已經(jīng)注意到民法上兩種人格的存在,,只是未對民法典的人法體系做進一步的延伸論述,。 倫理人格與技術人格的區(qū)別在民法體系中體現(xiàn)在如下方面:一是兩者所依賴的人格原型不同,。倫理性人格針對的人格原型是具有生物性,、倫理性和社會性的自然人,并調整基于上述特征而形成的親屬關系和人格權關系,。而法人針對的對象原型則是圍繞特定財產(chǎn)形成的社會組織,、財團甚至單一的獨立財產(chǎn),并在此上形成了抽象的符號化人格,,從而完全脫離了人的生物性形象,,進入了徹底非個人化的領域。親屬法上的自然人與法人以何種共性能同時成為民事主體,,至今在理論上仍難以得到完整解釋。二是兩者在立法上被抽象的性質和結果不同,?;诜傻钠毡樾?,親屬法人格或人格要素會被適當?shù)爻橄笥枰苑诸悾缬H權上的父子,、人格權法上的身體,、肖像諸要素等,但始終保留自然人的社會生物性特征,。而法人則不以自然人為立法抽象化目標,,而純粹是對財產(chǎn)的形式化抽象,憑空創(chuàng)造出一個“符號”化的人格,,從而實現(xiàn)了從“自然人”向“非人”、從“生物人”向“觀念人”的轉變,,它與自然人分享的共同點僅在于“權利能力”,,經(jīng)過技術上的過濾和抽象,自然人與財產(chǎn)實際上處在同一地位。這種理論上的跨越在統(tǒng)一的人格理論下也很難得到充分解釋,。三是兩者的價值基礎不同,。民法上的主體概念具有強烈的價值導向,它遵從近代歐洲法律對于自然人的平等,、理性和自由等基本價值的倡導和顯揚,,彰顯自然人的“目的性”價值,,在公私法上分享同樣的價值意義,。而法人則作為被形式化的抽象主體符號,純?nèi)挥蓪嵶C法創(chuàng)造,表征的是相對空洞的“手段性”價值,,這種技術“擬制”產(chǎn)物僅具有私法上的形式化意義,,并不能適用于公法領域。究言之,,這也是德國民法將人格,、主體等價值性概念由技術性概念“權利能力”統(tǒng)一替代后的結果。因為“權利能力”是一個功能性的概念,,一個實體只要能獲得權利和承擔義務,,就可能成為民事主體;而非可以反過來理解,,即先有主體再有權利享有問題,,自然人的主體價值在此并未被優(yōu)先考慮。 除了上述主要表現(xiàn)外,,兩種人格區(qū)分還體現(xiàn)在民法體系中人身法與財產(chǎn)法的顯著分野上,,即人身法并不能當然適用民法典抽象的形式理性和概念系統(tǒng),如果將親屬法,、人格權法和繼承法從民法典中抽離,,也絲毫不會影響民法典內(nèi)外邏輯體系的完整。另外,,以身份和人格為前提的人身關系也不能完全適用“權利能力”和“法律行為”的概念規(guī)則系統(tǒng),,這兩個概念主要是對財產(chǎn)主體能力和財產(chǎn)行為的抽象。 在了解了兩種人格區(qū)分在體系上的價值后,,我們在理論上依然應該承認法人等財產(chǎn)主體在法律上的正當性和科學價值,,只是應當將民法上的相關主體合理地歸入倫理主體和財產(chǎn)主體兩大系統(tǒng)中,并適用不同的規(guī)則體系,。這種區(qū)分會給我們解決傳統(tǒng)主體問題提供新的視角和契機,,它的理論意義體現(xiàn)在如下方面: 首先,傳統(tǒng)民法人格理論沒有對自然人的兩種人格進行區(qū)分,,遮蔽了兩種人格區(qū)分的體系價值,。自然人在人身法和財產(chǎn)法上人格的顯著差別,因在民法上被歸入統(tǒng)一的“自然人”范疇而被強制熨平了,,這極大地淡化了人格區(qū)分在理論和法律適用上的意義,。實際上,自然人在親屬和人格關系中的人格屬性,,與自然人在與法人財產(chǎn)交往中的屬性迥乎不同,,按照主體對等原則,一為人倫主體,,一為形式化的“符號”主體,,兩者完全無法被通約為一種身份,。盡管兩種主體都體現(xiàn)為自然人,但如果我們想象一下一個在家庭環(huán)境中的自然人與一個遠在電商互聯(lián)網(wǎng)另一端以卡通形象示現(xiàn)的自然人,,就可想見兩者的巨大區(qū)別,,也可了解兩種交往的民事規(guī)則系統(tǒng)的不同。 其次,,兩格人格區(qū)分可以在理論上明晰民法上多種“主體”的討論范疇,。除了自然人和法人外,民法存在多種“中間主體”或“第三主體”,,如動物,、胎兒(甚至胚胎)和非法人團體等,過去我們都將其納入統(tǒng)一的主體理論予以定位,,討論其是否具有民法上的“主體”資格或“權利能力”,,實則適用的是抽象的、形式化的財產(chǎn)法主體標準,。實際上如果理論上接受兩種人格的區(qū)分,,則可以將上述主體歸入不同范疇:如對于胎兒和動物而言,不存在“主體”或“權利能力”問題,,法律保護他(它)們的目的是基于人倫關系或生物種群倫理,,來善待同類或特定生物種群,與財產(chǎn)并無直接關聯(lián),,并不需要適用財產(chǎn)法主體規(guī)則,,直接適用由人倫關系或種群倫理決定的行為規(guī)則即可。當前理論上對于胎兒(以及胚胎),、動物等主張的“主體說”“非主體說”和“有限主體說”等都如出一轍,,難以自圓其說,均是用錯了人格范疇的緣故,。對于第三主體(如合伙)或非法人團體(如籌建中的法人)等,,因主要涉及財產(chǎn)關系,則應將其歸入民法上占主導地位的抽象財產(chǎn)人格范疇進行討論和定位,。 最后,,人格區(qū)分理論對于界定特定主體的人格序列及立法模式亦具有重要的意義。民事主體存在一個明顯的序列性規(guī)律,,即從親權到股份有限公司法人之間存在一個倫理性遞減和財產(chǎn)性遞增的趨勢,,其中倫理人格和財產(chǎn)人格的轉換是在自然人身處不同的民事關系場景中不經(jīng)意間完成的,如民間所言的“親兄弟,,明算賬”即為適切場景,。由此我們可以根據(jù)主體所處序列位置(以“抽象度”為表征)來確定特定主體適用的私法規(guī)則領域。如對于人格權而言,,其主體人格仍屬于倫理性人格的范疇,,只是其倫理性較親權稍弱,,但與財產(chǎn)性人格有本質的區(qū)別,故人格保護無法在傳統(tǒng)“人法”中解決,,因為民法中以“權利能力”為基礎的核心人格理論主要針對的是財產(chǎn)法人格,無法調整倫理性的人格內(nèi)容,。同時亦不能通過侵權法來獲得完全的保護,,因為侵權法解決不了人格利益的法律內(nèi)涵和人格要素法定的問題,故通過人格權法來調整是較為妥當?shù)姆椒?。其他如環(huán)境法學界一直有學者倡導的“環(huán)境法人”等,,由于其針對的主要是財產(chǎn)責任和賠償受益對象問題,故應歸入財產(chǎn)人格序列討論,。關于不同民事主體的序列定位,,下文將會進一步涉及。 上述關于倫理人格和財產(chǎn)人格相區(qū)分的討論,,對于人工智能法律主體地位的探討亦具有重要意義,,并將構成未來研判人工智能法律地位問題的理論框架。值得注意的是,,人工智能在主體領域正在同時沿著兩種人格路線展開,,并展現(xiàn)出不同的理論意趣和走向,對此下文將分別進行闡述,。二,、倫理性人格:人工智能作為新的智能“種群”?
當前人工智能的快速發(fā)展,客觀上激發(fā)了當代社會對于人工智能具有類人智慧,,甚至越過“奇點”成為超級人工智能的想象,。過去的幾十年里倫理學和社會學對此進行了大量的前瞻性研究,而法學界則相對保守,,對于人工智能能否成為具有人類意識的獨立主體一直持審慎態(tài)度,,其中,人工智能是否具有人類理性或自我意識又是重要關切點,。
(一)理性抑或自我意識,?
人類具有與生俱來的理性能力是近代法律建立的重要理論前提,它決定了法律主體固有的理性基礎和道德實踐能力,,近代私法和經(jīng)濟學均將理性人假設作為社會主體的理論基礎,。當前人工智能是否具有人類的理性與能否成為倫理主體具有直接關系。從目前的智能程度上看,,人工智能已表現(xiàn)出類似人類的“理性”能力,,如自2016年谷歌開發(fā)的“AlphaGo”戰(zhàn)勝韓國選手李世石之后,ChatGPT生成式大模型系列在應對人類重要考試中陸續(xù)超過人類,,據(jù)稱新近發(fā)布的ChatGPT-4o1在“推理”方面已經(jīng)達到博士能力水平,。這種計算智能還將在算力,、算法和數(shù)據(jù)的增強和優(yōu)化下繼續(xù)發(fā)展進化。理性能力在傳統(tǒng)理論中是相對于非理性行為(如情緒,、欲望等)而言的,,它體現(xiàn)在對客觀事物的感知、辨識以及推理和選擇能力,。就此而言,,計算智能似乎符合人類理性的表面特征,它們均以冷峻的,、一絲不亂的程序執(zhí)行者著稱,,但以此認定人工智能具有人類理性還遠遠不夠。其原因在于,,人類的理性能力可以自然延伸至道德能力上,,對此人工智能尚不具備;另外,,人類的理性能力意味著人類能夠內(nèi)觀反省自身,,認識到自己的存在,并通過調整來完善自身,,這一點當前的人工智能亦不具備,。由于人工智能算法由人類設定,也是人類理性的延伸,,故“理性”標準在衡量人工智能主體性上并不是一個好用的概念,,實際上按照笛卡爾的“我思故我在”標準,主體只有在意識到自己思考時,,才能成為理性人,,法律真正應該關注的其實是人工智能是否具有“自我意識”。 關于人工智能可否具有自我意識,,目前理論界和產(chǎn)業(yè)界對此分歧甚大,。如西方人士霍金、馬斯克以及加拿大學者杰弗里·辛頓(Geoffrey Hinton)等對人工智能可能進化為超過人類的自主意識體表示深切的擔憂,,認為人類對此應高度警惕,,提前謀劃應對。英美學者如羅杰·彭羅斯(Roger Penrose),、諾姆·喬姆斯基(Noam Chomsky)以及燕樂存(Yann LeCun)等則認為人工智能離具有自我意識距離尚遠,,甚至在理解、想象,、直覺和創(chuàng)造力上永遠達不到人類意識的水平,。否定的立場大致體現(xiàn)如下:一是人類意識并不能通過計算獲得?;趲鞝柼亍じ绲聽枺↘urtG?del)的自指理論以及“理發(fā)師悖論”,,圖靈認為計算機并不能完全判定自身是否會“停機”,,這就構成算法的根本邏輯局限,類似于人不能反觀自身,,而反觀是自我意識的基礎,。彭羅斯則認為意識不是一個機械的計算過程,而是源于大腦微管中的量子過程,,量子狀態(tài)在量子引力的作用下坍縮,,這一瞬間的變化就是我們意識體驗的來源。二是意識并不完全來源于大腦,。有學者認為,,意識沒有存在于大腦中的生理基礎,,甚至記憶也不存儲于大腦中,。喬姆斯基則認為語言能力是人先天的能力,人類意識只是處于語言思維的表層,,并不完全由基因進化決定,,當代的機器學習依賴于暴力計算,并沒有真正的思維和意識,。又如彭羅斯認為意識不僅僅是大腦的產(chǎn)物,,它還與宇宙的基本結構有深刻的聯(lián)系,意識在某種程度上影響著現(xiàn)實的結構,,并意味著主觀現(xiàn)實和客觀現(xiàn)實之間的界限變得模糊了,。三是機器學習只是軟件的暴力計算,目前看不到它會發(fā)展到人類意識的跡象,。如燕樂存認為,,目前的生成式大模型尚缺乏人類基本的推理、想象和長久記憶能力,。亦有一些學者認為,,大型神經(jīng)網(wǎng)絡算法只是面對過去的事實數(shù)據(jù),無法提供面向未來的想象力和創(chuàng)造力,,算法仍無法脫離人類意志的支配,。與此相反,肯定的立場則更多地集中在工程學上,,以探討意識與智能,、體驗、情感等的區(qū)別和上述事物的生成機制為核心,,并形成了豐富的實踐性理論和流派,,在此不一一贅述。 從認知科學,、腦科學和量子科學等角度探討人類意識問題,,屬于純粹科學探究,,但對于法學研究人工智能主體問題卻是必要的。因為人工智能“意識”問題是當前人工智能領域的新關口,,它直接決定了人工智能未來的發(fā)展趨勢和角色定位,。雖然目前關于人工智能能否具有自我意識尚未有定論,但隨著科學的發(fā)展并非完全不可能,,只是生物意識和硅基意識有可能分享不同的技術路線,。目前人工智能因快速發(fā)展而呈現(xiàn)出來的高度“自主性”和“智能性”,讓人們對大型數(shù)字復雜系統(tǒng)涌現(xiàn)出類似“意識”的事物充滿期待,。當然在目前人工智能未具備人類意識的情形下,,法律還無法將其直接賦予倫理人格,但以深度學習為標志的具身機器人已然出現(xiàn)在社會生活的各個領域中,,并為我們提出了有關科技倫理和人機倫理的現(xiàn)實問題,。
(二)科技倫理和人機倫理
在人工智能是否具有類人意識尚不確定的情形下,當今人工智能發(fā)展的倫理治理已經(jīng)被提上日程,。人工智能倫理相對于法律而言,,更多地是鼓勵科技向善,促使業(yè)界制造出可信的,、安全的以及負責任的人工智能,。無論是人際間的倫理規(guī)范,還是種群間,、人機間的倫理規(guī)范,,其核心要義均在于踐行對人類、生物種群以及特定智能體的尊重,,大多數(shù)倫理規(guī)范無法直接上升到強制性的法律層面,。就人工智能倫理而言,目前存在著兩個維度的倫理要求:一是約束人類開發(fā)行為的科技倫理,,一是關于人類如何對待機器人,,并與機器人的和諧相處的人機倫理,以下簡述之,。 人工智能的科技倫理目前仍以人類中心主義為依托,,旨在避免人工智能對人類和社會造成傷害。在谷歌公司將“別作惡”(Don’t be evil)作為公司的座右銘之后,,當今較有影響力的人工智能倫理為一群美國科學家倡導的《阿西洛瑪人工智能準則》(2015—2017),,該準則共23條,最后5條明確體現(xiàn)為對超級智能的預知和應對,。近幾年國際組織如歐盟,、美國電氣工程協(xié)會(IEEE)以及各大公司等都提出了自身的人工智能道德框架,中國也于2019年發(fā)布了《人工智能北京共識》。上述倡議存在的一個共同點是可操作性甚弱,,與技術實施并不同步,。如美國科幻作家阿西莫夫在1939年即提出了“機器人三定律”,成為當時對人類和機器人保護的基本理念,,但事實上人工算法在技術層面上并不能達到上述要求,,如僅僅就判斷是否對人類造成“傷害”而言,人工智能就不能在編碼中考慮到所有的相關因素,,并選擇唯一的行為來達到目的,。“電車難題”則又是另一個倫理命題,,它要求人工智能具備一定的道德實踐能力,,但法律對人類通過考試獲得駕照都不做如此要求,要求人工智能解決上述問題離現(xiàn)實生活過遠,,且這一倫理難題并沒有統(tǒng)一答案,,發(fā)生的機率甚微。實際上基于對不確定未來的設想,,科技倫理目前承載了太多口號性的內(nèi)容,,在發(fā)展階段對人工智能要求過高,,如要求人工智能具有道德實踐能力等,,這是不符合目前行業(yè)發(fā)展實際的。 針對上述問題,,一個合理的做法是先確定人工智能可能對人類帶來的諸種負面影響,,再通過技術上的要求來對科技倫理予以具體化。當前人工智能對人類社會帶來的負面影響體現(xiàn)在如下方面:①人工智能帶來的失業(yè)問題,;②算法異化問題,,即算法改變?nèi)说墓ぷ餍再|,使人成為算法的奴隸,;③人的基本權利受侵害的風險,,這主要體現(xiàn)在人類通過各種風險評估工具(如危害評估和預測警務工具等),在決定是否對人實施法律手段時代替人做出判斷,,侵害基本人權,;④機器人殺手問題,即用當代無人機等作為自主殺人武器,,用于戰(zhàn)場和犯罪活動,;⑤算法偏見問題,即由于數(shù)據(jù)集的偏差以及設計算法的人本身的偏見,,導致算法輸出的結果對特定人群造成不公平的傷害,;⑥人工智能造假,當前的算法通過自動化推薦為用戶構造了一個與現(xiàn)實不同的“信息繭房”,,為用戶制造了一個虛假的世界,,同時目前也存在一些軟件通過“深度合成”技術制造出假視頻,、假新聞,制造社會輿情混亂,。上述負面影響是目前人工智能應用帶來的實際后果,,除了失業(yè)問題外,這些后果都是通過算法來實現(xiàn)的,,而人是算法的設計者,,故有效的科技倫理應主要側重于算法設計者的倫理約束上。具體表現(xiàn)在:①解釋義務,,即算法設計者需要對算法針對他人的決策和行動做出合理解釋,,但這在機器深度學習(尤其是無監(jiān)督學習)時代存在挑戰(zhàn);②設計人責任,,即人工智能目前尚不能成為道德智能體,,軟件本身并不能被追究責任,與算法相關的責任只能由設計者承擔,;③透明度原則,,即算法所使用的數(shù)據(jù)來源是明確的、可獲取的,,算法本身對用戶而言也是清楚明晰的,。總之,,通過對算法的倫理約束,,機器人造成的風險和危害能得到最大限度的抑制。 人機倫理則是關于人機如何共處的倫理問題,,是人類歷史上前所未有的人與機器之間的良性互動和信任達成問題,。基于深度學習技術,,具身機器人成為未來人工智能發(fā)展的主流方向,,亦是人機倫理著重關注的對象。倫理學界較早地涉及到“機器人權利”這一領域,,他們重點關注機器人是否可能享有某種被尊重的權利,,不被人類濫用、奴役或虐待,。具體而言,,在情感機器人、助老機器人和電子寵物的使用情境中,,涉及到人的情感依賴問題,,甚至有可能動搖傳統(tǒng)社會的兩性關系和婚姻關系(如情侶機器人)。雖然機器人是否享有“有限”的道德權利目前尚缺乏確定的理論基礎,但在主客支配關系前提下,,我們還是能夠提供兩個正當性理由:一是由動物享有的“道德”權利帶來的啟示,,一是機器人所具有的“高度”智能,這兩者分別在“生命”和“智能”上與人類相似,。在目前機器人智能尚未達到強人工智能的階段,,針對機器人倫理的研究實際上仍處于人類中心主義的話語體系中,其本質仍然是在規(guī)范人類自身,,引導人類善待機器人,,并給機器人足夠的發(fā)展空間。如果未來真有具有“自我意識”的超級人工智能出現(xiàn),,那么人機倫理的敘事方式就會改變,,屆時人與機器的支配關系將會逆轉為兩個智能“種群”的關系,新的“社會”契約將會以無法預知的方式上演,。三,、技術性人格:責任主體和權利主體
技術性人格指的是人工智能在財產(chǎn)領域的人格表現(xiàn),它主要是為了在技術上解決人工智能帶來的責任承擔和權利歸屬問題,。這些問題目前已經(jīng)大量發(fā)生,,并引起了學界和業(yè)界的普遍關注,主要集中在智能助手,、機器人侵權領域以及機器人創(chuàng)作領域,。目前學界對于機器人主體地位的研究主要體現(xiàn)在財產(chǎn)法領域,鮮少涉及對于倫理性人格的訴求,。倡導機器人享有某種法律主體地位的法律主張是基于一個共同的,、特定的技術事實,,即因機器人顯著的“自主性”而產(chǎn)生的“自動化風險”,,它的行為后果已經(jīng)不能被自然人的“過錯”規(guī)則所涵蓋?;诖?,國外有專家提出了賦予機器人主體地位的兩難困境:一方面,將機器人當作“主體”缺少事實基礎,,因為目前機器人確實不能算是“人”,;另一方面,一旦把機器人當作主體,,又會面臨機器人是否享有自然人的公法權利,、親權和人格權等問題,顯然又失之過寬,。這種“兩難”困境實際上并不確定存在,。如果我們能夠按照上文所提出的兩種人格區(qū)分理論進行理解,其并不會成為理論難題,因為在財產(chǎn)法上通過擬制賦予某種實體以“人格”,,并不一定要求該實體是自然人,;同時該實體具有某種形式化的財產(chǎn)人格以后,也不一定享有以生命形式存在的自然人的倫理人格權利,。將這種主體資格定位于純粹技術性財產(chǎn)人格領域就可以順利解決上述問題,,這也是本文反復強調兩種人格區(qū)分的重要原因。人工智能的技術性人格目前體現(xiàn)在兩個場景,,一是對于責任分擔主體的訴求,,一是對于人工智能作品的權利主體地位的探討,兩者在理論邏輯上并不重合,,亦不屬于同一技術人格體,。
(一)責任主體
在侵權責任認定上,如果依照傳統(tǒng)法律能夠追究設計人,、銷售者或使用人的責任,,就不需要機器人成為責任主體。如上文所述,,機器人獨立承擔責任乃源于不可控制的“自動化風險”,,它是在與機器人相關的民事主體不存在過錯的情形下產(chǎn)生的。這里的“責任主體”的在民法上應屬于主體的“行為能力”范疇,,“行為能力”在民法上既包括從事合法行為的能力,,又包括對不法后果承擔責任的能力,責任能力屬于后者,。但機器人是否同時享有“權利能力”,,按照傳統(tǒng)理論似乎應當做出肯定的回答,因為在民法上權利能力是行為能力的前提,,但在人工智能上卻不一定如此,,這也反映出高度自動化智能給法律帶來的理論挑戰(zhàn)。以下以智能合同和機器人侵權為例來做簡要分析,。 智能助手既包括如亞馬遜的“Echo”或蘋果的“Siri”等虛擬助手,,也包括機器人管家等具身機器人,它們的共同特點是能夠為主人從事諸如網(wǎng)絡預訂,、購物等民事行為,。智能助手在實際工作中帶來的問題是,它常常會給使用人帶來不必要或“錯誤”的訂單,,這就涉及到合同的效力問題,。一般來說,機器人只是聽從人類的指令行事,,所以在法律上沒有必要將其作為合同主體,,但交易卻是由機器人操作完成的,,那么在民法上就存在是否可以適用代理關系的問題。在代理關系中,,意思表示的傳達和接受都要求雙方具有法律主體必備的“意思能力”,,但智能助手除了按指令和程序行事外,并沒有超出特定事項的“意思能力”,,另外即使智能助手能成為代理人,,也無法承擔無效代理的法律后果,故賦予其主體地位顯然用力過猛了,。對于自動化和程式化交易,,我們很難以“錯誤”或“誤解”為由來對交易相對人主張合同效力存在瑕疵,除非明顯存在其他的指令人如“黑客”或“幼兒”等,。故依合同主體和代理人來界定智能助手的地位,,都不能與傳統(tǒng)民法理論很好地融合。實則這里面涉及到的根本問題在于,,用戶對于因智能助手不合預期的交易造成的損失由誰承擔,?對此傳統(tǒng)的法律無法自行解決,從而形成了新的“責任漏洞”,。有德國學者反復提出通過“部分權利能力”來解決機器人代理問題,,但主體的此種界定亦無法解決責任承擔的問題。實際上由智能助手來承擔合同責任目前看來是不可能的,,在針對機器人的新的責任模式被創(chuàng)造出來以前,,只能由用戶自己承擔。 侵權責任則是學界和業(yè)界更為關注的問題,,因為機器人造成的損害在可預期的范圍內(nèi)日益增多,,如機器看護有可能對家庭成員造成人身或財產(chǎn)損害,醫(yī)療機器人會造成自主范圍內(nèi)的醫(yī)療事故,,自動駕駛亦會因交通事故對乘客或行人造成傷害等,,都會產(chǎn)生新的侵權責任問題。這方面的案例和討論頗多,,本文不作具體分析,。總的說來,,基于“自動化風險”帶來的侵權風險,國內(nèi)外學界傾向于通過“替代責任”和“危險責任”來追究侵權責任,。前者主要是類比監(jiān)護責任和雇主責任,,后者主要是類比動物責任和高度危險責任,基本上都是通過嚴格責任來防范自動化風險,。但替代責任面臨的障礙是,,人工智能并不能像未成年人或雇工一樣,,他們的行為可被充分預見并可以被有效控制,它涉及的主體和環(huán)節(jié)過多,,很難通過界定自然人的“注意”義務來確定合適的責任主體,。另外,這里還要首先解決一個人工智能自身是否已經(jīng)具有某種“人格”這一前置判斷問題,?!拔kU責任”面臨的困難則在于,人工智能不似“動物”具有獨立生命且不可控制,,而是由人類設計創(chuàng)造并服務于人類,,實際上它在應用中并不“危險”,其安全性甚至普遍高于人類(如無人駕駛),,采用危險責任會對技術創(chuàng)新產(chǎn)生負面影響,,并且面臨風險轉嫁、保險費用高昂等問題,。嚴格責任對于人工智能來說并非靈丹妙藥,,其原因在于,作為當代智能工具,,人工智能總體上仍然由人類設計和支配,,且處于技術進化過程中,它產(chǎn)生的一些不可預知的風險,,也只能通過技術進步來解決,,責任追究應朝著促進技術進步的方向發(fā)展;通過強制保險和賠償基金池等完全由社會分攤風險的做法,,無助于促進開發(fā)者通過技術進步來減少甚至消除風險的發(fā)生,。基于此,,有學者提出人工智能侵權責任仍應堅持傳統(tǒng)侵權法的原理,,通過產(chǎn)品責任規(guī)則來追究開發(fā)者的侵權責任,通過過錯規(guī)則來追究使用者的侵權責任,。這種理念在目前情況下仍然具有一定的合理性,。 現(xiàn)在回到人工智能的財產(chǎn)性人格問題。賦予人工智能財產(chǎn)性人格完全是另外一個思路,,它意圖通過機器人的獨立責任使其他主體從侵權責任中解脫出來,。這種思路仍然是通過類比“自然人”或“法人”的財產(chǎn)性人格來確立一個新型的機器人“人格”。在技術上擬制一個法律人格并沒有理論上的障礙,,但跟倫理人格不同,,技術人格具有強烈的目標導向,即法律通過某種程度上不存在的“人格”來解決財產(chǎn)問題,。顯然機器人的財產(chǎn)人格并不能做到這一點,,具體原因在于:一是獨立的機器人并沒有社會交往的獨立意思表示能力,。機器人不似法人,法人雖然亦沒有“法人”自身的意思表示能力,,但它可以通過內(nèi)部治理機制中自然人的組合產(chǎn)生出意思表示能力,。當前的弱人工智能尚不能脫離人類指令自由交往,并形成自主財產(chǎn)關系,。二是單個的機器人沒有獨立財產(chǎn)和責任能力,。由于機器人缺乏倫理人格,故不能獲得屬于自身的財產(chǎn),,法律上設計的最低資產(chǎn)要求或者強制責任保險都是由相關參與人(生產(chǎn)者,、所有者或使用者)貢獻的,機器人并沒有實際承擔任何責任,。三是機器人的財產(chǎn)人格無助于促進技術進步來預防損害的發(fā)生,。即通過機器人獨立承擔責任將開發(fā)者從責任中解放出來,不僅無助于技術開發(fā)者通過技術進步來預防損害的發(fā)生,,而且對機器人的未來重復侵權行為毫無作為,。四是除了財產(chǎn)責任外,法律無從對機器人直接追責和懲罰,,比如包括法律上的停止侵害,、消除危險、賠禮道歉等救濟手段,,以及刑事責任的追究等,,都無法實現(xiàn)??偠灾?,目前探討賦予機器人財產(chǎn)性人格尚為時過早,機器人給我們制造了一個同時兼具倫理人的形象和工具人的功能的綜合性幻象,,使我們時常在兩者之間來回跳躍,,但可以肯定的是,在具有自我意識的人工智能出現(xiàn)之前,,為一個單獨的,、沒有“自然人”和“自身財產(chǎn)”依托的人工智能機器賦予技術性人格,可能性甚微,。
(二)權利主體
上文主要是從承擔侵權責任的角度,,論述了機器人作為責任主體的理論困境。與此同時,,當前在生成式大模型領域卻存在著人工智能的權利主體問題,,即ChatGPT系列可否對其生成出來的文字、視頻等作品享有知識產(chǎn)權,。此處的“權利”主體與上文中的“責任”主體并不屬于同一語境,,前者蘊含的“創(chuàng)作者”帶有較強的主體性人格色彩,且以權利能力作基礎,;后者則完全以責任承擔為導向,,僅作為侵權責任風險化解的工具存在,不以權利能力為基礎,,但在人格區(qū)分中都屬于技術性人格范疇,。目前關于人工智能著作權的理論探討主要集中在兩個方面,即作品的“可作品性”和人工智能的“可主體性”,,這兩個方面緊密聯(lián)系且相互影響,,實際上可歸結為同一個理論基礎,即是由主體性決定作品性,,還是由作品性決定主體性,。限于篇幅,下文簡述之,。 就第一個問題即人工智能生成的作品是否構成著作權法上的“作品”而言,,目前在理論上贊成者居多。其主要理由在于,,人工智能生成的作品具有獨創(chuàng)性和藝術審美價值,,符合法律上對作品的基本要求,通過著作權保護可以達到鼓勵創(chuàng)新的目的,;反對的理論較少,,主要還是認為創(chuàng)作是專屬于人的活動,給機器生成作品賦予著作權會陷入“有成果必有作者”之謬誤,。從客觀形式上看,,機器生成的作品無疑具有與人類作品相似的稀缺性和社會價值,甚至“藝術”水準還要高于人類,,故問題的焦點不在于“作品”本身,,而在于是否可納入著作權范疇予以保護。顯然,,從外在作品形式角度就認定機器生成的作品屬于著作權法上的“作品”,,有些過于簡單了,它給我們帶來的挑戰(zhàn)應在“作品”之外,,體現(xiàn)如下: 一是對作品予以著作權保護是近代印刷術和工業(yè)革命興起后的產(chǎn)物,,它具有特定的歷史和技術背景,在歷史上的絕大多數(shù)時期人類的創(chuàng)作作品并沒有受到法律保護,,而是由人類成員自由分享,。二是近代以來法律對“作品”的保護主要是激勵創(chuàng)新,促進藝術文化的繁榮,,但事實上著作權法并沒有做到這一點,。盡管法律強調“作品”的獨創(chuàng)性不在于客觀的和歷史的創(chuàng)造性,,而在于基于人類心理和思維個性的“心理創(chuàng)造性”,但很顯然當今著作權幾乎對所有個人創(chuàng)造的作品(包括正式和非正式,、生活和職業(yè),、有價值或無價值等)都予以保護,沒有任何客觀價值的“門檻”,,其激勵創(chuàng)新的功能讓人懷疑,。三是如果認為“非人”創(chuàng)造的作品亦成為著作權法上的作品,那么可以想象,,大自然為人類創(chuàng)造了無與倫比的自然作品,,動物亦為人類創(chuàng)造了豐富的生態(tài)作品,并成為人類在觀光旅游中欣賞的對象,,是否亦應為之設定一個“作品”和“作者”呢,?四是通過“作品”保護機器人生成物,并不能有效維持目前的人類作品保護,。它給我們帶來的啟示是,,機器人以大規(guī)模的“創(chuàng)作”取代了人類通常水準的創(chuàng)作,并使人類只有通過高水準的創(chuàng)作才能獲得社會認同和經(jīng)濟利益,,這就如同傳統(tǒng)社會的藝術家和工匠,,近代機器化生產(chǎn)取代了大部分工匠的工作,藝術家只有專注于獨特性和高水準的創(chuàng)作才能獲得社會的青睞,。除此之外,,尚有作品法律保護可能性的問題,如傳統(tǒng)版權是通過出版環(huán)節(jié)的版稅來實現(xiàn)經(jīng)濟利益的,,互聯(lián)網(wǎng)時代這一環(huán)節(jié)很大程度上被電子化了,,這意味著作品通過類似紙質時代“鎖定”作品利益的方式會被無差別的網(wǎng)絡分享所沖擊,對于人工智能作品而言,,它在系統(tǒng)里隨時大規(guī)模地生成,、復制和流動,作品的確權和利益實現(xiàn)缺少穩(wěn)定可靠的“鎖定”方式,,作品會慣常性地溢出到公共領域,。基于以上考慮,,通過所謂的“作品”來決定“主體”的方式并不完全符合社會和生活常識,,甚至有些本末倒置。 就第二個問題即人工智能是否可以成為作品主體而言,,由于上文已對機器作品的“可作品”性進行了質疑,,故主體性問題相應地也不會存在。但為了使問題更清晰,不妨也從主體角度來做一番設想,。設若我們將人工智能作為創(chuàng)作主體,,它會面臨以下困難:一是人工智能在目前的技術條件下無法自主創(chuàng)作,它是人類設計出來的智能工具,,并接受人類的指令自動生成作品,。二是人工智能目前缺少自我意識,、想象力和直覺,,它生成的作品可能具有歷史創(chuàng)新性,但絕對缺少心理創(chuàng)造性,,而后者是“作品”的靈魂,。三是人工智能作為創(chuàng)作人,與著作權服務于人際域的初衷相違,。著作權是人類的創(chuàng)造并服務于人類,,它調整的是人際關系中的創(chuàng)新激勵和利益分配,也是私法在近代的權宜性創(chuàng)造,,它不似財產(chǎn)和人格具有歷史縱深感,,而是可供取舍的技術性的權利。故著作權理論不能改變自身小口徑之外的大口徑問題,,有關機器人人格和財產(chǎn)的相關問題應當在基礎法理層面上予以深入探討,。四是人工智能作為創(chuàng)作人,并不能實實在在地享有和行使權利,,亦不能因此承擔責任,。 基于此,學界將目標轉移至人工智能的用戶上,,以論證用戶取得作品著作權的合理性,。關于此問題的討論甚多,在此僅簡要陳列幾項主要理論障礙:一是用戶的創(chuàng)作行為并沒有被有效坐實,。將通過指令,、提示以及參數(shù)設定等方式由機器人生成的作品,歸之為用戶的創(chuàng)作,,失之勉強,,為眾多案例和學者所不認同。二是人工智能生成作品,,取決于投資人,、開發(fā)人、所有人和用戶等多個主體的共同貢獻,,其中開發(fā)者的貢獻應占主導地位,,故人為設定用戶為主體失之武斷。人工智能是復雜的技術綜合體,我們無法在錯綜復雜的“主體”叢林中任意指定一個創(chuàng)作人,。三是如果指定用戶作為著作權人,,那么他應同時承擔與作品相關的責任。如果機器人作品中涉及到侵害他人著作權的行為,,用戶作為創(chuàng)作人就應當應承擔相關責任,,試問這種情況該如何處理?其他不一一贅述,。 基于上述分析,,當今關于機器人作品及主體問題的探討,很大程度上受傳統(tǒng)思維慣性的影響,,即只要存在“作品”,,就會有“主體”存在,反之亦然,。人工智能的“作品”和“主體”問題實則為同一問題,,一項不成立應當隨之導致另一項失效。故人工智能創(chuàng)作是一個全新的領域,,不一定受傳統(tǒng)規(guī)則的轄制,。我們忽視了除了受現(xiàn)代著作權保護的作品外,大量的天然和人工作品自始以來即由人類共同自由分享,,時代的發(fā)展亦促使人類在人工智能時代創(chuàng)造出新的創(chuàng)作激勵機制,,而非將有益于人類的機器人作品人為地納入現(xiàn)有權利框架,以迎合傳統(tǒng)社會對所有的所謂人類“作品”予以平面化和普惠化保護的低水平需求,。這一部分主要探討的是人工智能能否成為“權利”主體的問題,,此處以著作權為例所做的分析,亦大部分適用于其他“權利”場合,??偨Y本部分的論述,一言以蔽之,,將人工智能作為技術人格中的責任主體和權利主體,,目前并沒有任何成功案例和成功征兆,除非具有自我意識的強人工智能出現(xiàn),。四,、未來人工智能兩種人格融合的“抽象度”分析和展望
通過上文的分析,我們大致了解了目前賦予人工智能兩種人格面臨的理論和實際困難,,但這并不意味著未來一直如此,。隨著智能科學的發(fā)展以及人類對意識大一統(tǒng)理論的探索,人工智能成為新興的,、具有自我意識的智能體并非完全不可能,,故我們應以開放的眼光看待人工智能的未來。基于這種愿景,,在此我們可以嘗試對強人工智能時代的機器人人格作一個前瞻式的預想,,即假設人工智能具有真正類人的智能,,那么它將具有何種法律上的人格形態(tài),,以及兩種人格將以何種方式融合并呈現(xiàn),。這就涉及一個傳統(tǒng)民法上的人格融合問題,主要體現(xiàn)在自然人領域,。通過第一部分的分析,,我們了解到民法上實際存在著涇渭分明的兩類人格,但由于民法理論和結構并未對此進行區(qū)分,,加之親屬法和人格法體量較小,,兩種人格被人為地統(tǒng)一于具有財產(chǎn)法人格底蘊的“權利能力”之下,致使兩種人格在自然人上呈現(xiàn)出一種融合或糾纏的狀態(tài),,并體現(xiàn)為一種位于倫理性和財產(chǎn)性之間的序列人格體,,其中法律對于自然人的“抽象度”成為度量人格具體形象的重要指標,。基于此,,未來人工智能是否也會呈現(xiàn)同樣的特征,以及呈現(xiàn)何種人格融合狀態(tài),,值得我們思考,。以下就傳統(tǒng)民法人格和人工智能人格的抽象度問題做一簡述。
(一)傳統(tǒng)民法基于“抽象度”形成的人格序列遞進現(xiàn)象
此處所稱人格的“抽象度”,,指的是民法上在對于人格進行抽象形成具體人格的過程中主體的被抽象程度。從傳統(tǒng)民法體系上看,,人法部分看似單一,實則呈現(xiàn)出從家庭身份到法人直至商法上的上市公司等一系列人格系列,,從親權到上市公司,其主體形態(tài)已判若云泥,,其中決定這種人格序列順位的是私法對主體的抽象程度。它意味著從親屬關系到上市公司經(jīng)歷了法律一次次的抽象,,將自然人從現(xiàn)實中的家庭成員逐步抽象至普遍性的人格權主體,、自然人財產(chǎn)主體、法人財產(chǎn)主體直至商法上的商主體等,。通過法律的逐步抽象,,自然人的生物、倫理和社會屬性逐步褪去,,逐漸嬗變成無色無味的“抽象人”,,最后在財產(chǎn)法上“自然人”亦被抽象掉,成為與法人同等的“符號”化財產(chǎn)人格,。從人到“非人”,、從倫理人至“符號”,其間經(jīng)歷的一個實質性斷裂就在于倫理人格完全變成工具性,、形式性的人格,。但在民法上這種立體性的人格體系被平面化的統(tǒng)一人格遮蔽了,,致使我們對于親屬法、人格權法與財產(chǎn)法的結構區(qū)分失去參考支點,,亦導致在論證民法和商法關系上失去了一個重要參考因素,。盡管從抽象度上我們可以列舉私法人格的遞進序列,但財產(chǎn)法上的人格抽象還是根本性的,、徹底性的,,它與倫理人格最后仍然保留社會化場景中自然人的生物性和倫理性品格不同,而是成為一種完全不同的格式化產(chǎn)物,。這種工具人格并不能通用于其他法律領域,,而倫理性人格卻可以與整個法律體系分享同樣的價值體系?;诖?,兩種人格的區(qū)分在對私法上的人格體系的解釋上,既有“漸變”的一面,,亦有“突變”的一面,。實際上我們可以觀察到,不同的人格對應不同的私法規(guī)則體系,,這有利于我們從人格譜系角度區(qū)分人身法和財產(chǎn)法,、民法和商法的大致界限,亦有利于我們正確理解由兩種人格因素相互滲透帶來的“民法商法化”和“抽象人格具體化”的私法發(fā)展現(xiàn)象,。 對民法上的兩種人格進行理論區(qū)分,并非要刻意將這種區(qū)分絕對化,,以解構傳統(tǒng)私法的結構,。這種區(qū)分類似于幾何學上的輔助線具有增進理解和解決問題的意義,并不能用來“切割”現(xiàn)實生活,。實際上,,自然人在私法人格上擔負著基礎的功能和角色,它同時具備兩種人格生活,,并在人格類型間自由切換且應付裕如,,并構成近代以來市民生活的底色。就私法價值體系而言,,技術性人格只是法律的創(chuàng)造,,它解決的只是財產(chǎn)領域的歸屬和效率問題,盡管具有刻板化和程式化的特點,,但最終還是應服務于或回歸于社會倫理生活中的基本價值,。如拉倫茨認為,民法最基本的價值還是在于對他人的尊重,。倫理性人格是技術性人格的基礎和歸宿,,因為工具人格并不要求自然人在超市購物時設想對方毫無人情可言,,也不會要求公司在進行交易時完全漠視社會的禮節(jié)和社會責任。一旦技術人格發(fā)展過快,,脫離社會基本面并影響社會正常運轉時,,技術人格又將披上社會化的具象外衣,來平抑這種失衡,。如當代民法頻繁關注諸如消費者,、承租人和勞動者等交易角色并予以特殊保護,即當產(chǎn)生“強而智”之人對“弱而愚”之人的壓迫現(xiàn)象時,,民法對之干預便成為必要,,它是民法對市民社會自我修復功能的體現(xiàn)。但另一方面,,當代商業(yè)社會的發(fā)展又進一步重塑了傳統(tǒng)市民社會的價值觀念和生活方式,,尤其是互聯(lián)網(wǎng)商業(yè)模式的普及和演化,使傳統(tǒng)社會生活和交易的場景化特征完全消失,,以“卡通式”形象出現(xiàn)的個體電商游走于民事人格和商法人格之間,,呈現(xiàn)出“民法商法化”加劇的趨勢??傮w而言,,倫理人格決定技術人格的底色,而技術人格又將重塑倫理人格的內(nèi)涵,,是未來私法人格發(fā)展的主旋律,。
(二)未來人工智能私法人格發(fā)展的展望
隨著人工智能的快速發(fā)展,人工智能在法律上的主體地位問題會一直存在,,并日趨凸顯,。依上文所述,在缺乏自主意識的通用人工智能真正出現(xiàn)以前,,人工智能主要體現(xiàn)為人類的智能增強工具,,沒有辦法在法律上賦予其獨立的倫理性人格,并把它當作完全獨立的倫理主體來認定,。同時在技術性人格的塑造上,,人工智能又面臨如何用自身獨立財產(chǎn)來承擔自主行為的責任的問題,因為傳統(tǒng)民法上的擬制人格最終需要自然人的自由意志和所投入財產(chǎn)的支撐,,即使將人工智能本身當作獨立“財產(chǎn)”處理,,亦需要自然人意志的支持。對于未來人工智能而言,,它的主體性發(fā)展在法律上呈現(xiàn)兩種人格并行發(fā)展的趨勢,,且相互促進。就倫理性人格而言,,在通用人工智能出現(xiàn)以前,,各類專門人工智能將日益普遍地擔當服務人類的各種角色,,如上文所述的情侶機器人、助老機器人或電子寵物等將更加深入地融入到人類生活,,并產(chǎn)生人機交互倫理的訴求,,從而客觀上產(chǎn)生是否應將機器人當作類似“動物”的第三類主體問題。就財產(chǎn)性人格而言,,盡管目前為促進技術發(fā)展,,尚不能將相關風險完全拋給社會,財產(chǎn)人格仍有發(fā)展空間,,只是它的理論基礎與傳統(tǒng)民法擬制人格有所不同,。傳統(tǒng)法人制度依然是自然人和財產(chǎn)的結合,通過有限責任來形成資本融合和風險限定,,而人工智能本身兼具“智能體”和“財產(chǎn)”的屬性,,只是體現(xiàn)為“個體”,與“組織”無關,,在人工智能體本身尚不能承擔責任且無法由自然人有限分擔的情形下,,法律可能會創(chuàng)造出超越“自己”責任的另一種社會化風險分擔方式,這有點類似于嚴格責任對過錯責任的跨越,,只是這次的跨度更大,。在人工智能發(fā)展到一定階段,通過人類的努力已經(jīng)無法由特定主體承擔由“算法黑箱”產(chǎn)生的自動化風險,,且這種風險通過大型算法的連接已經(jīng)成為系統(tǒng)性的社會風險時,,基于公共利益的考慮,一種全新的社會風險集體承擔機制將會出現(xiàn),。 在兩種人格以及抽象度問題上,,人工智能在法律上與自然人遵循相反的發(fā)展路徑,即與私法首先將自然人當作生物人和社會人不同,,法律對于人工智能是以技術性人格的探討作為起點。人工智能一開始即以極抽象的客體形象出現(xiàn),,目前它仍舊處于人類的“財產(chǎn)”領域,,并逐步往倫理化方向發(fā)展,在此過程中人工智能會逐漸被具象化并賦予倫理意義,。在人工智能具象化的過程中,,人機交互充當了重要媒介。人機關系是人類從未遇過的人工智能時代的基礎關系,,它使人類同時在“智能體”和“財產(chǎn)”之間進行動態(tài)權衡,,既渴望和擔憂強人工智能的出現(xiàn),又追求人工智能的利用效益和排斥自動化帶來的風險,。無論如何,,人工智能一旦被人類開啟,,即如凱文·凱利(Kevin Kelly)所言,技術本身具有生命,,它將堅定地朝著自身固有的方向自動演化,。同時人工智能兼具“智能體”和“財產(chǎn)”的雙重屬性,對于法律上的主客體理論以及線性思維造成了較大沖擊,,它將使未來社會生活呈現(xiàn)出原子化和系統(tǒng)化相互交織的圖像,,人格理論在此種社會場景中亦將呈現(xiàn)出多元化和功能化的趨勢,抽象化和具體化同時成為人格形象的兩種工具,??梢韵胂螅坏娙斯ぶ悄軙r代來臨,,公法首先將確定人工智能的倫理主體意義,,同時人工智能的自主行為和獨立財產(chǎn)會隨之產(chǎn)生,屆時人工智能的財產(chǎn)屬性將逐漸減弱,。至于人工智能是否具有類似人類的倫理生活(如親屬和人格),,以及是否也會分享人類的財產(chǎn)人格和交易法則,只能留待未來去驗證了,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1129665.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。