【學(xué)術(shù)爭(zhēng)鳴】作者:許中緣(中南大學(xué)法學(xué)院院長(zhǎng)、教授)當(dāng)前,,人工智能正以前所未有的速度迅猛發(fā)展,,深刻影響著人類的生活和社會(huì)結(jié)構(gòu)。現(xiàn)有民法體系將人工智能納入客體制度進(jìn)行規(guī)制,,使得在規(guī)制人工智能損害時(shí)面臨諸多難題,特別是權(quán)利義務(wù)認(rèn)定的模糊性和法律責(zé)任的分散性導(dǎo)致對(duì)受害人的保護(hù)不周延,,影響人工智能技術(shù)的進(jìn)一步發(fā)展,。由此,“人工智能是否應(yīng)當(dāng)成為法律主體”的議題引起了諸多學(xué)術(shù)討論與社會(huì)爭(zhēng)議,。光明日?qǐng)?bào)理論版近期刊發(fā)的《人工智能不應(yīng)成為法律主體》和《破除人工智能成為法律主體的臆想》兩篇文章,,提出不應(yīng)當(dāng)賦予人工智能法律主體地位,筆者對(duì)此持不同觀點(diǎn),。筆者認(rèn)為,,主體制度是權(quán)利、行為,、責(zé)任制度的基礎(chǔ),,人工智能成為有限法律主體,有助于實(shí)現(xiàn)權(quán)利和責(zé)任的清晰劃分,,推動(dòng)科技創(chuàng)新健康發(fā)展,。8月16日,、23日,,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片8月16日,、23日,,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片人工智能作為客體的弊端其一,,人工智能作為客體在侵權(quán)責(zé)任中存在構(gòu)造不當(dāng)問(wèn)題,。傳統(tǒng)民法責(zé)任制度建立在個(gè)人過(guò)錯(cuò)基礎(chǔ)之上,對(duì)于普通機(jī)器適用客體制度能夠解決問(wèn)題,,但在具有高感知力與高決策力的人工智能語(yǔ)境下,,則難以通過(guò)客體制度保障受害人權(quán)利。具言之,,在過(guò)錯(cuò)責(zé)任中,,合理預(yù)見(jiàn)是確立責(zé)任的基礎(chǔ),預(yù)見(jiàn)性確定了責(zé)任的性質(zhì)與責(zé)任的內(nèi)容,但由于人工智能能夠獨(dú)立思考和作出決策,,其自我決策的存在削弱了參與主體(使用者)的過(guò)錯(cuò)程度,,因此需要重新審視和調(diào)整民事責(zé)任的分配機(jī)制,。對(duì)此,學(xué)界試圖以嚴(yán)格責(zé)任來(lái)解決致人損害的問(wèn)題,,但沉重的責(zé)任負(fù)擔(dān)將嚴(yán)重影響人工智能的開(kāi)發(fā)與利用,。其二,,人工智能作為客體在產(chǎn)品缺陷認(rèn)定中存在困難。人工智能系統(tǒng)的復(fù)雜性意味著人類對(duì)其行為無(wú)法完全掌控,。例如,,高階自動(dòng)駕駛汽車在發(fā)生事故時(shí),,在其客體定位下只能極力探尋是因產(chǎn)品缺陷還是操作不當(dāng)導(dǎo)致事故發(fā)生,而人工智能的“算法黑箱”導(dǎo)致缺陷認(rèn)定困難,。即使在確定產(chǎn)品存在缺陷后,,最終硬件制造商、軟件開(kāi)發(fā)商,、算法設(shè)計(jì)師,、數(shù)據(jù)提供商等參與主體分別承擔(dān)何種責(zé)任,,依然無(wú)法準(zhǔn)確認(rèn)定。這種責(zé)任分散且因果關(guān)系中斷的情況加大了責(zé)任歸屬認(rèn)定的難度,,導(dǎo)致責(zé)任認(rèn)定的無(wú)限遞歸,,不利于保護(hù)受害人的權(quán)益。對(duì)此,,《人工智能不應(yīng)成為法律主體》與《破除人工智能成為法律主體的臆想》等提出否定觀點(diǎn),,均認(rèn)為人工智能所引發(fā)的問(wèn)題完全可以由既有法律體系調(diào)整而解決。這確實(shí)能夠在一定程度上解決當(dāng)前的擔(dān)責(zé)困境,。但這種應(yīng)對(duì)之策,,與認(rèn)可人工智能能夠成為法律主體一樣,均屬解決人工智能發(fā)展所帶來(lái)的法律挑戰(zhàn)的備選方案,,二者并無(wú)本質(zhì)區(qū)別,。其三,人工智能作為客體不利于科學(xué)技術(shù)的發(fā)展創(chuàng)新,。正如美國(guó)學(xué)者博登海默所言,,法律必須服從社會(huì)進(jìn)步所提出的正當(dāng)要求。在快速發(fā)展的智能時(shí)代,,法律應(yīng)當(dāng)促進(jìn)而非阻礙技術(shù)創(chuàng)新與應(yīng)用,。若將人工智能僅視為客體,那么在面對(duì)技術(shù)迭代與應(yīng)用場(chǎng)景擴(kuò)展時(shí),,現(xiàn)行法律框架可能無(wú)法提供足夠的激勵(lì)機(jī)制和安全保障,,進(jìn)而抑制了潛在的社會(huì)經(jīng)濟(jì)效益與科技進(jìn)步。值得強(qiáng)調(diào)的是,,主體制度是權(quán)利制度的基礎(chǔ),,權(quán)利是定分止?fàn)幍幕A(chǔ)。人工智能被視為法律主體后能使權(quán)利義務(wù)更加清晰,。例如,,當(dāng)前關(guān)于人工智能創(chuàng)造物的歸屬爭(zhēng)議,即是因人工智能的客體定位導(dǎo)致了正當(dāng)權(quán)利主體的“虛無(wú)”,,這何嘗不是人類的一種“自負(fù)”,?而將人工智能作為主體則能夠使權(quán)利更加明確地被界定和分配——?jiǎng)?chuàng)作物屬于人工智能與使用者共同所有。此外,,《人工智能不應(yīng)成為法律主體》一文提出,,人工智能成為法律主體有潛在的不可預(yù)計(jì)的風(fēng)險(xiǎn)。但正是基于此種風(fēng)險(xiǎn),,才更需要“刺穿人工智能面紗”,從而增加一種可選擇的直接規(guī)制其致害的路徑,。這種做法不僅能有效解決責(zé)任歸屬問(wèn)題,,還能通過(guò)設(shè)定合理的責(zé)任限制和保險(xiǎn)機(jī)制來(lái)平衡技術(shù)進(jìn)步帶來(lái)的潛在利益與可能的危害,,確保受害者能夠獲得適當(dāng)?shù)馁r償,同時(shí)避免過(guò)度懲罰技術(shù)創(chuàng)新者,,從而保持技術(shù)發(fā)展的活力,。人工智能成為有限法律主體的可行性其一,民事主體是法律承認(rèn)的結(jié)果,,法律人格在社會(huì)需求中不斷擴(kuò)張,。從“人可非人”到“非人可人”的歷史演變,闡釋了民事主體只是社會(huì)需要的法律形式,。例如,,法人制度的出現(xiàn)純粹是經(jīng)濟(jì)發(fā)展的需求導(dǎo)致法律技術(shù)進(jìn)步的結(jié)果,是一種經(jīng)濟(jì)生活的客觀現(xiàn)實(shí)與法律技術(shù)運(yùn)用相結(jié)合的產(chǎn)物,。即使是法國(guó)民法典編纂之時(shí),,立法者因害怕波旁王朝借“法人制度”進(jìn)行復(fù)辟而予以拒斥,卻依然無(wú)法違背“法律須適應(yīng)社會(huì)發(fā)展需求”這一客觀規(guī)律,,最終法人具有擬制主體地位,。又如,法律為了保護(hù)胎兒利益,,在繼承,、接受贈(zèng)與等情況下被視為已出生,胎兒在此種情形下具有民事主體地位,。人格制度的演變直接反映了整個(gè)民法觀念,、價(jià)值的發(fā)展變化,逐漸出現(xiàn)了“沒(méi)有臉龐”的權(quán)利主體,。法律對(duì)民事主體的承認(rèn)是基于現(xiàn)實(shí)需要,,根基在于實(shí)現(xiàn)人的利益,生命和倫理并非成為民事主體的必然要求,。其二,,賦予人工智能有限人格不會(huì)損害以人為中心的主體制度,反而以工具性人格來(lái)定位人工智能可以更好貫徹以人為本的理念,?!镀瞥斯ぶ悄艹蔀榉芍黧w的臆想》一文認(rèn)為,“賦予人工智能主體地位會(huì)挑戰(zhàn)以人類為中心的傳統(tǒng)觀念”,。但在有限的工具性人格主張下,,此種憂慮可以得到解決。對(duì)人工智能有限人格的承認(rèn),,其實(shí)是以人類為中心建立相應(yīng)的制度體系,,避免具體人格的缺乏導(dǎo)致規(guī)則的無(wú)所依存。事實(shí)上,,我國(guó)民事主體可分為支配性主體(自然人)與工具性主體(法人,、非法人組織),,后者系為了服務(wù)人類社會(huì)發(fā)展,實(shí)現(xiàn)責(zé)任有限的目的而人為擬制的一種工具,,但并不具有與人類完全相同的權(quán)利義務(wù),。同樣,賦予人工智能民事主體資格,,也可使人工智能更好地發(fā)展以服務(wù)人類社會(huì),。其三,賦予人工智能有限人格不會(huì)違反現(xiàn)行民事財(cái)產(chǎn)制度,。財(cái)產(chǎn)制度作為一種社會(huì)分擔(dān)制度,,其核心在于通過(guò)法律手段合理分配社會(huì)資源,以實(shí)現(xiàn)公平與效率的雙重目標(biāo),。從這個(gè)角度看,,賦予人工智能有限的法律人格不僅不會(huì)與現(xiàn)有財(cái)產(chǎn)制度相沖突,反而能更好地發(fā)揮財(cái)產(chǎn)制度的社會(huì)分擔(dān)功能,。一方面,,人工智能所涉及的財(cái)產(chǎn)關(guān)系本質(zhì)上是對(duì)既有財(cái)產(chǎn)制度的補(bǔ)充和完善。例如,,當(dāng)人工智能作為投資受托人參與經(jīng)濟(jì)活動(dòng)時(shí),,其獲取的財(cái)產(chǎn)收益可以被規(guī)定為歸委托人所有,或者按照事先約定的比例分配給委托人和機(jī)器人本身,。這種安排既尊重了財(cái)產(chǎn)所有權(quán)的基本原則,,又為新型經(jīng)濟(jì)活動(dòng)提供了法律上的支持,確保了財(cái)產(chǎn)分配的公平性和合理性,。另一方面,,財(cái)產(chǎn)制度的一個(gè)重要功能是通過(guò)法律規(guī)范來(lái)實(shí)現(xiàn)資源的有效配置和社會(huì)風(fēng)險(xiǎn)的合理分散。通過(guò)賦予人工智能有限法律人格,,可以明確其在特定情形下的財(cái)產(chǎn)持有權(quán)和使用權(quán),。例如,商用無(wú)人駕駛汽車因出租或共享而獲取的收益,,可以歸屬汽車所有,,這些收益可以用來(lái)彌補(bǔ)潛在的風(fēng)險(xiǎn)損失,或用于補(bǔ)償受害者的損失,。由此,,財(cái)產(chǎn)制度不僅促進(jìn)了資源的有效利用,還實(shí)現(xiàn)了社會(huì)風(fēng)險(xiǎn)的合理分擔(dān),?;谠撝贫龋镀瞥斯ぶ悄艹蔀榉芍黧w的臆想》一文提出人工智能沒(méi)有獨(dú)立財(cái)產(chǎn)承擔(dān)責(zé)任的說(shuō)法亦不攻而破。對(duì)有限法律主體之“有限性”的理解具有自主性與決策力的人工智能具有一定程度的創(chuàng)造性:創(chuàng)造出相應(yīng)在法律上無(wú)從依歸的權(quán)利,,創(chuàng)造出相應(yīng)無(wú)法確定的責(zé)任,。基于此,,為解決相應(yīng)問(wèn)題,人工智能應(yīng)該成為有限法律主體,,其“有限性”主要表現(xiàn)為以下幾個(gè)方面:其一,,權(quán)利能力的有限性。人工智能作為工具性主體并不享有倫理性的人格權(quán)或身份權(quán),,而是享有經(jīng)濟(jì)性的財(cái)產(chǎn)權(quán)利,。這意味著人工智能可以通過(guò)自己的“勞動(dòng)”擁有特定的財(cái)產(chǎn)權(quán),但它們并不享有與自然人相同的身份權(quán)或人格權(quán),,比如名譽(yù)權(quán),、隱私權(quán)等。需要注意的是,,在肯定人工智能擁有財(cái)產(chǎn)權(quán)的基礎(chǔ)上,,也不妨礙其作為人類“所有物”的屬性。這一點(diǎn)可以類比于實(shí)控股東對(duì)法人的“所有權(quán)”,,而法人也具有自己的財(cái)產(chǎn),。簡(jiǎn)言之,法律在肯定人工智能可以享有民事財(cái)產(chǎn)權(quán)的同時(shí),,并不改變?nèi)斯ぶ悄鼙旧硐鄬?duì)于人類而言的客體屬性,。其二,行為能力的有限性,。人工智能的行為能力同樣受限于其設(shè)計(jì)和技術(shù),。盡管人工智能能在一定范圍內(nèi)自主決策和執(zhí)行任務(wù),但這些行為始終受制于其編程邏輯及法律規(guī)范,。設(shè)計(jì)者,、使用者或所有者通過(guò)編程等方式設(shè)定了人工智能的行為邊界,以保障其行為不會(huì)超出法律和社會(huì)可接受的范圍,。亦即,,盡管人工智能具備一定的自主性,但其行動(dòng)仍需遵循預(yù)設(shè)的規(guī)則體系,,且最終應(yīng)由人類負(fù)責(zé)監(jiān)督和控制,。簡(jiǎn)言之,人類不可因人工智能有限主體地位而逃避自身的責(zé)任,。由此,,可回應(yīng)《破除人工智能成為法律主體的臆想》一文提出“誘發(fā)道德風(fēng)險(xiǎn)”的擔(dān)憂。其三,,責(zé)任能力的有限性,。人工智能的責(zé)任能力與自然人的責(zé)任能力不同,,其承擔(dān)責(zé)任是有限的?!度斯ぶ悄懿粦?yīng)成為法律主體》一文認(rèn)為人工智能無(wú)法獨(dú)立承擔(dān)責(zé)任,。在有限人格的制度定位下,法律應(yīng)當(dāng)為人工智能創(chuàng)設(shè)特殊的責(zé)任承擔(dān)的機(jī)制,,在一定限度內(nèi)以自己的財(cái)產(chǎn)獨(dú)立對(duì)受害人承擔(dān)責(zé)任,,以減輕相關(guān)參與人的責(zé)任負(fù)擔(dān)。例如,,通過(guò)統(tǒng)一為人工智能開(kāi)設(shè)相應(yīng)信托賬戶,、購(gòu)買保險(xiǎn)等方式,當(dāng)其對(duì)他人造成損害時(shí),,優(yōu)先以該賬戶資金進(jìn)行賠付,;同時(shí),還可以通過(guò)登記確立人工智能與占有人的代理關(guān)系,,從而確定代理人與被代理人之間的責(zé)任承擔(dān)機(jī)制,。以上述多元財(cái)產(chǎn)—責(zé)任制度的設(shè)計(jì)來(lái)完成對(duì)責(zé)任的承擔(dān)。隨著時(shí)代的發(fā)展,,尤其是人工智能技術(shù)的迅速發(fā)展,,法律制度的革新變得尤為迫切。人工智能不僅在改變著我們的生活方式,,還在影響著既有法律框架,,推動(dòng)著法律理論的創(chuàng)新。將人工智能視為有限法律主體,,不僅是應(yīng)對(duì)當(dāng)前法律挑戰(zhàn)的迫切需求,,也是促進(jìn)社會(huì)科技進(jìn)步和創(chuàng)新的必要之舉。雖然這一路徑面臨諸多爭(zhēng)議,,但面對(duì)快速變化的社會(huì)和科技環(huán)境時(shí),,簡(jiǎn)單劃定界限、固守成規(guī),,往往會(huì)限制創(chuàng)新與進(jìn)步,。法律制度不應(yīng)僅僅停留在將人工智能視為客體進(jìn)行規(guī)制的傳統(tǒng)思維模式中,而應(yīng)積極探索并承認(rèn)其在特定條件下作為有限法律主體的可能性,,在促進(jìn)技術(shù)創(chuàng)新與應(yīng)用的同時(shí)確保法律制度能夠更好地服務(wù)于社會(huì)發(fā)展,。《光明日?qǐng)?bào)》(2024年09月02日 15版)來(lái)源:光明網(wǎng)-《光明日?qǐng)?bào)》
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1119597.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。