【環(huán)球視野】
作者:柳建龍(中國社會(huì)科學(xué)院大學(xué)法學(xué)院教授)
隨著人工智能技術(shù)的應(yīng)用和發(fā)展,,人們對(duì)它可能帶來的收益和風(fēng)險(xiǎn)的認(rèn)識(shí)日益深刻,。當(dāng)下,,人工智能的跳躍式發(fā)展在給人類社會(huì)帶來廣闊前景的同時(shí),,也給個(gè)人安全和保障帶來很大風(fēng)險(xiǎn),,增加了侵犯人類基本權(quán)利的可能性。然而,,各國政府卻普遍存在欠缺權(quán)力,、程序框架和資源以確保人工智能的發(fā)展和使用符合法律規(guī)定的能力。
如何從立法著手促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展,,成為迫在眉睫的課題,。
從跨國視角來看,碎片化的監(jiān)管措施會(huì)妨礙跨境人工智能市場的形成,,并威脅到數(shù)字主權(quán),。為此,歐盟出臺(tái)了一系列措施鼓勵(lì)企業(yè)發(fā)展人工智能解決方案,。本月底,,《關(guān)于制定確立人工智能統(tǒng)一規(guī)則(人工智能法)以及修改部分聯(lián)盟法律的歐盟議會(huì)和歐盟理事會(huì)的條例的提案》(以下簡稱“草案”)將提交歐盟議會(huì)表決。如獲通過,,意味著該法案將成為具有拘束力,,可在歐盟成員國內(nèi)直接適用的法律。
目前,,草案已提交歐盟議會(huì)一讀,。草案為調(diào)和人工智能的發(fā)展和利用與歐盟國家社會(huì)價(jià)值觀和公民基本權(quán)利保障,對(duì)人工智能的概念和分類,,高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者,、使用者及其他人的義務(wù)、法律后果等作了詳細(xì)的規(guī)定。鑒于當(dāng)下人工智能技術(shù)的發(fā)展,、利用以及流轉(zhuǎn)程度的加深,,特別是在日益復(fù)雜的全球科技格局和國際關(guān)系背景下,有必要對(duì)相關(guān)動(dòng)態(tài)予以進(jìn)一步關(guān)注,。
1.監(jiān)管“黑箱”技術(shù)的核心訴求
統(tǒng)一人工智能立法對(duì)于歐盟而言,,最重要的訴求就是要確保投放到歐盟市場的人工智能系統(tǒng)及其使用的安全性。近來,,人工智能系統(tǒng)的平民化使得藏在“黑箱”里的新技術(shù)變得觸手可及,。人工智能變得可以與普通人“交流”,但是它的好多“想法”卻讓人產(chǎn)生不安,。
怎么才能確保人工智能尊重現(xiàn)行法律中所包含的價(jià)值觀和基本權(quán)利成為一個(gè)現(xiàn)實(shí)問題,。人工智能可以“理解”歐盟社會(huì)的價(jià)值觀嗎?如何讓一個(gè)智能系統(tǒng)符合歐盟對(duì)于建立一個(gè)包容,、寬容,、公正、團(tuán)結(jié),、非歧視的社會(huì)的期待?尊嚴(yán),、自由、平等,、民主,、法治、人權(quán)保障等理念如何經(jīng)由對(duì)人工智能系統(tǒng)的分類處理,、細(xì)化各類主體的職責(zé)和義務(wù),、完善有關(guān)程序,進(jìn)而被強(qiáng)化,、具體化,、內(nèi)化到人工智能安全規(guī)定本身之中?《歐盟基本權(quán)利憲章》所保障的基本權(quán)利又如何能通過人工智能系統(tǒng)得到推進(jìn),,如:人性尊嚴(yán),、尊重私生活和保護(hù)個(gè)人數(shù)據(jù)、不受歧視權(quán)和男女平等,、獲得有效救濟(jì)和公平審判的權(quán)利,、辯護(hù)權(quán)和無罪推定等以及一些特殊群體的權(quán)利,如工人享有公平和公正的工作條件的權(quán)利,、消費(fèi)者權(quán)益保護(hù),、兒童權(quán)利和殘疾人的復(fù)歸社會(huì),與人們的健康和安全有關(guān)的,,如獲得高水平的環(huán)境保護(hù)和改善環(huán)境質(zhì)量的權(quán)利,。
從更宏觀的層面來看,,人工智能沒有國界,未來它很可能被用于不同國家的經(jīng)濟(jì)和社會(huì)部門,,在整個(gè)歐盟內(nèi)或者跨境進(jìn)行流轉(zhuǎn),。部分成員國已經(jīng)制定了相應(yīng)的法律,但這種做法對(duì)于人工智能的經(jīng)營者而言,,容易欠缺法律的穩(wěn)定性,。因此,制定統(tǒng)一的法律框架,、確保法律的確定性和可預(yù)見性,進(jìn)而促進(jìn)人工智能的投資和創(chuàng)新成為迫在眉睫的問題,。
歷史上,,各自為政的立法措施造成市場碎片化的案例屢見不鮮。制定統(tǒng)一的法律框架,,可以促進(jìn)合法,、安全和可靠的人工智能的應(yīng)用,確?;谌斯ぶ悄艿呢浳锖头?wù)的跨境自由統(tǒng)一市場的形成,。不過,值得注意的是,,草案旨在確立統(tǒng)一的法律框架,,而非具體法律規(guī)范,這為成員國在不損害立法目標(biāo)的情況下采取不同程度的行動(dòng),,特別是市場監(jiān)督系統(tǒng)的內(nèi)部組織和促進(jìn)創(chuàng)新措施的采納,,留下了空間。
2.從寬泛界定到細(xì)化指引
最初的“草案”對(duì)人工智能系統(tǒng)作了寬泛界定,,將其界定為采取一種或多種技術(shù)和方法開發(fā)的軟件,,并且能夠針對(duì)一組特定的人工定義的目標(biāo),產(chǎn)生諸如內(nèi)容,、預(yù)測,、建議或決定等影響其互動(dòng)環(huán)境的輸出。不過,,歐盟理事會(huì)認(rèn)為,,標(biāo)注過于寬泛難以提供清晰的指引,為此,,進(jìn)一步將人工智能的范圍縮小,,即通過機(jī)器學(xué)習(xí)以及以邏輯和知識(shí)為基礎(chǔ)的方法發(fā)展起來的系統(tǒng),以區(qū)別于一般軟件系統(tǒng),。
按照對(duì)個(gè)人人身和安全,、基本權(quán)利可能造成的風(fēng)險(xiǎn)高低,,《歐盟人工智能法》將人工智能系統(tǒng)分為三類加以區(qū)別處理,分別是禁止,、高風(fēng)險(xiǎn),、非高風(fēng)險(xiǎn)三類。
草案禁止人類的人工智能實(shí)踐及實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng)的運(yùn)用作了規(guī)定,。首先,,禁止在市場上投放、交付使用的包括:以個(gè)人無法認(rèn)知的方式,,采用潛意識(shí)教化技術(shù)嚴(yán)重扭曲個(gè)人行為或者利用特定群體的年齡,、殘障或者特定社會(huì)或經(jīng)濟(jì)處境等弱點(diǎn),其目的旨在或者效果為嚴(yán)重扭曲與該群體相關(guān)的人的行為,,業(yè)已或可能對(duì)個(gè)人生理或心理造成傷害的人工智能系統(tǒng),,以及根據(jù)自然人的社會(huì)行為或者已知或預(yù)測的個(gè)性特征或人格特征,在一定時(shí)期內(nèi)對(duì)自然人進(jìn)行評(píng)估或分類,,但其所產(chǎn)生的社會(huì)評(píng)分可能造成自然人或其整個(gè)群體在社會(huì)環(huán)境中受到不利或不適宜待遇的人工智能系統(tǒng),。
與此同時(shí),草案對(duì)實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng)的使用作了一般性禁止規(guī)定,。其例外情形作了嚴(yán)格限制,,當(dāng)且僅當(dāng)其使用存在絕對(duì)必要性時(shí),執(zhí)法機(jī)關(guān)或受其委托者可在公共場所訴諸前述系統(tǒng),。
高風(fēng)險(xiǎn)的人工智能指可能對(duì)個(gè)人健康,、安全及基本權(quán)利產(chǎn)生重大有害影響的人工智能。草案雖然未作明確界定,,但給出了高風(fēng)險(xiǎn)人工智能系統(tǒng)的判斷標(biāo)準(zhǔn),。具體而言,下列人工智能系統(tǒng)應(yīng)視為高風(fēng)險(xiǎn)人工智能系統(tǒng):根據(jù)歐盟統(tǒng)一立法清單,,相關(guān)產(chǎn)品或者作為其安全部件的人工智能系統(tǒng)本身,,在投放市場或者投入使用前需要接受第三方合規(guī)評(píng)估的,如運(yùn)輸,、機(jī)械,、電梯、壓力設(shè)備,、醫(yī)療設(shè)備,、安全設(shè)備、無線電設(shè)備的人工智能系統(tǒng),;旨在用于包括自然人的生物識(shí)別和分類,、關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)作、教育和職業(yè)培訓(xùn),、就業(yè),、執(zhí)法,、移民、難民和邊境管制以及司法和民主過程等領(lǐng)域的人工智能系統(tǒng),;就其嚴(yán)重程度和發(fā)生概率而言,,其對(duì)個(gè)人健康、安全和基本權(quán)利造成不利影響的風(fēng)險(xiǎn)極大的人工智能系統(tǒng),。
與前述相比,,諸如聊天機(jī)器人之類的非高風(fēng)險(xiǎn)人工智能技術(shù),只需要滿足最低限度的透明性要求,。草案起草者認(rèn)為,,只要告知用戶他正在與人工智能進(jìn)行互動(dòng)就可以減少潛在風(fēng)險(xiǎn),故其對(duì)個(gè)人的健康,、安全及基本權(quán)利造成損害的可能性較小,。
3.高風(fēng)險(xiǎn)技術(shù)需要全過程監(jiān)管
對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng),草案設(shè)計(jì)了全過程監(jiān)管制度,。高風(fēng)險(xiǎn)人工智能系統(tǒng)“從搖籃到墳?zāi)埂薄酝斗攀袌龌蛲度胧褂们爸敝琳麄€(gè)存續(xù)期間——都要接受審查,以確定其是否遵守強(qiáng)制性的風(fēng)險(xiǎn)管理系統(tǒng),、嚴(yán)格的數(shù)據(jù)和數(shù)據(jù)治理規(guī)定,,技術(shù)文件和日志保存的規(guī)定及上市后監(jiān)測和事故報(bào)告的規(guī)定。與之相應(yīng),,草案對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者課以較重義務(wù),。
提供者負(fù)有合規(guī)義務(wù)。提供者應(yīng)確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期使用目的符合規(guī)定,,按照規(guī)定建立,、運(yùn)行、記錄并維持風(fēng)險(xiǎn)管理系統(tǒng),,并確保人工監(jiān)管的準(zhǔn)確性,、韌性和安全性。
提供者應(yīng)建立合理的質(zhì)量管理系統(tǒng),,并以書面政策,、程序和指令的形式系統(tǒng)、有序地載明該質(zhì)量管理系統(tǒng),,確保合規(guī)程序的執(zhí)行,、相關(guān)文件的草擬以及強(qiáng)有力的售后監(jiān)管制度的建立;確保高危人工智能系統(tǒng)在投放市場或投入使用前,,經(jīng)過相關(guān)的評(píng)估程序,。在高風(fēng)險(xiǎn)人工智能系統(tǒng)投放市場或投入使用前,提供者應(yīng)起草并持續(xù)更新技術(shù)文件,。技術(shù)文件的編制方式應(yīng)能證明高風(fēng)險(xiǎn)人工智能系統(tǒng)符合歐盟人工智能法的要求,,并為國家主管部門提供全部必要的信息,,以評(píng)估人工智能系統(tǒng)是否符合這些要求。
提供者有記錄保存義務(wù),。在人工智能系統(tǒng)投放市場或者投入使用之日起的10年內(nèi),,提供者應(yīng)保存技術(shù)資料、質(zhì)量管理系統(tǒng)相關(guān)文件等以備檢查,。依照與用戶的協(xié)議或法律規(guī)定由其控制高危人工智能系統(tǒng)自動(dòng)生成的日志的,,則提供者有義務(wù)保存上述日志。保存期限根據(jù)高危人工智能系統(tǒng)的預(yù)期使用目的,、歐盟或成員國的法律規(guī)定予以確定,。在投放市場或投入使用前,提供者應(yīng)依法向歐盟委員會(huì)在成員國協(xié)助下設(shè)立的歐盟數(shù)據(jù)庫申請(qǐng)登記,。歐盟數(shù)據(jù)庫應(yīng)只包含根據(jù)本條例收集和處理信息所必要的個(gè)人數(shù)據(jù),。這些信息應(yīng)包括負(fù)責(zé)注冊系統(tǒng)的以及有權(quán)代表供應(yīng)商的自然人的姓名和聯(lián)系方式。倘若提供者認(rèn)為或有理由認(rèn)為其投放市場或投入使用的高風(fēng)險(xiǎn)人工智能系統(tǒng)不符合規(guī)定,,應(yīng)立即采取必要的糾正措施,,酌情撤回或召回。他們應(yīng)告知有關(guān)高風(fēng)險(xiǎn)人工智能系統(tǒng)的經(jīng)銷商,,并在適用時(shí)告知授權(quán)代表和進(jìn)口商,。
4.人工智能發(fā)展違法必究
一旦草案獲得批準(zhǔn),成員國應(yīng)根據(jù)相關(guān)規(guī)定和條件制定相應(yīng)罰則,,采取必要措施確保這些規(guī)定得到適當(dāng)和有效的執(zhí)行,。所規(guī)定的處罰應(yīng)是有效的、相稱的和教育性的,,并應(yīng)特別考慮到小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟(jì)生存能力,。
草案規(guī)定,提供者違反有害的人工智能禁止性規(guī)定和數(shù)據(jù)治理義務(wù)的,,可以處以最高3000萬歐元的罰款或全球年?duì)I業(yè)額的6%(以較高者為準(zhǔn)),;高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用違反其他規(guī)定的,可以處以最高2000萬歐元或營業(yè)額的4%的罰款,;向成員國主管機(jī)構(gòu)提供不正確,、不完整或具有誤導(dǎo)性的信息,將被處以最高1000萬歐元或營業(yè)額2%的罰款,。
草案規(guī)定,,歐盟機(jī)構(gòu)、機(jī)關(guān)違反有關(guān)禁止性人工智能和數(shù)據(jù)治理義務(wù)規(guī)定的,,可以處以最高50萬歐元的行政罰款,;違反其他規(guī)定的,可以處最高25萬歐元的罰款,。
草案試圖在促進(jìn)人工智能的發(fā)展和利用與歐盟價(jià)值觀和基本權(quán)利保障之間尋找平衡:首先,,其對(duì)人工智能采取了較確切的定義并對(duì)禁止的和高風(fēng)險(xiǎn)人工智能系統(tǒng)作了詳細(xì)的規(guī)定,,課予提供者較大的義務(wù),并對(duì)包括歐盟機(jī)構(gòu),、機(jī)關(guān)在內(nèi)的義務(wù)主體設(shè)定了高額的罰款,,可以在較大程度上確保人工智能的發(fā)展和利用不至于嚴(yán)重?fù)p害歐盟價(jià)值觀和基本權(quán)利;其二,,前述規(guī)定同時(shí)也構(gòu)成了對(duì)歐盟和成員國的限制,,非有授權(quán)其不得干預(yù)和限制人工智能的發(fā)展和利用,并要求在適用相關(guān)罰則時(shí),,應(yīng)考慮小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟(jì)生存能力,,這為人工智能的發(fā)展預(yù)留了一定空間;同時(shí),,為保護(hù)重要的公共利益和個(gè)人權(quán)利,,草案對(duì)公權(quán)力機(jī)關(guān),尤其是執(zhí)法機(jī)關(guān)使用的人工智能系統(tǒng)預(yù)留了較多空間,,并對(duì)訴諸禁止的人工智能系統(tǒng)的例外情形作了規(guī)定,,這可以確保公權(quán)力職能的實(shí)現(xiàn)。
不過,,正如批評(píng)者所指出,,鑒于基本權(quán)利侵害風(fēng)險(xiǎn)主要來自于國家,尤其是例外情形和對(duì)公權(quán)力使用的人工智能系統(tǒng)的差別對(duì)待,,也使得上述平衡處于危險(xiǎn)之中,。正因?yàn)榇?,目前歐盟議會(huì)尚未能達(dá)成一致意見,,以至于不少人擔(dān)心草案可能流產(chǎn)。
《光明日?qǐng)?bào)》( 2023年03月16日 14版)
來源:光明網(wǎng)-《光明日?qǐng)?bào)》
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1002245.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。