北京日報 | 作者 熊光清
生成式人工智能是指利用機器學(xué)習(xí)技術(shù)讓計算機自動生成不同模態(tài)數(shù)據(jù)和信息的技術(shù)手段與方法。2023年4月11日,,國家網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《辦法》),,這是中國對生成式人工智能治理的重要探索,。從法治角度看,應(yīng)對生成式人工智能從價值規(guī)范,、行為規(guī)制和過程監(jiān)管等方面加強治理,。
建立明確的價值規(guī)范實現(xiàn)技術(shù)向善
技術(shù)本身并無價值向度,但人會賦予其價值向度,,使之形成價值傾向,。生成式人工智能可能被濫用,、誤用或用于不道德的目的。由于生成式人工智能技術(shù)水平越來越高,,人們也越來越擔(dān)心它會被惡意使用,,損害公民隱私權(quán)和社會安全,甚至有人擔(dān)憂其可能導(dǎo)致“人類滅絕”,。為了確保生成式人工智能技術(shù)的可持續(xù)和健康發(fā)展,,保護公民權(quán)益和社會利益,秉持技術(shù)向善原則至關(guān)重要,。國家應(yīng)通過立法建立明確的技術(shù)研發(fā)與使用的價值觀念,,規(guī)定技術(shù)研發(fā)與使用行為要遵守公序良俗和社會公德,從而引領(lǐng)技術(shù)發(fā)展的正確方向,,使之符合人類利益,,有利于人類的發(fā)展。當(dāng)然,,通過立法所采取的強制性措施應(yīng)當(dāng)采取跟隨策略,,因為立法過于超前可能會阻礙技術(shù)的發(fā)展和創(chuàng)新。但是,,立法在價值層面的規(guī)定可以具有穩(wěn)定性,,并對未來發(fā)生的問題具有價值層面的引領(lǐng)作用。
要通過立法將生成式人工智能發(fā)展的價值向度明確化,、具體化和制度化,,明確生成式人工智能的倫理準(zhǔn)則和道德要求,不得破壞社會公共秩序和危害國家與社會安全,,以規(guī)范和引導(dǎo)生成式人工智能技術(shù)的發(fā)展和應(yīng)用。同時,,要加緊建立生成式人工智能研發(fā)審查和許可制度,,要求研發(fā)者在進行生成式人工智能技術(shù)研發(fā)之前,進行科學(xué),、倫理和法律的審查,,并獲得相應(yīng)的許可或批準(zhǔn)。國家網(wǎng)信辦發(fā)布的《辦法》中就規(guī)定了有關(guān)生成式人工智能內(nèi)容要合法合規(guī),、禁止算法歧視,、不得實施不公平競爭、不得生成虛假信息,、不得侵犯他人合法權(quán)益等相關(guān)內(nèi)容,,這對于發(fā)展生成式人工智能技術(shù)在價值層面就具有重要的引導(dǎo)性作用。
通過立法有效規(guī)制研發(fā)和使用行為
目前,,像ChatGPT和DALL-E等輸出的內(nèi)容與人類生成的內(nèi)容已經(jīng)難以區(qū)分,,其質(zhì)量和效率都要遠高于一般人的水準(zhǔn),,這會極大提高人類的工作效率與能力水平,豐富人類的工作和生活場景,。但是,,其所帶來的負面影響和潛在威脅也具有很強的不可預(yù)測性和不確定性。一些國家已經(jīng)開始抓緊關(guān)于生成式人工智能的立法,,以規(guī)制其研發(fā)和使用行為,。通過法治手段加強對生成式人工智能的行為規(guī)制是保障生成式人工智能應(yīng)用的合理、負責(zé)和可持續(xù)發(fā)展的重要舉措,。要確立生成式人工智能的法律準(zhǔn)則和規(guī)定,,明確技術(shù)發(fā)展與使用的規(guī)范和限制,從而為生成式人工智能的研發(fā)與使用提供明確的法律依據(jù),。同時,,由于生成式人工智能的研發(fā)與使用具有很強的全球性特征,因而要加強國際間的合作與交流,,制定相關(guān)國際標(biāo)準(zhǔn)和行業(yè)規(guī)范,,推動生成式人工智能治理的國際法治化。國家可以積極參與相關(guān)多邊合作機制的活動,,推動國際合作治理,,制定共同的標(biāo)準(zhǔn)和規(guī)則,以促進并完善全球范圍內(nèi)生成式人工智能法律規(guī)制,。
生成式人工智能通常需要大量數(shù)據(jù)進行訓(xùn)練,,并且,隨著生成式人工智能的廣泛使用,,個人數(shù)據(jù)的收集,、存儲和處理變得非常普遍,因此,,加強數(shù)據(jù)管理和隱私保護至關(guān)重要,。國家可以加強數(shù)據(jù)領(lǐng)域的立法,要求生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)及優(yōu)化訓(xùn)練數(shù)據(jù)來源具有合法性,,規(guī)定數(shù)據(jù)采集,、存儲、使用和共享的規(guī)則,,確保數(shù)據(jù)的合法性與安全性,,并有效保護個人隱私和維護社會安全。應(yīng)當(dāng)明確生成式人工智能應(yīng)用提供者對用戶權(quán)益的保護責(zé)任,,包括用戶隱私權(quán),、知情權(quán)、選擇權(quán)等,可以規(guī)定用戶能夠隨時撤銷對生成式人工智能應(yīng)用用戶數(shù)據(jù),。
建立專門機構(gòu)進行合規(guī)合法性監(jiān)管
隨著生成式人工智能越來越多地?zé)o縫融入生產(chǎn)生活中,,加強監(jiān)管變得十分重要,有必要建立有效的監(jiān)管體系,。其中特別需要設(shè)立專門的生成式人工智能監(jiān)管機構(gòu)或在現(xiàn)有相關(guān)機構(gòu)下設(shè)立專門部門,,負責(zé)生成式人工智能的監(jiān)管,確保其研發(fā)與使用符合法律法規(guī)和道德規(guī)范,,防止濫用和不當(dāng)使用,。法律法規(guī)應(yīng)要求生成式人工智能技術(shù)提供者對其系統(tǒng)的運行方式和生成內(nèi)容進行透明度披露,同時明確生成式人工智能開發(fā)者,、供應(yīng)商和使用者的社會責(zé)任與法律責(zé)任,,確保在生成式人工智能系統(tǒng)出現(xiàn)錯誤、造成損害或出現(xiàn)侵權(quán)時能夠進行合法追責(zé),。
監(jiān)管機構(gòu)應(yīng)具備足夠的權(quán)力和資源,,能夠?qū)ι墒饺斯ぶ悄艿暮弦?guī)性進行監(jiān)督和檢查,并對違法行為進行執(zhí)法處罰,。這包括設(shè)立獨立的監(jiān)管機構(gòu),、建立審查程序、制定合規(guī)性評估要求等,。同時,,要通過公眾教育加強社會監(jiān)督,提高公眾對生成式人工智能技術(shù)的理解和認識,,并鼓勵公眾參與生成式人工智能的規(guī)制和決策過程,,保障公眾的知情權(quán)。法律可以規(guī)定,,要求生成式人工智能開發(fā)者和使用者建立信息交流與溝通機制,,使公眾能夠了解生成式人工智能的潛在影響和應(yīng)用范圍。生成式人工智能的使用會帶來一系列新問題,,例如:倫理問題,、產(chǎn)權(quán)問題、責(zé)任問題,、隱私問題、安全問題等,,這些問題都需要在法治層面進行處理,,這就要求在實踐中不斷探索有效的法治手段,發(fā)揮其有利于社會的作用,,而規(guī)避其對社會的危害,。
作者為對外經(jīng)濟貿(mào)易大學(xué)法學(xué)院教授、國家對外開放研究院特聘研究員
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1056499.html
溫馨提示:投資有風(fēng)險,,入市須謹慎,。本資訊不作為投資理財建議。