北京日報客戶端 | 作者 熊光清
生成式人工智能是指利用機器學習技術(shù)讓計算機自動生成不同模態(tài)數(shù)據(jù)和信息的技術(shù)手段與方法,。2023年4月11日,,國家網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《辦法》),,這是中國對生成式人工智能治理的重要探索。從法治角度看,,應(yīng)對生成式人工智能從價值規(guī)范,、行為規(guī)制和過程監(jiān)管等方面加強治理。
建立明確的價值規(guī)范實現(xiàn)技術(shù)向善
技術(shù)本身并無價值向度,,但人會賦予其價值向度,使之形成價值傾向,。生成式人工智能可能被濫用,、誤用或用于不道德的目的。由于生成式人工智能技術(shù)水平越來越高,,人們也越來越擔心它會被惡意使用,,損害公民隱私權(quán)和社會安全,甚至有人擔憂其可能導致“人類滅絕”,。為了確保生成式人工智能技術(shù)的可持續(xù)和健康發(fā)展,,保護公民權(quán)益和社會利益,秉持技術(shù)向善原則至關(guān)重要,。國家應(yīng)通過立法建立明確的技術(shù)研發(fā)與使用的價值觀念,,規(guī)定技術(shù)研發(fā)與使用行為要遵守公序良俗和社會公德,從而引領(lǐng)技術(shù)發(fā)展的正確方向,,使之符合人類利益,,有利于人類的發(fā)展。當然,,通過立法所采取的強制性措施應(yīng)當采取跟隨策略,,因為立法過于超前可能會阻礙技術(shù)的發(fā)展和創(chuàng)新,。但是,立法在價值層面的規(guī)定可以具有穩(wěn)定性,,并對未來發(fā)生的問題具有價值層面的引領(lǐng)作用,。
要通過立法將生成式人工智能發(fā)展的價值向度明確化、具體化和制度化,,明確生成式人工智能的倫理準則和道德要求,,不得破壞社會公共秩序和危害國家與社會安全,以規(guī)范和引導生成式人工智能技術(shù)的發(fā)展和應(yīng)用,。同時,,要加緊建立生成式人工智能研發(fā)審查和許可制度,要求研發(fā)者在進行生成式人工智能技術(shù)研發(fā)之前,,進行科學,、倫理和法律的審查,并獲得相應(yīng)的許可或批準,。國家網(wǎng)信辦發(fā)布的《辦法》中就規(guī)定了有關(guān)生成式人工智能內(nèi)容要合法合規(guī)、禁止算法歧視,、不得實施不公平競爭、不得生成虛假信息,、不得侵犯他人合法權(quán)益等相關(guān)內(nèi)容,這對于發(fā)展生成式人工智能技術(shù)在價值層面就具有重要的引導性作用,。
通過立法有效規(guī)制研發(fā)和使用行為
目前,,像ChatGPT和DALL-E等輸出的內(nèi)容與人類生成的內(nèi)容已經(jīng)難以區(qū)分,,其質(zhì)量和效率都要遠高于一般人的水準,,這會極大提高人類的工作效率與能力水平,,豐富人類的工作和生活場景。但是,,其所帶來的負面影響和潛在威脅也具有很強的不可預(yù)測性和不確定性,。一些國家已經(jīng)開始抓緊關(guān)于生成式人工智能的立法,以規(guī)制其研發(fā)和使用行為,。通過法治手段加強對生成式人工智能的行為規(guī)制是保障生成式人工智能應(yīng)用的合理,、負責和可持續(xù)發(fā)展的重要舉措,。要確立生成式人工智能的法律準則和規(guī)定,,明確技術(shù)發(fā)展與使用的規(guī)范和限制,從而為生成式人工智能的研發(fā)與使用提供明確的法律依據(jù)。同時,由于生成式人工智能的研發(fā)與使用具有很強的全球性特征,因而要加強國際間的合作與交流,,制定相關(guān)國際標準和行業(yè)規(guī)范,,推動生成式人工智能治理的國際法治化,。國家可以積極參與相關(guān)多邊合作機制的活動,,推動國際合作治理,,制定共同的標準和規(guī)則,,以促進并完善全球范圍內(nèi)生成式人工智能法律規(guī)制,。
生成式人工智能通常需要大量數(shù)據(jù)進行訓練,,并且,隨著生成式人工智能的廣泛使用,,個人數(shù)據(jù)的收集、存儲和處理變得非常普遍,,因此,,加強數(shù)據(jù)管理和隱私保護至關(guān)重要。國家可以加強數(shù)據(jù)領(lǐng)域的立法,,要求生成式人工智能產(chǎn)品的預(yù)訓練數(shù)據(jù)及優(yōu)化訓練數(shù)據(jù)來源具有合法性,規(guī)定數(shù)據(jù)采集,、存儲,、使用和共享的規(guī)則,,確保數(shù)據(jù)的合法性與安全性,并有效保護個人隱私和維護社會安全,。應(yīng)當明確生成式人工智能應(yīng)用提供者對用戶權(quán)益的保護責任,,包括用戶隱私權(quán)、知情權(quán),、選擇權(quán)等,,可以規(guī)定用戶能夠隨時撤銷對生成式人工智能應(yīng)用用戶數(shù)據(jù),。
建立專門機構(gòu)進行合規(guī)合法性監(jiān)管
隨著生成式人工智能越來越多地無縫融入生產(chǎn)生活中,,加強監(jiān)管變得十分重要,,有必要建立有效的監(jiān)管體系,。其中特別需要設(shè)立專門的生成式人工智能監(jiān)管機構(gòu)或在現(xiàn)有相關(guān)機構(gòu)下設(shè)立專門部門,負責生成式人工智能的監(jiān)管,確保其研發(fā)與使用符合法律法規(guī)和道德規(guī)范,,防止濫用和不當使用,。法律法規(guī)應(yīng)要求生成式人工智能技術(shù)提供者對其系統(tǒng)的運行方式和生成內(nèi)容進行透明度披露,同時明確生成式人工智能開發(fā)者,、供應(yīng)商和使用者的社會責任與法律責任,確保在生成式人工智能系統(tǒng)出現(xiàn)錯誤,、造成損害或出現(xiàn)侵權(quán)時能夠進行合法追責,。
監(jiān)管機構(gòu)應(yīng)具備足夠的權(quán)力和資源,能夠?qū)ι墒饺斯ぶ悄艿暮弦?guī)性進行監(jiān)督和檢查,,并對違法行為進行執(zhí)法處罰,。這包括設(shè)立獨立的監(jiān)管機構(gòu)、建立審查程序,、制定合規(guī)性評估要求等,。同時,要通過公眾教育加強社會監(jiān)督,,提高公眾對生成式人工智能技術(shù)的理解和認識,,并鼓勵公眾參與生成式人工智能的規(guī)制和決策過程,,保障公眾的知情權(quán)。法律可以規(guī)定,,要求生成式人工智能開發(fā)者和使用者建立信息交流與溝通機制,使公眾能夠了解生成式人工智能的潛在影響和應(yīng)用范圍,。生成式人工智能的使用會帶來一系列新問題,,例如:倫理問題、產(chǎn)權(quán)問題,、責任問題,、隱私問題、安全問題等,,這些問題都需要在法治層面進行處理,,這就要求在實踐中不斷探索有效的法治手段,發(fā)揮其有利于社會的作用,,而規(guī)避其對社會的危害,。
(作者為對外經(jīng)濟貿(mào)易大學法學院教授、國家對外開放研究院特聘研究員)
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1058315.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。