今年2月,美國人工智能研究公司OpenAI推出人工智能文本生成視頻大模型——Sora,,可根據(jù)簡單文字,生成長達1分鐘的高清視頻,,在全球掀起熱潮,。OpenAI發(fā)布的ChatGPT,目前公開信息也已經(jīng)迭代到GPT-4,。這標(biāo)志著,,“萬物互聯(lián)、人人在線,、事事算法”的人工智能時代已經(jīng)到來,。隨著算法技術(shù)全面步入應(yīng)用階段,成為數(shù)字經(jīng)濟時代發(fā)展的新動力,,一系列諸如算法歧視,、算法黑箱、信息繭房,、算法霸權(quán)等倫理和法律問題也開始涌現(xiàn),。今年兩會上,全國政協(xié)委員,、金杜律師事務(wù)所高級合伙人張毅帶來了一份關(guān)于進一步完善人工智能算法治理體系的提案,。他認(rèn)為,如何更好監(jiān)管人工智能算法,,監(jiān)管手段和能力如何相應(yīng)提升,,對人工智能產(chǎn)業(yè)的健康有序發(fā)展和國家治理能力現(xiàn)代化至關(guān)重要。圖說:全國政協(xié)委員張毅,。受訪者供圖可執(zhí)行性不強監(jiān)管難以問責(zé)在調(diào)研中,,張毅發(fā)現(xiàn),我國已經(jīng)出臺的針對算法管理的專門性規(guī)定法律效力低,,可執(zhí)行性不強,。以被監(jiān)管責(zé)任主體為例,目前人工智能算法相關(guān)規(guī)定沒有對“服務(wù)提供者”概念進一步細(xì)化,,如模型研發(fā)者,、平臺運營方、技術(shù)支持者等,,這可能導(dǎo)致責(zé)任承擔(dān)不明晰,,進而造成監(jiān)管難以問責(zé)。同時,,面向算法侵害的認(rèn)定和維權(quán)困難,,相關(guān)政策無異于“紙上談兵”,“被算法侵害的對象往往面臨‘理解難,、取證難’等問題,,而執(zhí)法者也面臨著‘認(rèn)定難’的問題?!贝送?,我國尚未設(shè)立統(tǒng)一的算法監(jiān)管機構(gòu),實施算法監(jiān)管的機構(gòu)呈現(xiàn)部門化特征,,容易產(chǎn)生監(jiān)管競合或真空,。快速迭代進化的生成式人工智能技術(shù)也給現(xiàn)有的監(jiān)管框架帶來了新挑戰(zhàn),。
圖說:人工智能技術(shù)快速迭代帶來監(jiān)管難題,。新民晚報記者 周馨 攝彌補監(jiān)管空白強化算法透明度“算法的不可讀性和難理解性怎樣解決,?監(jiān)管機構(gòu)如何更有效監(jiān)管,同時平衡好監(jiān)管和發(fā)展的關(guān)系,?”為推動人工智能產(chǎn)業(yè)健康有序發(fā)展,,張毅建議,應(yīng)構(gòu)建人工智能算法治理體系,,彌補監(jiān)管體系空白,。一方面,盡快推進《人工智能法》的制定和出臺,,通過統(tǒng)一原則性立法,,提煉規(guī)范人工智能算法的共性規(guī)則;另一方面,,基于不同技術(shù)類型,、應(yīng)用領(lǐng)域人工智能的風(fēng)險差異,,應(yīng)該通過針對性的法規(guī)予以規(guī)制。同時,,張毅提出,,要強化人工智能算法的透明度,以個人能夠理解的示例,、流程圖等方式披露算法規(guī)則,,便于用戶理解和決策,并進一步優(yōu)化用戶便捷關(guān)閉算法服務(wù)的選項,,在顯眼位置設(shè)置“一鍵關(guān)閉”推薦服務(wù)選項,,保障用戶合法權(quán)利。此外,,張毅認(rèn)為,,還應(yīng)將人工智能和算法技術(shù)按風(fēng)險等級進行劃分,并針對不同等級采取不同的監(jiān)管措施,;借助市場力量,,運用監(jiān)管沙盒等創(chuàng)新監(jiān)管工具,補齊監(jiān)管技術(shù)短板,,有效落實監(jiān)管,;強化算法治理聯(lián)席工作機制,形成算法監(jiān)管合力,,構(gòu)建“橫向協(xié)同,,縱向聯(lián)動”的算法治理格局。特派記者 陳佳琳 屠瑜(新民晚報北京今日電)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1090815.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。