今年政府工作報告強調(diào),制定支持數(shù)字經(jīng)濟高質(zhì)量發(fā)展政策,積極推進數(shù)字產(chǎn)業(yè)化,、產(chǎn)業(yè)數(shù)字化,,促進數(shù)字技術(shù)和實體經(jīng)濟深度融合。其中,,“人工智能+”行動提出了以生成式人工智能為代表的人工智能技術(shù)即將加速落地各行各業(yè),,催生垂直行業(yè)的新質(zhì)生產(chǎn)力,。生成式人工智能技術(shù)是發(fā)展新質(zhì)生產(chǎn)力的重要引擎。作為新興數(shù)字技術(shù),,人工智能體現(xiàn)出了更高的自主性與擬真性,,也同時帶來了運行過程的不透明性與數(shù)據(jù)收集的規(guī)模性,成為垂直行業(yè)數(shù)字化,、人工智能化的風(fēng)險隱患,。進一步推動人工智能技術(shù)的行業(yè)落地應(yīng)用,尤其是醫(yī)療,、金融,、政府治理、自動駕駛等高風(fēng)險行業(yè)領(lǐng)域,,應(yīng)當(dāng)著重突破數(shù)據(jù)隱私保護,、模型可解釋性兩大瓶頸,借負責(zé)任的人工智能來賦能更廣泛的垂直行業(yè),?!叭斯ぶ悄?”行動的落地依靠實體經(jīng)濟、傳統(tǒng)產(chǎn)業(yè)的人工智能化,,以期實現(xiàn)行業(yè)顛覆式創(chuàng)新,,鍛造行業(yè)發(fā)展新動能,。目前的大語言模型人工智能技術(shù)在訓(xùn)練、部署,、應(yīng)用的過程中,,將不可避免地接觸到涉及公民個人隱私、企業(yè)核心信息的數(shù)據(jù),。聚焦到具體使用場景,,個人與企業(yè)在提問端、回答端,、訓(xùn)練端,、存儲端全鏈條均存在隱私泄露隱患。例如,,用戶在不知情情況下向大模型誤傳個人或非公開信息,,聊天記錄裹挾敏感數(shù)據(jù)被儲存并面臨網(wǎng)絡(luò)攻擊風(fēng)險,若大模型將其用于進一步訓(xùn)練,,敏感數(shù)據(jù)還有可能受到大模型“幻覺”的影響,,出現(xiàn)在其他用戶的對話回答中。而對于金融,、政府治理等低容錯率,、高信任要求的行業(yè)來說,恰恰要求對全部環(huán)節(jié)的風(fēng)險做到“零容忍”,。解決人工智能技術(shù)隱私風(fēng)險問題,,大模型的通用屬性有時候反而會產(chǎn)生一些問題,未來產(chǎn)業(yè)發(fā)展應(yīng)當(dāng)著重發(fā)力人工智能大模型私有化部署,,提供更高的數(shù)據(jù)安全性與隱私保護,,獲得更加定制化人工智能應(yīng)用的同時,也能夠避免非公開數(shù)據(jù)外流,。技術(shù)發(fā)展方面,,要構(gòu)建形成數(shù)據(jù)存儲安全、數(shù)據(jù)使用合規(guī),、數(shù)據(jù)流向透明的負責(zé)任的人工智能技術(shù),加快政策法規(guī)落地實施,。數(shù)據(jù)進入模型訓(xùn)練前,,嚴格執(zhí)行數(shù)據(jù)加密協(xié)議并做好密鑰管理策略,利用匿名化處理技術(shù)完成數(shù)據(jù)脫敏,,重點把關(guān)數(shù)據(jù)訪問控制,。針對重點行業(yè)模型落地,優(yōu)先考慮本地私有化部署方案,,以滿足企業(yè)數(shù)據(jù)治理與監(jiān)管責(zé)任落實的要求,。一旦高敏感數(shù)據(jù)混入大語言模型,,大模型應(yīng)當(dāng)有能力“刪除”或“遺忘”特定數(shù)據(jù)特征,未來人工智能技術(shù)研發(fā)亟須落實數(shù)據(jù)“刪除”義務(wù),,把握對惡劣突發(fā)事件及時處置,、消除影響的能力。人工智能技術(shù)落地垂直行業(yè)的另一大挑戰(zhàn)是可解釋性問題,,隨著模型參數(shù)和深度的爆炸式增長,,模型的決策過程成為難以解釋的“算法黑箱”??山忉屝允谴蛟炜煽?、可信、公平,、安全的負責(zé)任的人工智能技術(shù)的基礎(chǔ)支撐,,也是人工智能技術(shù)進入更廣泛行業(yè)的先決條件。一方面,,人工智能技術(shù)的落地需要更好的審計路徑和問責(zé)機制,,自動駕駛汽車的故障為何產(chǎn)生,醫(yī)療診斷決策的步驟是什么,,回答好這些問題才能破除公眾和企業(yè)對人工智能產(chǎn)品的懷疑和不信任,。另一方面,人工智能大模型已經(jīng)展現(xiàn)出許多前所未有的能力,,包括思維推理,、上下文學(xué)習(xí)、指令遵循等,,打開能力背后成因和機制的“黑箱”,,也是推動人工智能技術(shù)向高水平躍升的重要路徑。形成可解釋性人工智能,,應(yīng)當(dāng)從人工智能的全生命周期入手,,突破模型設(shè)計、垂直應(yīng)用部署,、模型效果評估階段的關(guān)鍵問題,。模型設(shè)計上,針對簡單模型,,采用決策樹等自身較為透明清晰的架構(gòu),,針對復(fù)雜的深度學(xué)習(xí)模型,嘗試用代理模型提供模型解釋,,進一步幫助用戶理解輸入的特征是如何影響模型決策的,;垂直應(yīng)用部署時,利用可解釋性增強工具提高模型透明度,,并提供決策過程的詳細記錄和解釋,。使用相關(guān)方法計算每個特征對結(jié)果的貢獻度,;模型效果評估時,亟須建立超越定性評估的量化解釋方法,,統(tǒng)籌考慮模型性能,、覆蓋率、忠實度等指標(biāo),,最大化降低模型落地后的監(jiān)管審計風(fēng)險,。(作者為中國人民大學(xué)國家發(fā)展與戰(zhàn)略研究院研究員、信息學(xué)院教授)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1109772.html
溫馨提示:投資有風(fēng)險,,入市須謹慎。本資訊不作為投資理財建議,。