生成式人工智能服務(wù)在帶來(lái)生產(chǎn)力巨大變革的同時(shí),,也存在算法偏見(jiàn)、信息泄露,、內(nèi)容造假等安全隱患,。近日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《征求意見(jiàn)稿》),,對(duì)生成式人工智能服務(wù)進(jìn)行了框架性規(guī)范。
《征求意見(jiàn)稿》釋放了哪些信號(hào),?系好“安全帶”,,對(duì)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用有何作用?人民網(wǎng)“強(qiáng)觀察”欄目記者就此采訪了中國(guó)科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長(zhǎng)張衛(wèi)明,、北京大學(xué)信息化與信息管理研究中心主任黃文彬,。
既劃定界限也有發(fā)展空間
生成式人工智能,是指基于算法,、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內(nèi)容的技術(shù),。近來(lái)大火的ChatGPT即屬于此類技術(shù),。
《征求意見(jiàn)稿》的公布,距離2022年11月30日對(duì)話式AI模型ChatGPT的發(fā)布不足5個(gè)月時(shí)間,,如此高效出臺(tái),,釋放什么信號(hào)?
在張衛(wèi)明看來(lái),,這種高效監(jiān)管顯示出國(guó)家層面對(duì)生成式人工智能的支持與重視,。《征求意見(jiàn)稿》提出多維監(jiān)管意見(jiàn),,強(qiáng)調(diào)保護(hù),,防止“濫用”,,有助于國(guó)內(nèi)生成式人工智能服務(wù)健康發(fā)展?!啊墩髑笠庖?jiàn)稿》明確提出,,‘國(guó)家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新,、推廣應(yīng)用,、國(guó)際合作’,制定本辦法的目的是‘促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用’”,。
黃文彬表示,,《征求意見(jiàn)稿》發(fā)出了生成式人工智能需要在維護(hù)國(guó)家安全和社會(huì)穩(wěn)定、保障公民和其他組織的合法權(quán)益的前提下研究發(fā)展與技術(shù)應(yīng)用的信號(hào),?!斑@個(gè)管理辦法為保護(hù)個(gè)人、國(guó)家甚至全球安全將起到重要作用,。尤其是在生成式人工智能日益廣泛應(yīng)用的當(dāng)下,,人們需要足夠的專業(yè)知識(shí)才能判別智能產(chǎn)品輸出結(jié)果的真?zhèn)蝺?yōu)劣,這些結(jié)果可能會(huì)影響個(gè)人的品德思想與行為規(guī)范,。一旦出現(xiàn)問(wèn)題,可能會(huì)對(duì)整個(gè)社會(huì)或國(guó)家產(chǎn)生負(fù)面影響,,這種負(fù)面影響有可能超過(guò)服務(wù)提供者或用戶的可控范圍,。”
監(jiān)管措施迎頭趕上
雖然生成式人工智能技術(shù)正在或即將引發(fā)生產(chǎn)力變革,,但其產(chǎn)生的風(fēng)險(xiǎn)和挑戰(zhàn)不能忽視,。
比如,生成式人工智能技術(shù)會(huì)根據(jù)要求生成有說(shuō)服力且有針對(duì)性的虛假信息,;它還可能回答如何自殺,、如何制造化學(xué)武器等可能導(dǎo)致嚴(yán)重后果的問(wèn)題。諸如此類新現(xiàn)象,,都需要監(jiān)管的與時(shí)俱進(jìn),。
記者梳理發(fā)現(xiàn),不少國(guó)家重視生成式人工智能的監(jiān)管,。英國(guó)政府于3月發(fā)布了第一份人工智能白皮書,,概述了人工智能治理的5項(xiàng)原則。當(dāng)?shù)貢r(shí)間3月31日,,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,,從即日起禁止使用聊天機(jī)器人ChatGPT,限制其開(kāi)發(fā)公司OpenAI處理意大利用戶信息,,并立案調(diào)查,。美國(guó)商務(wù)部近日就相關(guān)問(wèn)責(zé)措施正式公開(kāi)征求意見(jiàn),,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過(guò)認(rèn)證程序。
黃文彬表示,,全球范圍內(nèi)加強(qiáng)生成式人工智能的監(jiān)管力度,,意味著數(shù)據(jù)安全和隱私保護(hù)已經(jīng)成為生成式人工智能發(fā)展的重要前提。我國(guó)選擇生成式人工智能作為規(guī)制對(duì)象并積極發(fā)布《征求意見(jiàn)稿》,,這在全世界范圍內(nèi)都是走在前列的,。
“人工智能技術(shù)存在著較大的不確定性和不可控性,應(yīng)該接受嚴(yán)格的安全評(píng)估,,需要監(jiān)管來(lái)確保這些安全措施得以實(shí)施,。”張衛(wèi)明說(shuō),,隨著更多應(yīng)用落地,,一些潛在的風(fēng)險(xiǎn)將被認(rèn)識(shí)和暴露,《征求意見(jiàn)稿》只是第一步,。
提前布局守住“安全底線”
防止生成式人工智能濫用,,在充分發(fā)揮政府監(jiān)管職能的同時(shí),也需科技企業(yè)提前布局,,發(fā)揮技術(shù)能力守住“安全底線”,。
黃文彬表示,生成式人工智能只是一個(gè)工具,。技術(shù)本身沒(méi)有好壞之分,,但應(yīng)用技術(shù)時(shí)需要重點(diǎn)考慮智能產(chǎn)品情境背景的適用性、使用方式的合理性和應(yīng)用目的的正確性,。比如,,在用戶相對(duì)感覺(jué)心理孤獨(dú)空虛的情景下,智能產(chǎn)品可以提供聊天陪伴,,以舒緩用戶心理為目的,。然而,假如該產(chǎn)品提供偏頗甚至具有負(fù)面傾向性的聊天內(nèi)容,,可能會(huì)使用戶產(chǎn)生自殺,、暴力、歧視等問(wèn)題,,對(duì)個(gè)人及社會(huì)產(chǎn)生較大的傷害,。
《征求意見(jiàn)稿》也提出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,,采取措施防止生成虛假信息,;尊重他人合法利益,防止傷害他人身心健康,,損害肖像權(quán),、名譽(yù)權(quán)和個(gè)人隱私,,侵犯知識(shí)產(chǎn)權(quán);禁止非法獲取,、披露,、利用個(gè)人信息和隱私、商業(yè)秘密等,?!斑@些規(guī)定都是為了促進(jìn)人工智能技術(shù)的健康發(fā)展和規(guī)范應(yīng)用?!睆埿l(wèi)明說(shuō),。
“比如虛假信息檢測(cè)技術(shù),國(guó)外已經(jīng)布局,,我們的安全技術(shù)專家,、安全技術(shù)企業(yè)也應(yīng)盡快提出相應(yīng)的技術(shù)方案?!睆埿l(wèi)明認(rèn)為,,再先進(jìn)的科技都需要人來(lái)使用、人來(lái)控制,、人來(lái)確保安全,。實(shí)施更全面的人工監(jiān)管,時(shí)刻關(guān)注技術(shù)的安全性,,確保其不會(huì)被濫用,,才能充分發(fā)揮人工智能的潛力。
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1017191.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。