人工智能通用大模型橫空出世,,全世界看到了AIGC(人工智能生成內(nèi)容)的強大,。與此同時,AIGC的可信度,、隱私保護、倫理等問題亦引發(fā)空前爭議,。
我國有關部門快速反應,。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),,提出二十一條舉措,。業(yè)界認為,這是國內(nèi)首次明確針對生成式人工智能服務征求管理意見,,將有利于推動AIGC產(chǎn)業(yè)健康穩(wěn)定發(fā)展,。
AIGC負面影響顯現(xiàn),行業(yè)亟待規(guī)范
當前,,人工智能越來越多地被應用于文本,、圖像、視頻等生成工作,,成為繼專業(yè)生成內(nèi)容(PGC),、用戶生成內(nèi)容(UGC)后的新型內(nèi)容生產(chǎn)方式(AIGC)。
然而從AIGC走進公眾視線的那一刻起,,種種爭議就一直圍繞著它,。
版權之爭首當其沖。2023年初,,商業(yè)圖庫Getty Image多次指控AI公司Stability AI未經(jīng)授權復制和使用其圖庫中逾1200萬幅受版權保護的圖片,,用以訓練其AI圖像生成模型?!度A爾街日報》也表示美國新聞集團正準備向OpenAI,、微軟和谷歌等公司提起訴訟,要求AI工具在訓練中對使用其內(nèi)容的部分進行費用補償,。
數(shù)據(jù)安全,、隱私安全等問題也隨之而來。據(jù)韓國媒體報道,,三星內(nèi)部已先后發(fā)生三起誤用濫用ChatGPT案例,,包括兩起“設備信息泄露”和一起“會議內(nèi)容泄露”,,涉及半導體設備測量資料、產(chǎn)品良率等機密內(nèi)容,。而摩根大通,、軟銀等企業(yè)已經(jīng)開始限制員工在工作場合使用ChatGPT。
更有人利用AIGC強大的內(nèi)容生成能力偽造信息,,多次引發(fā)熱議,。比如近日廣州一女子在地鐵上的照片被他人使用AI技術“一鍵脫衣”,虛假圖片在網(wǎng)絡廣泛傳播,;某男網(wǎng)紅使用“AI換臉”技術,,替換掉電視劇中的男主角頭像,制作自己與女明星親吻的畫面,;今年2月,,有人用ChatGPT寫了一條“杭州市政府將取消機動車尾號限行政策”的假新聞,讓不少人信以為真……
多國已對ChatGPT展開調(diào)查,。4月初,,意大利個人數(shù)據(jù)保護局宣布禁止使用聊天機器人ChatGPT,限制其開發(fā)公司OpenAI處理意大利用戶信息,,并開始立案調(diào)查,。加拿大聯(lián)邦隱私監(jiān)管機構也宣布對OpenAI展開調(diào)查,因其涉嫌“未經(jīng)同意收集,、使用和披露個人信息”,。德國聯(lián)邦數(shù)據(jù)保護專員也表示,考慮數(shù)據(jù)安全,,不排除封禁ChatGPT,。
AI發(fā)展正在加速,AI治理也需要提速,。多位業(yè)內(nèi)專家對人民網(wǎng)記者表示,,我國此次出臺《管理辦法》非常及時,如此詳細的管理規(guī)定在全球范圍內(nèi)也很鮮見,。
中國信息經(jīng)濟學會副理事長,、廣州大學網(wǎng)絡空間安全學院教授齊佳音說,《管理辦法》的發(fā)布距離OpenAI發(fā)布ChatGPT全球公測僅僅過去四個月,,有可能成為國際上第一部規(guī)制生成式人工智能的規(guī)章制度,,體現(xiàn)了我國在人工智能治理領域的敏捷反應能力,對于規(guī)范和促進AIGC的發(fā)展無疑具有重要的引領作用,。它將為全球的AIGC監(jiān)管提供模版,,有助于加快人工智能治理制度建設,推動AIGC產(chǎn)業(yè)規(guī)范有序發(fā)展,。
強調(diào)安全,,是為了更好地促進發(fā)展
業(yè)內(nèi)專家認為,,《管理辦法》強調(diào)權益保護,主要防范濫用行為,。一方面是防范平臺濫用人工智能技術手段侵害用戶隱私,,另一方面是防范用戶濫用生成式人工智能侵害他人權益。
人民網(wǎng)董事長,、總裁,,傳播內(nèi)容認知全國重點實驗室主任葉蓁蓁認為,主管部門出臺《管理辦法》并非要限制人工智能發(fā)展,,而是通過規(guī)章制度來“系好安全帶”,,加快發(fā)展、更好發(fā)展,。他強調(diào):“在統(tǒng)籌發(fā)展與安全的問題上,,不發(fā)展才是最不安全?!?/p>
我國高度重視人工智能技術發(fā)展,將其視為一項驅(qū)動科技創(chuàng)新,、產(chǎn)業(yè)升級和生產(chǎn)力提升的戰(zhàn)略性新興技術,。近年來,有關部門陸續(xù)發(fā)布《新一代人工智能發(fā)展規(guī)劃》《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃》《關于加快場景創(chuàng)新 以人工智能高水平應用促進經(jīng)濟高質(zhì)量發(fā)展的指導意見》《關于支持建設新一代人工智能示范應用場景的通知》等多個政策文件,,為人工智能核心技術攻關,、產(chǎn)品落地應用以及探索發(fā)展新模式新路徑提供了重要指導。
在今年的全國兩會上,,科技部相關負責人亦專門強調(diào),,“將把人工智能作為戰(zhàn)略性新興產(chǎn)業(yè)和新增長引擎”,在推動人工智能基礎研究,、應用推廣,、開放合作等方面繼續(xù)給予大力支持,并同時推動建立人工智能安全可控的治理體系,。
齊佳音指出,,此次公布的《管理辦法》為AIGC的研發(fā)和應用劃出了底線和紅線,即提供生成式人工智能產(chǎn)品或服務應當遵守法律法規(guī)的要求,,尊重社會公德,、公序良俗。同時,,明確了AIGC的“提供者”對研發(fā)和應用負有責任,,即利用生成式人工智能產(chǎn)品提供聊天和文本、圖像,、聲音生成等服務的組織和個人需要對包括產(chǎn)品應用,、安全評估,、算法合法性、數(shù)據(jù)合法性等承擔責任,。此外,,《管理辦法》還為AIGC的研發(fā)和應用提供了糾偏機制。包括持續(xù)優(yōu)化糾偏,、AIGC標識提示,、可審查機制、監(jiān)管引導機制,、終止服務機制和懲戒處罰機制,。
“《管理辦法》為AIGC的研發(fā)和應用第一次立了規(guī)矩,使得AIGC的研發(fā)和應用有了規(guī)制框架,,對于規(guī)范和引導這一領域的發(fā)展具有十分重要的積極作用,。”齊佳音說,。
專家呼吁進一步重視潛在風險
記者注意到,此次《管理辦法》也對一些可能出現(xiàn)的衍生問題提出防范舉措,,如,要求利用生成式人工智能生成的內(nèi)容“應當體現(xiàn)社會主義核心價值觀”,、防止各類歧視、“不得利用算法,、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭”“采取措施防止生成虛假信息“防止傷害他人身心健康”等,。
“這一點非常值得關注,?!饼R佳音解釋說,以ChatGPT為例,,其具有強大的類人化自學習能力和交互式文字處理能力,自動化語言生成帶有強烈的類人化語言風格,,這讓ChatGPT有可能擺脫單一的技術身份而擁有了類人化社會角色,,成為深度參與和介入社會關系的“代理”。如果不加以限制,,AIGC帶來的“人-機”社會互動將有可能代替真實的“人-人”社會交往,,成為干擾人類真實社會關系的核心要素,,這將帶來技術的異化和人的異化,,是必須要加以防范的。
葉蓁蓁指出,,AI平臺是有立場的,AI生成的內(nèi)容是有導向的,,所謂“技術中性”是不存在的,。因此,,無論是喂養(yǎng)人工智能的語料數(shù)據(jù),還是模型本身的算法,,都必須高度關注其政治方向、輿論導向和價值取向問題,。不能放任AI脫離人類視野,不能無視AIGC“生成即傳播”特性的潛在風險,,要積極探索AI應用和治理之道。
在AIGC價值觀培養(yǎng)方面,,清華大學教授沈陽建議:應該有更多“人的介入”。其中關鍵是要為大語言模型提供更多的解釋性語料,,這對于修正AI的價值觀偏見以及知識成見非常重要。
據(jù)了解,,目前人民日報社主管、依托人民網(wǎng)建設的傳播內(nèi)容認知全國重點實驗室已初步建立了AI意識形態(tài)風險評測體系,。該體系就采用了人機協(xié)作的方式進行測評,。
為從源頭上防止“技術脫軌”,,在制度建設方面,,4月4日,,科技部在《科技倫理審查辦法(試行)》征求意見公告中提出,,從事生命科學,、醫(yī)學、人工智能等科技活動的單位,,研究內(nèi)容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會,。
沈陽表示,每一個AIGC平臺都應設有倫理審查委員會,,以確保其在發(fā)生大規(guī)模涌現(xiàn)時,,符合法律道德和倫理規(guī)則?!拔覀儸F(xiàn)在對于訓練師、心理師,、倫理師、提示師的重視程度還不夠,,需要進一步提升?!?/p>
齊佳音指出,隨著技術的快速發(fā)展,,相關規(guī)章制需要持續(xù)優(yōu)化,,建議后續(xù)進一步推出AIGC安全評估規(guī)范和管理流程規(guī)范,。
“應健全研發(fā),、審核、應用與安全等多維標準規(guī)范體系,完善AIGC技術創(chuàng)新生態(tài),。”傳播內(nèi)容認知全國重點實驗室科技發(fā)展部主任楊松建議,,應加快構建國家頂層規(guī)劃,、龍頭企業(yè)牽頭,、高校科研機構共同支撐的創(chuàng)新鏈產(chǎn)業(yè)鏈融合體系,,完善數(shù)據(jù)共享機制,大力推動數(shù)據(jù)資源匯聚,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1015813.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。