A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

AI監(jiān)管新規(guī)征求意見出臺(tái):行業(yè)告別蒙眼狂奔,,訓(xùn)練成本或增加

4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見的通知,。在百度“文心一言”,、阿里“通義千問”等國(guó)產(chǎn)生成式AI大模型內(nèi)測(cè),各科技企業(yè)紛紛“官宣”將推出自研大模型的背景下,,《征求意見稿》的發(fā)布將國(guó)內(nèi)生成式大模型的監(jiān)管以及安全問題再度推到聚光燈下,。

奇安信安全專家對(duì)貝殼財(cái)經(jīng)記者表示,《征求意見稿》的發(fā)布以及全球范圍內(nèi)對(duì)于AIGC的監(jiān)管力度加強(qiáng),,意味著數(shù)據(jù)安全和隱私保護(hù)已經(jīng)成為AIGC發(fā)展的前提和關(guān)鍵,,“《征求意見稿》首先強(qiáng)調(diào)了安全評(píng)估和算法備案的前提性和必要性,其次強(qiáng)調(diào)提供者需確保數(shù)據(jù)安全和個(gè)人信息保護(hù)合規(guī),,尤其是隱私保護(hù),,最后夯實(shí)了違規(guī)責(zé)任的處罰措施,包含追究刑事責(zé)任,?!?/p>

另一方面,有不愿具名的大模型研發(fā)機(jī)構(gòu)工作人員告訴貝殼財(cái)經(jīng)記者,,《征求意見稿》將對(duì)行業(yè)產(chǎn)生顯著影響,,“要想做到AI生成的答案完全‘安全’,就得大幅增加訓(xùn)練成本,,除訓(xùn)練AI的人員外,,還要額外配備復(fù)審答案的人員?!?/p>

DCCI互聯(lián)網(wǎng)研究院院長(zhǎng)劉興亮在接受新京報(bào)貝殼財(cái)經(jīng)記者采訪時(shí)表示,,《征求意見稿》的出臺(tái)有望對(duì)生成式人工智能行業(yè)產(chǎn)生積極影響,,促使行業(yè)規(guī)范發(fā)展,、提高技術(shù)水平和安全性,保護(hù)用戶隱私,,并加強(qiáng)國(guó)際合作與競(jìng)爭(zhēng),。但同時(shí),政策的具體細(xì)節(jié)和執(zhí)行力度也需要在實(shí)踐中不斷完善和調(diào)整,。

生成式人工智能生成的內(nèi)容應(yīng)合規(guī) 但如何解決“幻覺”現(xiàn)象,?

貝殼財(cái)經(jīng)記者注意到,《征求意見稿》第四條提出,,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會(huì)主義核心價(jià)值觀,,不得含有一系列違規(guī)以及可能擾亂經(jīng)濟(jì)秩序和社會(huì)秩序的內(nèi)容。

但另一方面,,由于生成式AI底層算法的本質(zhì)就是“猜出”最符合上文內(nèi)容的“下文”,,具備一定隨機(jī)性,因此包括GPT4在內(nèi)的生成式AI都難以避免出現(xiàn)“幻覺”問題,。

有大模型研發(fā)機(jī)構(gòu)工作人員對(duì)貝殼財(cái)經(jīng)記者表示,,要解決生成內(nèi)容的安全問題,就需要額外配備和訓(xùn)練AI人員人數(shù)相同的安全審核人員,,“其實(shí)國(guó)內(nèi)各個(gè)廠商都有生產(chǎn)大模型的技術(shù),,算力、硬件,、軟件都不是問題,,唯獨(dú)市場(chǎng)是否要放開,如何規(guī)避不安全的內(nèi)容存在問題?!?/p>

該人員告訴記者,,實(shí)際上去年年底開始國(guó)內(nèi)AI廠商就已經(jīng)注意到了ChatGPT,雖然也有想要搶占國(guó)內(nèi)市場(chǎng)的打算,,但由于種種原因始終在觀望,,較為穩(wěn)妥的做法是toB,做企業(yè)專屬大模型,,風(fēng)險(xiǎn)相對(duì)較小,。

劉興亮表示,第四條確實(shí)對(duì)生成式人工智能提出了較高的要求,,要實(shí)現(xiàn)這一要求,,從技術(shù)和實(shí)踐層面都需要付出一定的努力,在模型訓(xùn)練方面,,企業(yè)和開發(fā)者可以在訓(xùn)練生成式AI模型時(shí),更加關(guān)注篩選和清洗訓(xùn)練數(shù)據(jù),,確保數(shù)據(jù)集中包含的信息符合社會(huì)主義核心價(jià)值觀,,減少虛假信息和不良內(nèi)容。在模型優(yōu)化方面,,針對(duì)生成式AI存在的“幻覺”現(xiàn)象,,可以通過優(yōu)化模型架構(gòu)、調(diào)整模型參數(shù)等方法,,提高模型生成內(nèi)容的穩(wěn)定性和準(zhǔn)確性,。

貝殼財(cái)經(jīng)記者注意到,除了對(duì)生成的內(nèi)容有要求外,,《征求意見稿》確實(shí)也對(duì)AI的訓(xùn)練數(shù)據(jù)和訓(xùn)練過程提出了相關(guān)合規(guī)規(guī)定,。第七條要求,提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù),、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé),。第八條則要求,生成式人工智能產(chǎn)品研制中采用人工標(biāo)注時(shí),,提供者應(yīng)當(dāng)制定符合本辦法要求,,清晰、具體,、可操作的標(biāo)注規(guī)則,,對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),抽樣核驗(yàn)標(biāo)注內(nèi)容的正確性,。

對(duì)此,,有網(wǎng)絡(luò)安全從業(yè)者在接受媒體采訪時(shí)稱,前置端用于AI學(xué)習(xí)的內(nèi)容需要提前審核在《征求意見稿》已有體現(xiàn),而在后置端,,AI還需要具備發(fā)現(xiàn)違規(guī)內(nèi)容時(shí)追溯其生成相關(guān)內(nèi)容學(xué)習(xí)“材料”能力,,并判斷是需要調(diào)整原始學(xué)習(xí)素材,抑或是修改模型參數(shù),,或是其他方式避免相關(guān)情況再次出現(xiàn),。

值得注意的是,《征求意見稿》第五條提出,,利用生成式人工智能產(chǎn)品提供聊天和文本,、圖像、聲音生成等服務(wù)的組織和個(gè)人(以下稱“提供者”),,包括通過提供可編程接口等方式支持他人自行生成文本,、圖像、聲音等,,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,。

南開大學(xué)法學(xué)院副院長(zhǎng)、中國(guó)新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員陳兵教授4月11日公開表示,,對(duì)生成內(nèi)容生產(chǎn)者的認(rèn)定是需要關(guān)注的重點(diǎn),。如果生成式人工智能產(chǎn)品提供者是生成內(nèi)容的生產(chǎn)者,即應(yīng)對(duì)具體數(shù)據(jù)信息的真實(shí)性,、算法使用的適當(dāng)性等整個(gè)生成內(nèi)容的過程負(fù)責(zé),,如果作為生產(chǎn)者和提供者的平臺(tái)已經(jīng)盡到相應(yīng)注意義務(wù),鑒于其對(duì)創(chuàng)新發(fā)展的貢獻(xiàn),,不宜施加嚴(yán)格責(zé)任,,否則不利于技術(shù)的開發(fā)和未來商用。

對(duì)于已生成的內(nèi)容,,劉興亮建議,,在內(nèi)容審查與過濾方面,企業(yè)可以在生成式AI輸出內(nèi)容后,,采用自動(dòng)或人工的方式對(duì)內(nèi)容進(jìn)行審查和過濾,,確保輸出的內(nèi)容符合相關(guān)法規(guī)要求,避免傳播虛假信息,。監(jiān)管與監(jiān)測(cè)方面,,政府部門可以加強(qiáng)對(duì)生成式AI相關(guān)企業(yè)和產(chǎn)品的監(jiān)管和監(jiān)測(cè),建立相應(yīng)的評(píng)估機(jī)制和懲罰措施,,推動(dòng)企業(yè)自律和規(guī)范發(fā)展,。此外,政府,、企業(yè)和媒體都可以在普及人工智能知識(shí)的同時(shí),,加強(qiáng)對(duì)用戶的教育和引導(dǎo),,幫助用戶理解生成式AI的特點(diǎn)和局限性,避免對(duì)其生成的內(nèi)容產(chǎn)生過高的期望,。

也有學(xué)界人士認(rèn)為,,由于生成式人工智能應(yīng)用的形態(tài)和可能帶來的安全風(fēng)險(xiǎn)正在快速動(dòng)態(tài)變化,所以《征求意見稿》也給出了開放的解決方案,,如第十五條提出對(duì)于運(yùn)行中發(fā)現(xiàn),、用戶舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,,應(yīng)在3個(gè)月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成,,這體現(xiàn)了法規(guī)對(duì)人工智能的開放和包容態(tài)度。

“雖然實(shí)現(xiàn)《征求意見稿》的規(guī)定面臨一定挑戰(zhàn),,但通過企業(yè),、政府和社會(huì)各方的共同努力,應(yīng)該能在一定程度上確保生成式人工智能的內(nèi)容質(zhì)量和符合法規(guī)要求,。當(dāng)然,,隨著技術(shù)的發(fā)展和監(jiān)管體系的完善,未來執(zhí)行力度還有可能得到進(jìn)一步加強(qiáng),?!眲⑴d亮說。

強(qiáng)調(diào)數(shù)據(jù)安全,、隱私、知識(shí)產(chǎn)權(quán) 大模型提供服務(wù)需備案

貝殼財(cái)經(jīng)記者注意到,,對(duì)于生成式AI模型在收集信息的隱私保護(hù)和知識(shí)產(chǎn)權(quán)等方面,,《征求意見稿》也做出了相關(guān)規(guī)定。

奇安信專家表示,,《征求意見稿》強(qiáng)調(diào)提供者需確保數(shù)據(jù)安全和個(gè)人信息保護(hù)合規(guī),,尤其是隱私保護(hù),“《征求意見稿》提出,,用生成式人工智能產(chǎn)品提供聊天和文本,、圖像、聲音生成等服務(wù)的組織和個(gè)人,,涉及個(gè)人信息的,,承擔(dān)個(gè)人信息處理者的法定責(zé)任,履行個(gè)人信息保護(hù)義務(wù),。在數(shù)據(jù)安全方面,,提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé),。涉及個(gè)人信息的,,應(yīng)當(dāng)征得個(gè)人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形等等?!?/p>

劉興亮告訴貝殼財(cái)經(jīng)記者,,生成式人工智能在很多方面具有巨大潛力和價(jià)值,但同時(shí)確實(shí)存在一些可能侵犯知識(shí)產(chǎn)權(quán),、商業(yè)機(jī)密和他人隱私的問題,。這些問題的出現(xiàn),一方面是因?yàn)樯墒紸I的技術(shù)特點(diǎn),,另一方面也是因?yàn)樾袠I(yè)監(jiān)管和企業(yè)自律水平有待提高,。

“《征求意見稿》要求生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)不含侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容,這是一個(gè)積極的規(guī)定,,有助于避免生成式AI在一定程度上侵犯知識(shí)產(chǎn)權(quán),。然而,僅僅依靠這一規(guī)定可能無法完全解決問題,。為更有效地避免侵犯知識(shí)產(chǎn)權(quán),、商業(yè)機(jī)密和他人隱私,還需要完善法律法規(guī):政府應(yīng)加強(qiáng)對(duì)生成式人工智能相關(guān)法律法規(guī)的制定和完善,,明確生成式AI在知識(shí)產(chǎn)權(quán),、商業(yè)機(jī)密和隱私方面的權(quán)利和義務(wù),為行業(yè)發(fā)展提供有力的法治保障,?!眲⑴d亮說。

在他看來,,企業(yè)在開發(fā)和應(yīng)用生成式AI技術(shù)時(shí),,應(yīng)嚴(yán)格遵守相關(guān)法律法規(guī),加強(qiáng)對(duì)預(yù)訓(xùn)練數(shù)據(jù)的篩選和清洗,,確保數(shù)據(jù)來源合法,,避免侵犯他人權(quán)益。同時(shí)也需要通過不斷研究和開發(fā)新技術(shù),,提高生成式AI對(duì)知識(shí)產(chǎn)權(quán),、商業(yè)機(jī)密和隱私保護(hù)的能力,例如采用差分隱私,、聯(lián)邦學(xué)習(xí)等技術(shù),,保護(hù)數(shù)據(jù)隱私。

此外,,《征求意見稿》第六條指出,,利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)按照《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》向國(guó)家網(wǎng)信部門申報(bào)安全評(píng)估,,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更,、注銷備案手續(xù),。奇安信專家對(duì)此表示,這強(qiáng)調(diào)了安全評(píng)估和算法備案的前提性和必要性,。

有學(xué)界人士認(rèn)為,,訓(xùn)練數(shù)據(jù)要保證合法,不侵犯知識(shí)產(chǎn)權(quán),、個(gè)人隱私,,以及客觀準(zhǔn)確這條細(xì)則很重要,能夠擋住很多“無底線靠數(shù)據(jù)發(fā)財(cái)”的應(yīng)用亂象,,而是否經(jīng)過網(wǎng)信部門的備案和安全評(píng)估是硬性流程,。

最后,《征求意見稿》第二十條指出,,提供者違反本辦法規(guī)定的,,由網(wǎng)信部門和有關(guān)主管部門按照《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律、行政法規(guī)的規(guī)定予以處罰,。其中構(gòu)成違反治安管理行為的,,依法給予治安管理處罰;構(gòu)成犯罪的,,依法追究刑事責(zé)任,。奇安信專家認(rèn)為,這夯實(shí)了違規(guī)責(zé)任的處罰措施,,包含追究刑事責(zé)任,。

各國(guó)加碼AIGC監(jiān)管力度 人工智能倫理需靠法律護(hù)航

事實(shí)上,在全球范圍內(nèi),,各國(guó)都在逐步重視對(duì)AIGC的監(jiān)管力度,。

貝殼財(cái)經(jīng)記者注意到,美國(guó)商務(wù)部4月11日就相關(guān)問責(zé)措施正式公開征求意見,,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序。

奇安信專家對(duì)此表示,,除中國(guó)外,,拜登政府已經(jīng)開始研究是否需要對(duì)ChatGPT等人工智能工具實(shí)行檢查。而意大利,、加拿大等國(guó)監(jiān)管機(jī)構(gòu)也先后宣布將關(guān)注ChatGPT及其背后公司OpenAI帶來的數(shù)據(jù)安全風(fēng)險(xiǎn),,并將開啟監(jiān)管調(diào)查。

“生成式大模型在近年來確實(shí)取得了顯著的進(jìn)步,,不僅在自然語言處理領(lǐng)域,,還在諸如計(jì)算機(jī)視覺、生物信息學(xué)等多個(gè)領(lǐng)域都取得了突破,。然而,,這種快速發(fā)展確實(shí)帶來了一些潛在的安全和倫理問題,,如網(wǎng)絡(luò)攻擊、資源消耗,、虛假信息,、歧視性言論等,值得我們關(guān)注和討論,?!眲⑴d亮告訴貝殼財(cái)經(jīng)記者。

奇安信安全專家認(rèn)為,,《征求意見稿》的發(fā)布以及全球范圍內(nèi)對(duì)于AIGC的監(jiān)管力度加強(qiáng),,意味著數(shù)據(jù)安全和隱私保護(hù)已經(jīng)成為AIGC發(fā)展的前提和關(guān)鍵。隨著AIGC技術(shù)的日益成熟和普及,,企業(yè)應(yīng)該更加重視數(shù)據(jù)安全和隱私保護(hù)問題,,在開展相關(guān)業(yè)務(wù)時(shí)積極尋求專業(yè)的網(wǎng)絡(luò)安全技術(shù)和咨詢服務(wù)的支持,確保業(yè)務(wù)的安全和可靠性,。

劉興亮表示,,為了應(yīng)對(duì)安全和倫理問題,要建立完善的法律法規(guī)和監(jiān)管機(jī)制,,為生成式大模型的發(fā)展提供有力的法治保障,。企業(yè)應(yīng)加強(qiáng)自律,關(guān)注技術(shù)發(fā)展對(duì)社會(huì),、經(jīng)濟(jì),、環(huán)境等方面的影響,確保技術(shù)應(yīng)用的安全性和可持續(xù)性,。積極開展多方合作,,鼓勵(lì)政府、企業(yè),、學(xué)術(shù)界和社會(huì)各界共同參與人工智能倫理和安全問題的研究和討論,,形成共識(shí)和標(biāo)準(zhǔn)。加強(qiáng)公眾教育和引導(dǎo),,提高公眾對(duì)生成式大模型技術(shù)的認(rèn)識(shí)和理解,,幫助他們正確看待和使用這些技術(shù),防止技術(shù)濫用或誤用,。

他認(rèn)為,,研究者可以探索如何設(shè)計(jì)更加安全和可解釋的生成式AI,從技術(shù)層面降低潛在的安全和倫理風(fēng)險(xiǎn),。另一方面,,要建立全球合作機(jī)制。鑒于人工智能技術(shù)的全球性影響,,各國(guó)政府和相關(guān)機(jī)構(gòu)可以攜手合作,,共同應(yīng)對(duì)跨國(guó)界的安全和倫理挑戰(zhàn),。

“總之,生成式大模型科技的發(fā)展速度和所帶來的潛在安全問題及倫理問題值得我們關(guān)注,。通過政府,、企業(yè)、學(xué)術(shù)界和社會(huì)各界的共同努力,,我們可以在確保技術(shù)進(jìn)步的同時(shí),,妥善應(yīng)對(duì)這些挑戰(zhàn),為人類社會(huì)帶來更多福祉,?!眲⑴d亮告訴貝殼財(cái)經(jīng)記者。

記者聯(lián)系郵箱:[email protected]

新京報(bào)貝殼財(cái)經(jīng)記者 羅亦丹

編輯 岳彩周

校對(duì) 劉軍

AI監(jiān)管新規(guī)征求意見出臺(tái):行業(yè)告別蒙眼狂奔,,訓(xùn)練成本或增加

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1015075.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。

(0)
新京報(bào)的頭像新京報(bào)
上一篇 2023年4月12日 上午10:20
下一篇 2023年4月12日 下午12:11
198搶自鏈數(shù)字人

相關(guān)推薦