圖說(shuō):瑞萊智慧RealAI聯(lián)合創(chuàng)始人,、算法科學(xué)家 采訪對(duì)象供圖(下同)
近幾個(gè)月來(lái),,以ChatGPT為代表的生成式人工智能狂飆突進(jìn),,大模型時(shí)代已然降臨,。在“百模大戰(zhàn)”越戰(zhàn)越酣之時(shí),大模型其內(nèi)生及衍生安全威脅也愈演愈烈,,數(shù)據(jù)泄露、幻想,、生產(chǎn)歧視、排斥和有害內(nèi)容等安全問(wèn)題層出不窮,。
如何將制約大模型應(yīng)用發(fā)展的“絆腳石”變?yōu)椤皦号撌保?/p>
7月7日,清華大學(xué)人工智能研究院孵化企業(yè)瑞萊智慧RealAI在2023世界人工智能大會(huì)上,,發(fā)布了全新人工智能安全平臺(tái)RealSafe3.0,,為“加速度”發(fā)展中的大模型系好“安全帶”,把好“方向盤(pán)”,。
現(xiàn)狀:“雙刃劍”效應(yīng) 制約大模型落地
和所有通用目的技術(shù)一樣,,自人工智能誕生的那一刻起,,創(chuàng)造技術(shù)的力量和控制技術(shù)的力量就存在不對(duì)等,。新技術(shù)必然會(huì)帶來(lái)新的安全問(wèn)題,這正是技術(shù)兩面性,。大模型亦是如此,,盡管它的強(qiáng)大已讓人類瞥見(jiàn)了通用人工智能的曙光,但也讓眾多學(xué)界,、業(yè)界人士心生憂懼,。前不久,就有全球400多位專家發(fā)布聯(lián)名公開(kāi)信,,警告人工智能發(fā)展速度過(guò)快,,缺乏監(jiān)管,可能會(huì)危及人類生存,。
他們的擔(dān)憂并非危言聳聽(tīng),。近段時(shí)間以來(lái),關(guān)于大模型的安全隱患屢見(jiàn)不鮮,,例如:機(jī)密文件被泄露,、添加無(wú)意義的字符后模型竟給出完全相反的回答、輸出違法有害內(nèi)容,、隱含對(duì)某些人類社群的偏見(jiàn)和歧視等等,。
這一新興技術(shù)帶來(lái)的風(fēng)險(xiǎn),已經(jīng)引起世界各國(guó)的高度關(guān)注,。國(guó)家互聯(lián)網(wǎng)信息辦公室4月11日起草《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》公開(kāi)征求意見(jiàn),;歐盟于6月14日投票通過(guò)了《人工智能法案》,,以期法律法規(guī)引領(lǐng)技術(shù)向好向善發(fā)展,。
瑞萊智慧聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪認(rèn)為,,大模型“落地難”的本質(zhì)在于,,當(dāng)前仍處于“野蠻生長(zhǎng)”階段,還沒(méi)有找到場(chǎng)景、風(fēng)險(xiǎn)和規(guī)范三者之間的平衡點(diǎn),。而在探尋這一平衡點(diǎn)的過(guò)程中,,缺少易用和標(biāo)準(zhǔn)化的工具,即在技術(shù)層面上缺乏有力抓手,,能夠科學(xué)評(píng)判大模型在場(chǎng)景中能否同時(shí)滿足規(guī)范和低風(fēng)險(xiǎn),,且能夠進(jìn)一步定位問(wèn)題并給出優(yōu)化建議,助力模型上線運(yùn)行,。
圖說(shuō):瑞萊智慧人工智能安全平臺(tái)RealSafe3.0通用大模型測(cè)評(píng)及優(yōu)化工作流程
出路:源頭上找癥結(jié),,技術(shù)上找對(duì)策
因此,瑞萊智慧在2023世界人工智能大會(huì)上,,正式發(fā)布人工智能安全平臺(tái)RealSafe3.0版本,。它是集成主流及RealAI獨(dú)有的世界領(lǐng)先的安全評(píng)測(cè)技術(shù),能夠提供端到端的模型安全性測(cè)評(píng)解決方案,,解決當(dāng)前通用大模型安全風(fēng)險(xiǎn)難以審計(jì)的痛點(diǎn)問(wèn)題,。
相較上一版本,RealSafe3.0新增了對(duì)通用大模型的評(píng)測(cè),,在評(píng)測(cè)維度上,,它已覆蓋數(shù)據(jù)安全、認(rèn)知任務(wù),、通用模型特有漏洞,、濫用場(chǎng)景等近70個(gè)評(píng)測(cè)維度,全方位多維度地評(píng)測(cè)通用大模型的性能,,且未來(lái)還會(huì)持續(xù)擴(kuò)增測(cè)評(píng)維度的數(shù)量,。
“評(píng)測(cè)只是手段,幫助通用大模型提升其自身安全性才是核心目的,?!笔捵雍勒f(shuō),不能因?yàn)閷?duì)于被技術(shù)反噬的擔(dān)憂就止步不前,,創(chuàng)造新技術(shù)和控制技術(shù)危害應(yīng)該同步進(jìn)行,,“瑞萊智慧的辦法是,從源頭上找到癥結(jié),,再用‘魔法’打敗‘魔法’,。”
如果將人工智能模型比作“引擎”,,數(shù)據(jù)則是模型的“燃料”,。可以說(shuō),,數(shù)據(jù)集質(zhì)量直接影響模型的內(nèi)生安全,。因此,,RealSafe3.0內(nèi)部集成了多個(gè)自研模型和專家論證高質(zhì)量數(shù)據(jù)集,來(lái)幫助用戶修復(fù)模型中的問(wèn)題,。
對(duì)黑盒不可解釋的通用大模型,,自研紅隊(duì)對(duì)抗模型取代人工設(shè)計(jì)問(wèn)題,顯著提升攻擊成功率和樣本多樣性,。也就是說(shuō),,該模型數(shù)據(jù)集中,不僅包含了自有數(shù)據(jù)集,,還包含了模型自生成的數(shù)據(jù),,無(wú)論是從數(shù)據(jù)質(zhì)量還是數(shù)據(jù)規(guī)模上都可圈可點(diǎn),因此它能夠自動(dòng)化地挖掘出更多的漏洞,,真正從源頭上緩解安全問(wèn)題,。
教練模型則通過(guò)對(duì)被測(cè)大模型進(jìn)行多輪次的提問(wèn)-回答訓(xùn)練,并以訓(xùn)練好的評(píng)分模型對(duì)問(wèn)答結(jié)果進(jìn)行評(píng)分,,再將評(píng)分結(jié)果反饋給大模型,,使其不斷強(qiáng)化學(xué)習(xí)到好壞答案的要點(diǎn)及區(qū)別,直至問(wèn)答能力逐步迭代至最優(yōu),。除了定制化的訓(xùn)練框架,,教練模型理想的模型效果還得益于夯實(shí)的數(shù)據(jù)基礎(chǔ),瑞萊智慧自有數(shù)據(jù)集經(jīng)過(guò)數(shù)十位價(jià)值觀領(lǐng)域的專家論證,,以確保輸入的數(shù)據(jù)無(wú)誤,,質(zhì)量高且領(lǐng)域多元,未來(lái)也將持續(xù)更新補(bǔ)充,。
蕭子豪透露:“這些技術(shù),,都是基于自研多模態(tài)大模型底座實(shí)現(xiàn)的?!?/p>
新民晚報(bào)記者 郜陽(yáng)
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1055875.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。