4月15日至19日,第27屆聯(lián)合國科技大會在瑞士日內瓦召開。大會期間,,世界數(shù)字技術院(WDTA)發(fā)布了《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準,,這也是國際組織首次就大模型安全領域發(fā)布國際標準。自去年以來大語言模型技術火爆后,,大模型的安全問題一直是國際關注的焦點。世界數(shù)字技術院(WDTA)是2023年4月在日內瓦成立注冊的國際非政府組織,其遵從聯(lián)合國指導框架,,致力于在全球范圍內推進數(shù)字技術,促進國際合作,,其超越國界和企業(yè)利益,,倡導全球統(tǒng)一的標準和治理機制。創(chuàng)始主席皮特麥哲(Peter Major)教授表示,,“我們的目標是制定全球數(shù)字標準,,引領技術創(chuàng)新,并加強國際合作,?!敝档米⒁獾氖牵琌penAI,、谷歌,、微軟、Meta,、螞蟻集團,、華為、科大訊飛,、國際數(shù)據(jù)空間協(xié)會(IDSA),、弗勞恩霍夫研究所、中國電子等均為WDTA成員單位,。與會的世界數(shù)字技術院人工智能安全可信負責任工作組組長黃連金表示,隨著人工智能系統(tǒng),,特別是大語言模型繼續(xù)成為社會各個方面不可或缺的一部分,,以一個全面的標準來解決它們的安全挑戰(zhàn)變得至關重要。這兩項標準匯集了全球AI安全領域的專家智慧,,填補了大語言模型和生成式AI應用方面安全測試領域的空白,,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,,促進AI技術負責任發(fā)展,,增強公眾信任。WDTA牽頭《生成式人工智能應用安全測試標準》據(jù)了解,,在發(fā)布的國際標準中,,《生成式人工智能應用安全測試標準》由WDTA作為牽頭單位。黃連金介紹,,《生成式AI應用安全測試標準》為測試和驗證生成式AI應用的安全性提供了一個框架,。該標準涵蓋了AI應用生命周期的關鍵領域,包括基礎模型選擇、嵌入和向量數(shù)據(jù)庫,、提示執(zhí)行/推理,、智能行為、微調,、響應處理和AI應用運行時安全等。主要目標是確保AI應用在整個生命周期內的行為安全,并符合預期設計,。據(jù)了解,,AI STR(安全、可信,、負責任)計劃是世界數(shù)字技術院的核心倡議,,旨在確保人工智能系統(tǒng)的安全性、可信性和責任性,。新京報貝殼財經(jīng)記者瀏覽世界數(shù)字技術院官網(wǎng)發(fā)現(xiàn),,其介紹稱AI STR計劃“代表了我們如何開發(fā)和部署 AI 技術的范式轉變。在人工智能系統(tǒng)中倡導安全,、信任和負責任,,為更加合乎道德、更安全和公平的數(shù)字未來奠定了基礎,,人工智能技術是進步的推動者,,而不是不確定性和傷害的來源,。生成式AI應用安全測試和驗證標準是AI STR標準之一?!贝送?,與標準同時發(fā)布的還有一項《生成式人工智能人才發(fā)展框架》,世界數(shù)字技術院介紹,,ChatGPT、Stable Diffusion 等生成式人工智能應用程序迅速吸引了世界各地人們的注意力和想象力,,這要歸功于它們廣泛的實用性——幾乎任何人都可以使用它們進行交流和創(chuàng)建——以及更自然的人機對話,。甚至,最新的生成式 AI 應用程序可以在員工的工作中執(zhí)行一系列日常任務,,例如數(shù)據(jù)分類,、業(yè)務報告生成,甚至自動生成測試代碼,。廣泛的利益相關者都在努力應對生成式人工智能對商業(yè)和社會的影響,,需要更多的人理解和參與,從而就人工智能能力的范圍,、如何使用,、應用場景和約束形成共識,真正實現(xiàn)“人工智能為人類”,。世界數(shù)字技術院發(fā)布的兩項標準與一份發(fā)展框架文件 圖片來自世界數(shù)字技術院官網(wǎng)中國企業(yè)積極參與國際標準制定貝殼財經(jīng)記者注意到,,本次會議期間不乏中國面孔,如在關于“生成式大模型安全”的小組討論中,,加拿大工程院,、隱私AI、英偉達,、微軟和螞蟻集團的專家同臺對話,。
中外專家參與大模型安全小組討論 圖片來自世界數(shù)字技術院官網(wǎng) 事實上,本次發(fā)布的兩項國際標準正是由OpenAI,、螞蟻集團,、科大訊飛、谷歌,、微軟,、英偉達、百度,、騰訊等單位的多名專家學者共同編制而成,。 其中,《大語言模型安全測試方法》由螞蟻集團作為牽頭單位,。該標準則為大模型本身的安全性評估提供了一套全面,、嚴謹且實操性強的結構性方案,。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,,并率先給出了四種不同攻擊強度的攻擊手法分類標準,,提供了嚴格的評估指標和測試程序等,可解決大語言模型固有的復雜性,,全面測試其抵御敵對攻擊的能力,,使開發(fā)人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構建的人工智能系統(tǒng)的安全性和可靠性,。作為標準參與單位代表,,螞蟻集團機器智能部總經(jīng)理、螞蟻安全實驗室首席科學家王維強發(fā)言稱,,“隨著生成式人工智能的興起,,我們相信它將釋放巨大的生產(chǎn)力,但也對它帶來的各種新風險高度警惕,。大型科技公司應當在促進生成式人工智能安全和負責任的發(fā)展中發(fā)揮關鍵作用,,利用其資源、專業(yè)知識和影響力推動最佳實踐,,構建一個優(yōu)先考慮安全,、隱私和道德考量的生態(tài)系統(tǒng)。例如,,通過制定行業(yè)標準與指南,,為開發(fā)和部署生成式人工智能系統(tǒng)的開發(fā)者和機構提供清晰指導;投入研發(fā)并開放保障生成式人工智能安全的工具,,形成產(chǎn)業(yè)共治,。”貝殼財經(jīng)記者發(fā)現(xiàn),,目前國內外主流廠商均在重點投入和關注大模型安全,,如OpenAI四年內投入了20%的計算資源,成立專門團隊構建解決對齊問題的超強AI,,谷歌等12家機構聯(lián)合發(fā)布“模型安全性評估框架”,,英偉達推出了“護欄”軟件以防止AI模型失控,360和奇安信則發(fā)布了安全大模型以及上線了針對大模型安全的業(yè)務,。而本次兩份國際標準的發(fā)布則為業(yè)界提供了統(tǒng)一的測試框架,。“這兩份標準的制定匯集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,。它們?yōu)锳I企業(yè)提供了明確的測試要求和方法,有助于提高AI系統(tǒng)安全性,減少潛在風險,促進AI技術負責任發(fā)展,增強公眾信任,。呼吁業(yè)界積極采納這兩份標準,共同努力提高AI系統(tǒng)的安全性和可靠性,并且參與WTDA AI STR 的標準制定工作,在AI技術快速迭代的過程中不斷地完善標準?!秉S連金說,。記者聯(lián)系郵箱:[email protected]新京報貝殼財經(jīng)記者 羅亦丹編輯 丁爽 校對 王心
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1097667.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。