原文來源:AIGC開放社區(qū)
圖片來源:由無界 AI生成
12月19日,,OpenAI在官網(wǎng)公布了“準備框架”(Preparedness Framework)測試版。該文檔詳細介紹了OpenAI是如何保證ChatGPT等產(chǎn)品的安全防護措施,、開發(fā)和部署流程,。
OpenAI表示,隨著大模型的功能迭代不斷完善,,其能力已經(jīng)開始接近初級AGI(通用人工智能),,安全已成為開發(fā)AI模型的重中之重,。
因此,OpenAI希望通過詳細公布AI模型的安全框架透明化,,使社會,、用戶深度了解模型的工作機制,確保以安全,、健康的方式應用在實際業(yè)務中,。同時為研發(fā)超級模型奠定安全基礎。
詳細文件地址:https://cdn.openai.com/openai-preparedness-framework-beta.pdf
跟蹤風險類別
OpenAI明確列出了4類可能帶來災難性后果的風險領(lǐng)域需要特別關(guān)注,分別是網(wǎng)絡安全風險,、CBRN風險(化學、生物,、放射性,、核)、說客能力風險以及模型的自主能力風險,。
并對每一類風險安全框架都給出了低,、中、高,、特別高四個等級,來描述系統(tǒng)在該風險領(lǐng)域所處的危險水平,。
以網(wǎng)絡安全風險為例,框架將低級定為系統(tǒng)僅可以用于非編程任務,;中級為系統(tǒng)可以明顯提高黑客攻擊效率;高級為系統(tǒng)能夠自動發(fā)現(xiàn)和利用高價值漏洞,;
特別高級為系統(tǒng)能夠自動找到和利用任何軟件的漏洞,。這種細分的安全體系,可以指導開發(fā)人員更精準的評估模型,。
建立安全基線
OpenAI設定了嚴格的安全基線:只有在減輕后評分,,為"中等"或以下的模型才能部署;只有安全評分為"高"的模型才能進一步開發(fā),、應用,。
此外,對于評分卡中具有"高"或"關(guān)鍵"風險的模型,,OpenAI還將確保相應的安全措施,,以防止模型被竊取。
同時會定期動態(tài)跟蹤和更新各類風險的“加強前”和“加強后”評級情況?!凹訌娗啊痹u估系統(tǒng)本身的風險水平,“加強后”看系統(tǒng)采取了哪些安全預防措施后余下的風險,。
例如,某次評估顯示,在沒有采取任何措施的情況下,一個新模型在網(wǎng)絡安全方面的加強前風險達到了高級,。
經(jīng)過一輪實驗驗證后,通過設計專門的安全模組后,該模型的加強后風險降到了中等水平。這可以清晰地告訴研發(fā)人員模型當前的安全狀況,以及應采取哪些補救措施,。
建立安全咨詢團隊
OpenAI將成立一個名為"安全咨詢小組"(Safety Advisory Group,,SAG)的跨職能咨詢機構(gòu)。該小組將匯集公司內(nèi)部的專業(yè)知識,,幫助OpenAI的領(lǐng)導層和董事會做出最佳的安全決策,。
安全咨詢小組的職責包括監(jiān)督風險評估工作,、維護應急情況處理的快速流程等。
OpenAI還成立了一個“準備團隊”,專門負責模型的安全研發(fā)和維護,。該團隊將進行研究,、評估、監(jiān)測和預測風險,,并定期向"安全咨詢小組"提供報告,。
這些報告將總結(jié)最新的安全證據(jù),并提出改進OpenAI研發(fā)大模型的安全計劃建議,。
此外,,準備團隊還將與相關(guān)團隊(如安全系統(tǒng)、安全性,、超級對齊,、政策研究等)協(xié)調(diào)合作,整合出有效的安全措施,。
此外,,準備團隊還將負責組織安全演練,并與可信AI團隊合作進行第三方安全審計,。
需要注意的是,,這是一份動態(tài)文檔,,OpenAI會根據(jù)實際的安全情況對內(nèi)容進行更新和說明。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1083883.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。