財聯(lián)社12月19日訊(編輯 夏軍雄)當?shù)貢r間周一(12月18日),人工智能(AI)研究公司OpenAI公布了一套關于防范AI風險的指導方針,其中值得關注的一條規(guī)則是,即使CEO等公司領導層認為AI模型是安全的,,董事會也可以阻止其發(fā)布,。
OpenAI開發(fā)的聊天機器人ChatGPT已經(jīng)發(fā)布了一整年,,這款現(xiàn)象級應用極大促進了AI領域的發(fā)展,,與之而來的還有對AI發(fā)展失控的擔憂,。
全球監(jiān)管機構都在制定各自的AI法規(guī),,而作為AI領域領頭羊的OpenAI也在采取行動,。
今年10月27日,OpenAI宣布組建名為“準備”(Preparedness)的安全團隊,,旨在最大限度地降低AI帶來的風險,。
Preparedness團隊由麻省理工學院的可部署機器學習中心主任Aleksander Madry領導,該團隊將針對各類AI模型進行能力評估及紅隊測試,,以追蹤,、預測及防范各類別的災難性風險。
OpenAI周一發(fā)布了名為“準備框架”(Preparedness Framework)的指導方針,,并強調這套指南仍處于測試階段,。
據(jù)悉,Preparedness團隊每月將向一個新的內部安全咨詢小組發(fā)送報告,,該小組隨后將對其進行分析,,并向OpenAI首席執(zhí)行官薩姆·奧爾特曼和董事會提交建議。奧爾特曼和公司高層可以根據(jù)這些報告決定是否發(fā)布新的AI系統(tǒng),,但董事會有權撤銷這一決定,。
作為OpenAI聯(lián)合創(chuàng)始人之一,奧爾特曼在不久前還是公司董事會成員,,但在一場人事巨震中被除名,,并且一度離開OpenAI。雖然奧爾特曼最終得以重返OpenAI并繼續(xù)擔任CEO一職,,但新組建的“初始”董事會并沒有他的席位,。
Preparedness團隊將反復評估OpenAI最先進,、尚未發(fā)布的AI模型,根據(jù)不同類型的感知風險評為四個等級,,從低到高依次是“低”,、“中”、“高”和“嚴重”,。根據(jù)新的指導方針,,OpenAI將只推出評級為“低”和“中”的模型。
(財聯(lián)社 夏軍雄)
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1083906.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。