財聯(lián)社6月14日訊(編輯 瀟湘)素有“歐盟數(shù)字沙皇”之稱的歐盟委員會執(zhí)行副主席、反壟斷事務主管Margrethe Vestager表示,與導致人類滅絕相比,,人工智能(AI)發(fā)展帶來的歧視問題在眼下正更為緊迫。
Vestager在本周接受媒體采訪時表示,,需要設置“護欄”來應對該項技術背后的最大風險。
她指出,,當人工智能被用來幫助做出可能影響人類生活的重大決定時,,這可能面臨關鍵風險——例如決定一些人士是否可以申請抵押貸款。
按照日程安排,,歐洲議會周三將就擬議的《人工智能法案》修正案進行表決,,之后將開始與歐盟成員國代表就法律的最終形式進行談判。
此前,,一些業(yè)內(nèi)專家曾警告稱,,人工智能的無序發(fā)展可能會導致人類滅絕。
但Vestager表示,,相比于上述擔憂,,人工智能發(fā)展面臨的更緊迫問題是有可能放大偏見或歧視,這些偏見或歧視可能會包含在來自互聯(lián)網(wǎng)的大量數(shù)據(jù)中,,并用于培訓人工智能模型及相應工具,。
“可能(人類滅絕的風險)確實存在,但我認為可能性相當小,。我認為人工智能的風險更多的是部分人將被歧視,,面臨不公正待遇?!?/p>
Vestager舉例稱,,“如果一家銀行開始用AI來決定我是否可以獲得抵押貸款,,或者市政當局開始用AI來提供社會服務,那么你會希望確保你不會因為你的性別,、膚色或郵政編碼而受到歧視,。”
人工智能監(jiān)管需要成為“全球事務”
在接受英媒采訪時,,作為歐盟委員會執(zhí)行副主席的Vestager還表示,,人工智能的監(jiān)管需要成為一項“全球事務”。Vestager正在領導歐盟與美國政府為建立一套自愿行為準則而努力,。按照該準則,,使用或開發(fā)人工智能的公司將簽署一套不具法律約束力的協(xié)議標準。
目前歐盟的《人工智能法案》草案試圖將人工智能的應用歸類為不同的風險級別,,支持人工智能的電子游戲或垃圾郵件過濾器屬于最低的風險類別,。而高風險的人工智能系統(tǒng)領域包括那些用于評估信用評分或能否獲得貸款的系統(tǒng),這也是當前監(jiān)管機構對AI技術進行嚴格控制的重點所在,。
但是,,隨著人工智能繼續(xù)快速發(fā)展,Vestager表示,,當涉及到圍繞這項技術的微調(diào)規(guī)則時,,有必要采取務實的態(tài)度。她表示,,“與其說現(xiàn)在就能掌握80%,,不如說永遠都無法百分百掌控一切,所以不妨讓我們從現(xiàn)在就開始,,邊走邊學習,,然后與其他人一同糾正錯誤?!?/p>
許多技術領袖和研究人員在3月份曾簽署了一封信,,呼吁暫停開發(fā)比OpenAI的GPT-4更強大的AI系統(tǒng)。
但Vestager認為這是不現(xiàn)實的,。“沒有人可以強制執(zhí)行這條要求,。沒有人能夠確保每個人都參與(暫停研發(fā))行動,暫停研發(fā)可能會被一些群體利用,,成為領先競爭對手的一個機會,,”她表示。
Vestager還提到了人工智能應用對西方選舉體系的影響,。她表示,,人工智能“肯定存在被用來影響下一次選舉的風險”。警方和情報機構面臨的挑戰(zhàn)將是“完全控制”犯罪部門,在利用AI技術的競賽中,,后者有可能領先,。
“如果你的社交動態(tài)可以被掃描,以獲得對你的全面了解,,那么被操縱的風險是巨大的,,”她表示,“如果我們最終陷入什么都無法相信的境地,,那么后果就將完全破壞我們的社會體系,。”
在歐盟的《人工智能法案》成為世界上第一本關于人工智能系統(tǒng)使用和開發(fā)的法規(guī)之前,,歐盟的三個權力部門——歐洲委員會,、歐洲議會和歐盟理事會都必須就其最終版本達成一致。目前業(yè)內(nèi)普遍預計該法案在2025年前難以生效,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1046906.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。