來源:媒體滾動
轉(zhuǎn)自:千龍網(wǎng)
今年國務(wù)院《政府工作報告》明確提出:制定支持?jǐn)?shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展政策,開展“人工智能+”行動,。
AI技術(shù)正在賦能各個領(lǐng)域,,由此產(chǎn)生的經(jīng)濟(jì)效益和社會效益也頗為可觀,。在AI技術(shù)的迭代中,,誰也無法準(zhǔn)確預(yù)測這類技術(shù)的潛力還有多少沒挖掘出來,。在AI科學(xué)家不斷讓智能體變得更加“聰明”的同時,,有關(guān)這種技術(shù)的安全問題也成為公共話題,。
今年全國兩會上,,全國政協(xié)委員齊向東關(guān)注創(chuàng)新發(fā)展“AI+安全”,,并詳細(xì)解答了如何應(yīng)對AI時代的信息安全和網(wǎng)絡(luò)安全威脅相關(guān)問題,。全國人大代表張敏提出,要增強(qiáng)人工智能技術(shù)安全應(yīng)用,,加快推進(jìn)《人工智能法》立法,,筑牢關(guān)鍵信息基礎(chǔ)設(shè)施安全屏障。
代表委員針對人工智能應(yīng)用安全提出的建議,,有可能上升為通過立法強(qiáng)制保障人工智能的安全應(yīng)用。這也表明,,有關(guān)人工智能安全應(yīng)用的共識正在形成中,。
就在上周,,馬斯克提起針對奧爾特曼和OpenAI的訴訟,指控被告遺忘了OpenAI既定使命中的核心部分,,即開發(fā)有用且無害的人工通用智能,。面對指控,,奧爾特曼承諾OpenAI的使命是“確保人工智能造福全人類”。
國內(nèi)外對于AI技術(shù)應(yīng)用的憧憬與擔(dān)憂并存,,這是人類出于自身利益和安全的正??剂?。人們提出“負(fù)責(zé)任的AI”愿景,,也旨在解除應(yīng)用這種技術(shù)的后顧之憂。至于這樣的憂慮為何難以排除,,在于它未來發(fā)展的不確定性,,由此讓更多的人變得憂心忡忡。有人甚至認(rèn)為,,“從AI的發(fā)展可以看出人類的能力是多么的渺小,,機(jī)器超過人只是時間問題,?!?/p>
世界上最大的隱患,是對風(fēng)險的渾然不覺或者抱著無所謂的態(tài)度,。當(dāng)人工智能的安全問題已成為全球性的公共話題,,國內(nèi)外都不乏對人工智能發(fā)展立法的聲音。這樣的憂患意識令人欣慰,。既然憂患意識已經(jīng)普遍覺醒,,當(dāng)整個社會都對人工智能安全問題抱著“有所謂”的態(tài)度,又何愁“負(fù)責(zé)任的AI”不會從愿景變成現(xiàn)實呢,?
“負(fù)責(zé)任的AI”要從愿景變成現(xiàn)實,,需要經(jīng)歷必不可少的“三部曲”,要從最基本的安全意識,,逐漸落實到具體的追求安全的行動上,。
從愿景變成現(xiàn)實,“負(fù)責(zé)任的AI”要求人類懂得何為真正的自愛,。人工智能技術(shù)是人類的發(fā)明,,智能體的價值在于造福人類。它對人類的用處越大,,智能體也就越值得被人類所愛。要做到這一點(diǎn),,需要自愛的是極少數(shù)掌握AI技術(shù)迭代“按鈕”的科學(xué)家,。這樣的“掌門人”真正懂得自愛,,即他們的發(fā)明創(chuàng)造值得為世人所愛,他們才因為自己的技術(shù)貢獻(xiàn)而配被他人所愛,。
從馬斯克采取法律手段叫板奧爾特曼來看,,這次訴訟的意義在于教導(dǎo)掌握AI發(fā)展“按鈕”的技術(shù)“掌門人”要學(xué)會真正的自愛,。他們懂得了真正的自愛,,公眾對AI技術(shù)的安全之憂也就少了許多。
從愿景變成現(xiàn)實,,“負(fù)責(zé)任的AI”要求人類懂得何為真正的自律,。自愛是在人懂得節(jié)制的過程中形成的,一個在道德上自愛的人必然是真正自律的人,。
“負(fù)責(zé)任的AI”成為全球性的公共話題,在于掌握AI發(fā)展技術(shù)“按鈕”的人在技術(shù)研發(fā)中追求技術(shù)的迭代,無形中忽視了對AI安全問題的考慮,。沒有這樣的安全考慮,,AI技術(shù)領(lǐng)跑的速度上去了,但這種技術(shù)也可能脫離了道德的韁繩,忘記了技術(shù)是造福人類社會,而不是給人類社會添堵,。
自律是人給自己制定行動的規(guī)則,。在有自律精神的AI技術(shù)團(tuán)隊那里,“負(fù)責(zé)任的AI”意味著對智能體的設(shè)計必須設(shè)置重重的安全性約束裝置,,一旦智能體在運(yùn)行中有傷害人類情感或利益的可能和風(fēng)險,它必須有能力中止這樣的行為傾向,。這樣的傾向看似是智能體自己的事情,實際上卻只能是智能體設(shè)計者的自律問題,。
只有創(chuàng)造智能體的人嚴(yán)于自律,,把用戶的安全當(dāng)作自己的安全,,“己所不欲勿施于人”,,他們在設(shè)計智能體時,,才能做到先讓AI“負(fù)責(zé)任”,。
從愿景變成現(xiàn)實,,“負(fù)責(zé)任的AI”要求整個社會要具有責(zé)任意識,。
責(zé)任是一種強(qiáng)迫,通過外在的立法和有效的訴訟,,讓不懂得在技術(shù)研發(fā)中自愛的機(jī)構(gòu)和個人逐漸學(xué)會自愛起來,;通過道德的自覺,讓更多的人工智能技術(shù)研究人員樹立起技術(shù)發(fā)展的責(zé)任意識,讓更多有識之士包括像人大代表,、政協(xié)委員這樣的公眾人物,,不斷呼吁科學(xué)家、技術(shù)專家,、企業(yè)家以及全社會都高度重視AI安全問題,。責(zé)任意識越濃厚,未來的AI也就越安全,。
要讓AI“負(fù)責(zé)任”,,人類需要先自覺負(fù)起責(zé)任。AI安全的愿景畫卷已經(jīng)徐徐展開,,期待“負(fù)責(zé)任的AI”變成現(xiàn)實為時不遠(yuǎn),。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1091741.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議。