來源:通信信息報
(圖片來源:攝圖網(wǎng))
(記者 陳洲)近日,,第六屆C3安全大會在南京舉行,,大會以“安全AI未來”為主題,聚焦“數(shù)據(jù)驅(qū)動,,AI原生”議題,,深入探討AI技術(shù)在網(wǎng)絡安全領(lǐng)域的創(chuàng)新應用,以及如何打造適應數(shù)字經(jīng)濟時代的全面安全防護體系,。
當前,,AI+已逐漸融入各行各業(yè),相關(guān)風險等級也在遞增,,如何用AI原生創(chuàng)新力構(gòu)建可持續(xù)的AI安全框架值得業(yè)內(nèi)深思……
AI安全面臨的風險與難題
AI技術(shù)的發(fā)展和應用,,為社會的各個領(lǐng)域帶來了巨大的變革和便利。
不過,,隨著AI技術(shù)的深入,,我們也逐漸意識到其中存在的多種安全風險。
首先最受關(guān)注的是數(shù)據(jù)安全問題,,AI系統(tǒng)的訓練和應用依賴于大量數(shù)據(jù),,這些數(shù)據(jù)往往包含著個人隱私,、企業(yè)機密等敏感信息,。數(shù)據(jù)泄露、濫用或被惡意篡改的風險不斷增加,,對個人隱私和企業(yè)機密構(gòu)成嚴重威脅,。例如,,AI系統(tǒng)可能被黑客攻擊,導致大量用戶數(shù)據(jù)泄露,,給個人和企業(yè)帶來巨大的損失,。
除此之外,AI系統(tǒng)的決策過程也存在著不透明性和不可解釋性,,這可能導致AI系統(tǒng)在處理關(guān)鍵問題時出現(xiàn)偏差,,甚至產(chǎn)生嚴重后果,這不禁讓使用者背后一涼,。例如,,AI系統(tǒng)在醫(yī)療領(lǐng)域診斷疾病時,,可能會因為數(shù)據(jù)的偏差而導致錯誤的診斷結(jié)果,,給患者帶來健康風險。同時,AI系統(tǒng)還可能受到對抗性攻擊,,攻擊者通過精心設計的輸入數(shù)據(jù),,使AI系統(tǒng)做出錯誤的決策。
華裔人工智能科學家,、斯坦福大學教授李飛飛就明確指出:“我們必須清醒地認識到,,AI的進步如同雙刃劍,它在帶來便捷與效率的同時,,也可能引發(fā)隱私泄露,、就業(yè)結(jié)構(gòu)變化等復雜問題?!?/p>
各類AI風險是AI時代所面臨的且無法逃避的問題,,更是對AI技術(shù)應用的安全性和可靠性提出的挑戰(zhàn),如何化干戈為玉帛,?或許是下一步需要解決的一大社會性課題,。
探索AI原生創(chuàng)新力
面對AI技術(shù)的安全風險,我們需要探索AI原生的創(chuàng)新力,,以AI技術(shù)自身的能力來防御和對抗這些風險,。這需要我們構(gòu)建一個以海量數(shù)據(jù)驅(qū)動的AI原生安全生態(tài)體系,通過大數(shù)據(jù)分析和深度學習等技術(shù)手段,,提前發(fā)現(xiàn)和防范可能由AI支持的大規(guī)模信息安全威脅,。例如,我們可以利用AI技術(shù)來監(jiān)測和識別異常的網(wǎng)絡行為,,預防網(wǎng)絡攻擊和數(shù)據(jù)泄露,。
同時,我們還需要推動AI技術(shù)的創(chuàng)新,,開發(fā)出更加安全,、可靠的AI系統(tǒng)。這包括對AI系統(tǒng)的決策過程進行優(yōu)化,,提高其透明度和可解釋性,,使其在處理關(guān)鍵問題時能夠做出更加公正、合理的決策,。例如,,我們可以開發(fā)新的算法和模型,使AI系統(tǒng)的決策過程更加可解釋,,提高人們對AI系統(tǒng)的信任度,。此外,我們還需要加強對AI系統(tǒng)的安全防護,,提高其對抗對抗性攻擊的能力,。例如,,我們可以開發(fā)新的防御機制,使AI系統(tǒng)能夠識別和抵御對抗性攻擊,,保護系統(tǒng)的安全性和可靠性,。
從具體案例來看,我們以天翼云電腦升級為天翼AI云電腦為例,,中國電信通過探索AI原生創(chuàng)新力,,構(gòu)建了開放平臺,匯聚多模態(tài)AI大模型應用,,將AI之力充分賦能云電腦,,實現(xiàn)了云電腦能力的全面升級。升級后的天翼AI云電腦具備端云彈性算力,、企業(yè)級端云智能體,、模型數(shù)據(jù)安全、開放的企業(yè)級大模型和開放生態(tài)五大特征,。尤其在模型和數(shù)據(jù)安全方面,,中國電信對云電腦內(nèi)運行的模型和數(shù)據(jù)進行了加密保護,確保企業(yè)內(nèi)安全閉環(huán),,無需擔心重要信息資產(chǎn)泄露,,真正為用戶帶來更加極致的產(chǎn)品與服務體驗。
中國電信集團網(wǎng)絡和信息安全管理部總經(jīng)理谷紅勛指出,,“當前中國電信廣泛在網(wǎng)信安全領(lǐng)域應用AI,,主要集中在云網(wǎng)安全的防護以及反詐方面?!逼涓毖缘?,未來的網(wǎng)絡安全防守體系最終極有可能是比拼AI能力和算法。因此,,中國電信在不久前還參與了業(yè)界首個《共建安全大模型高質(zhì)量數(shù)據(jù)集倡議書》的發(fā)布,,旨在促進AI安全產(chǎn)業(yè)的合理有序發(fā)展。
此外,,在數(shù)月前,,中國電信還與華為等30余家機構(gòu)共同發(fā)起了AI安全工作組,致力于解決AI技術(shù)快速發(fā)展所帶來的安全難題,。這個工作組的主要職責是研究和編制與AI安全相關(guān)的技術(shù)安全威脅和風險,、AI數(shù)據(jù)安全與隱私保護、AI技術(shù)助力安全應用,、AI倫理和AI合規(guī)等方面的材料,。
綜上所述,中國電信在推動AI技術(shù)發(fā)展以及實際落地應用的同時,,也在積極應對和解決相關(guān)的安全問題,,用AI原生創(chuàng)新力守護AI安全,。
構(gòu)建可持續(xù)的AI安全框架
展望未來,我們需要構(gòu)建一個全面,、多層次的AI安全框架,以應對AI技術(shù)帶來的安全挑戰(zhàn),。這一框架應包括法律法規(guī),、行業(yè)標準、技術(shù)措施和社會倫理等多個方面,。
法律法規(guī)方面,,我們需要不斷更新和完善相關(guān)法律法規(guī),以適應AI技術(shù)的快速發(fā)展和新型安全威脅,。例如,,制定數(shù)據(jù)保護法規(guī),嚴格規(guī)范數(shù)據(jù)的收集,、存儲和使用,,保護個人隱私和企業(yè)機密。同時,,還需要明確AI系統(tǒng)的責任和義務,,確保其在處理數(shù)據(jù)時遵守法律法規(guī)。
行業(yè)標準方面,,我們需要制定統(tǒng)一的行業(yè)標準,,引導企業(yè)和研究機構(gòu)采取一致的安全措施。這有助于提高整個行業(yè)的安全水平,,減少安全風險,。例如,制定AI系統(tǒng)的安全標準和評估體系,,確保AI系統(tǒng)的安全性和可靠性,。
技術(shù)措施方面,我們需要不斷創(chuàng)新和改進技術(shù)手段,,提高AI系統(tǒng)的安全性和可靠性,。例如,開發(fā)新的加密技術(shù)和安全協(xié)議,,保護數(shù)據(jù)的機密性和完整性,;開發(fā)新的檢測和防御技術(shù),提高AI系統(tǒng)對抗對抗性攻擊的能力,。
社會倫理方面,,我們需要加強對AI技術(shù)的倫理教育,提高公眾對AI技術(shù)的認識和素養(yǎng),。這有助于形成良好的社會氛圍,,推動AI技術(shù)的健康發(fā)展,。例如,開展AI倫理教育和培訓,,提高公眾對AI技術(shù)的理解和接受度,;建立AI倫理審查機制,確保AI系統(tǒng)的應用符合社會倫理標準,。
總之,,面對AI技術(shù)的安全風險和挑戰(zhàn),我們需要從多個層面構(gòu)建一個全面,、可持續(xù)的AI安全框架,,以保障AI技術(shù)的安全、可靠和健康發(fā)展,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1105393.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。