來源:人民日報
蘇砥 人民日報評論
辦公軟件濫用隱私,?AI訓(xùn)練要守住底線 | 人民銳見
“我們將對您主動上傳的文檔材料,,在采取脫敏處理后作為AI訓(xùn)練的基礎(chǔ)材料使用”……近日,辦公軟件WPS在其隱私政策中的表述被質(zhì)疑濫用用戶隱私,,引發(fā)關(guān)注。隨后,,其官方向用戶致歉,,并承諾用戶文檔不會被用于人工智能訓(xùn)練目的。
類似現(xiàn)象不是孤例,,今年早些時候,,一款基于生成式人工智能的攝影軟件“妙鴨相機”,,也因存在濫用用戶信息的嫌疑而引發(fā)用戶批評。如今,,隨著以大語言模型為代表的生成式人工智能技術(shù)的快速發(fā)展,,相關(guān)應(yīng)用層出不窮。一邊是“嗷嗷待大量數(shù)據(jù)以哺”的人工智能,,另一邊是越發(fā)重視個人信息保護的用戶,,如何善用數(shù)據(jù),,考驗全社會數(shù)據(jù)治理的能力和成效,,事關(guān)萬千網(wǎng)民的切身利益。
必須將保護用戶隱私和信息安全置于更重要的位置,。不少人經(jīng)歷過:生活中說了句話,、搜索了個關(guān)鍵詞,、開了一會兒“位置”,手機里的各種APP就會精準(zhǔn)推送廣告,、“熟悉的人”,,自己仿佛瞬間成了透明人。大數(shù)據(jù)時代,,我們越發(fā)真切感受到,,日常生活的“智能”越來越突出,“安全”有時卻成為稀缺品,。
越是一切都可以數(shù)字化,、被收集、能分析,,越要劃出底線,,筑起信息安全的堤壩,給用戶選擇甚至說“不”的權(quán)利,。生成式人工智能也不例外,,其發(fā)展初衷就是為了造福民眾。倘若在一開始的數(shù)據(jù)收集和訓(xùn)練階段就濫用用戶隱私,,豈非與目的背道而馳,?今年7月,我國出臺《生成式人工智能服務(wù)管理暫行辦法》,,明確“不得侵害他人肖像權(quán),、名譽權(quán)、榮譽權(quán),、隱私權(quán)和個人信息權(quán)益”,,強調(diào)開展訓(xùn)練數(shù)據(jù)處理活動“涉及個人信息的,應(yīng)當(dāng)取得個人同意或者符合法律,、行政法規(guī)規(guī)定的其他情形”,。原則已經(jīng)明確,紅線已經(jīng)劃出,,需要相關(guān)從業(yè)者嚴(yán)格遵守,、自覺踐行。
當(dāng)然,,嚴(yán)格保護并不意味著“一刀切”地禁止,。有人把數(shù)據(jù)比作信息時代的“石油”,把算力比作最重要的“基礎(chǔ)設(shè)施”,,足以說明其重要性。特別是對于生成式人工智能來說,,海量的數(shù)據(jù)“投喂”,,才能培養(yǎng)出更聰明,、更先進的版本。特別是,,在網(wǎng)絡(luò)世界,,中文數(shù)據(jù)特別是高質(zhì)量中文數(shù)據(jù),與英文等其它語言的數(shù)據(jù)相比,,仍有差距,,這可能成為發(fā)展生成式人工智能的一個先天劣勢。也只有在依法,、科學(xué)的前提下,,充分挖掘各類中文數(shù)據(jù)資源的價值,補短板,、鍛長板,,才能確保我國在生成式人工智能等前沿領(lǐng)域,無論是研究還是應(yīng)用層面,,取得領(lǐng)先,。
發(fā)展和安全,從來不必然是矛盾的,、對立的,。當(dāng)前,全球不少科學(xué)家,、企業(yè)家都呼吁在生成式人工智能領(lǐng)域“慢下來”,,這不是為了停滯技術(shù)進步,而且希望與之相關(guān)的隱私保護,、科學(xué)倫理,、法律制度等能夠盡快“趕上來”。在我國,,更好統(tǒng)籌發(fā)展和安全,,一直是處理這類問題的一個基本遵循。無論是監(jiān)管者還是從業(yè)者,,更好把握發(fā)展與安全的辯證法,,平衡好各方面利益,才能推動生成式人工智能健康可持續(xù)發(fā)展,。相信在人類智慧的把控下,,我們一定能用好技術(shù)這把“雙刃劍”,趨利避害,,讓“甘蔗”實現(xiàn)“兩頭甜”,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1079753.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。