財聯(lián)社5月3日訊(編輯 馬蘭)據一份內部備忘錄顯示,,三星本周推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能,。
據三星稱,4月時,,該公司的一名工程師將內部源代碼上傳到ChatGPT后,,意外泄漏了內部源代碼。這讓三星擔憂其數據將通過人工智能平臺最終落入其他用戶手中,。
目前,三星員工被禁止在公司設備上使用人工智能工具,,包括電腦,、平板電腦、手機等,。但員工仍可以在個人設備上使用人工智能工具,,不過僅限于與工作無關的事情。
備忘錄中還強調,,要求員工認真遵守安全準則,,若違規(guī)并導致公司信息或數據泄漏的話,員工將得到紀律處分,,情節(jié)嚴重者將被解雇,。
三星補充稱正在創(chuàng)造一個安全環(huán)境,以讓生成式人工智能可以在沒有風險的情況下,,幫助員工提高生產力,。但在此之前,人工智能將被限制使用,。
與此同時,,三星正在研發(fā)自己的人工智能工具,供員工完成軟件開發(fā)和翻譯等工作,。
保持距離
三星并不是第一個禁止員工使用人工智能工具的公司。摩根大通,、美國銀行和花旗等大型銀行早已對人工智能下了禁令,,是首批限制員工訪問ChatGPT的公司。
這些銀行同樣擔憂第三方軟件訪問敏感信息帶來的風險,并害怕人工智能可能將銀行的財務信息泄漏出去,,導致更嚴格的監(jiān)管行動,。
此外,1月時,,科技巨頭亞馬遜也同樣出于數據保護的考量,,警告員工不要在工作場合中使用ChatGPT。
OpenAI在4月時稱將出臺新措施,,解決數據泄露問題,,比如允許用戶禁用聊天記錄。OpenAI稱,,在禁用聊天記錄后,,ChatGPT會將新對話保留30天,公司只會在需要監(jiān)控濫用情況時才會對對話進行審查,,然后永久性刪除,。
谷歌則表示將通過自動化工具幫助刪除用戶的個人身份信息,來改進Bard的隱私安全,。谷歌還保證,,用戶與Bard的對話將由專家進行審閱,并與用戶的谷歌賬戶分開保存3年,。
免責聲明:本文來自網絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1025154.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。