本報記者 李玉洋 上海報道
近日,,一封超1000位人士簽名的《暫停大型人工智能研究》公開信引發(fā)關(guān)注,,其中包括特斯拉CEO埃隆·馬斯克,、“深度學習三巨頭”之一的約書亞·本吉奧、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等學界,、業(yè)界人士,他們呼吁至少在6個月內(nèi)立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)。
值得注意的是,,在這份網(wǎng)絡(luò)簽名表的尾部出現(xiàn)了OpenAI聯(lián)合創(chuàng)始人山姆·阿爾特曼的名字,,最終美國媒體證實山姆·阿爾特曼并沒有計劃呼吁暫停人工智能的開發(fā),但他卻指出:“OpenAI不僅非常重視AI安全,,而且比其他公司更重視,。無論如何,AI安全問題在當下被業(yè)界廣泛關(guān)注已是不爭的事實,?!?/p>
“只有在我們確信它們的效果是積極的、風險是可控的情況下,,才可以開發(fā)強大的人工智能系統(tǒng),。”該公開信中提到,?!吨袊?jīng)營報》記者注意到,ChatGPT所屬公司OpenAI的CEO山姆·奧特曼近期在著名播客YouTuber Lex Fridman的訪談中也表示AI存在偏見,、造成人類失業(yè)等問題,。
記者還注意到,由于ChatGPT的走紅,人工智能生成作品是否受著作權(quán)保護問題引發(fā)熱議,,比如網(wǎng)易LOFTER今年推出的AI作畫功能因惹爭議而草草下線,。對此,上海大邦律師事務(wù)所高級合伙人,、知識產(chǎn)權(quán)律師游云庭對記者表示:“人工智能生成的作品有先天的版權(quán)瑕疵,,不應(yīng)當享有著作權(quán)并收取授權(quán)費用。用戶使用人工智能生成的作品如果被他人侵權(quán),,可以依據(jù)《反不正當競爭法》來維權(quán),。”
AI爬取行為涉嫌侵權(quán)
3月初,,網(wǎng)易LOFTER上線了“老福鴿畫畫機”功能,,用戶可以通過關(guān)鍵詞生成繪畫作品,卻引起很多創(chuàng)作者不滿,,他們質(zhì)疑平臺AI繪圖會將創(chuàng)作者的繪畫作品作為訓練素材,,沒有尊重創(chuàng)作者的知識產(chǎn)權(quán)以及無法保護創(chuàng)作者的各項權(quán)利。
對此,,網(wǎng)易LOFTER分別于3月6日和7日連發(fā)兩份聲明,,稱“老福鴿畫畫機”內(nèi)測版實際上是頭像生成器,初衷是為了方便沒有繪畫能力的用戶制作喜歡的頭像,,該功能訓練集來自于開源,,沒有使用LOFTER用戶的作品數(shù)據(jù),并明確注明不得用于商業(yè)用途,。而后網(wǎng)易LOFTER又稱,,引發(fā)爭議的相關(guān)功能已于3月8日下線,并承諾LOFTER從未將用戶的作品數(shù)據(jù)用于AI訓練,。此外,,LOFTER于3月10日上線創(chuàng)作者保護計劃,做出“禁止AI內(nèi)容作為原創(chuàng)作品發(fā)布,,加強對AI內(nèi)容識別和反饋處理,;已上線反AI盜用+反爬取系統(tǒng),嚴厲打擊任何侵權(quán)行為,;單獨設(shè)立反侵權(quán)投訴渠道,,侵權(quán)作品均可一鍵舉報,快速反饋生效”等措施來保護創(chuàng)作者的權(quán)益,。
3月16日,,網(wǎng)易LOFTER再發(fā)布致歉信,聲稱“近期LOFTER上線了新功能,,沒有考慮到創(chuàng)作者群體的感受,,引起了巨大的不滿,。此行為傷害了很多一直支持我們的創(chuàng)作者,我們深感抱歉,,在此向大家表達誠摯的歉意”,。
游云庭指出,在類ChatGPT人工智能軟件工具的開發(fā)過程中,,開發(fā)者必然要用大量數(shù)據(jù)和資源供其學習和訓練,但現(xiàn)在各大人工智能公司都對學習資源的來源諱莫如深,,除了商業(yè)秘密方面的考量之外,,“最主要的問題是,目前的主流人工智能軟件工具其訓練都依靠開發(fā)公司爬取網(wǎng)上的免費公開數(shù)據(jù)和資源,,然后對人工智能進行投喂和訓練,,這些數(shù)據(jù)和資源的取得并沒有經(jīng)過被爬取網(wǎng)站的同意,所以是有很大爭議的,,并且已經(jīng)有媒體就此進行了起訴”,。
據(jù)《華爾街日報》報道,AI 技術(shù)的發(fā)展已經(jīng)引發(fā)了新聞出版業(yè)的不滿,,他們認為自己的內(nèi)容被大型科技公司用于訓練AI模型而沒有得到合理的補償,。擁有《紐約郵報》《巴倫周刊》《華爾街日報》等媒體的美國新聞集團正準備向OpenAI、微軟和谷歌等公司提起訴訟,,要求賠償其內(nèi)容在ChatGPT,、Bard等AI工具中被用來使用的費用。
“(AI)這種爬取行為涉嫌侵權(quán),?!庇卧仆ケ硎荆廊⌒袨槭欠窈戏?,目前的主流做法是看Robots協(xié)議(指網(wǎng)站跟爬蟲間的協(xié)議),,只要被爬取數(shù)據(jù)的網(wǎng)站的Robots協(xié)議同意,搜索引擎爬取數(shù)據(jù)就是合法的,,“但人工智能公司爬取數(shù)據(jù)是否適用Robots協(xié)議爭議很大,,因為它們爬取目的和搜索引擎不同”。
“網(wǎng)站被訪問是有服務(wù)器成本,、技術(shù)維護成本和管理成本的,,網(wǎng)站經(jīng)營者同意搜索引擎的爬取,是因為這種爬取是共益行為,?!庇卧仆ブ赋觯斯ぶ悄芄九廊≈焕谒鼈冏约?,這讓網(wǎng)站運營者白白付出服務(wù)器成本,、技術(shù)維護成本和管理成本,,“這種行為就不應(yīng)該適用Robots協(xié)議,而應(yīng)適用《著作權(quán)法》”,。
游云庭進一步指出,,根據(jù)《著作權(quán)法》,讓人工智能學習網(wǎng)上內(nèi)容的過程是一個復(fù)制行為或臨時復(fù)制行為,,人工智能公司要先將網(wǎng)上的或者線下獲得的內(nèi)容爬取,,然后輸入到人工智能程序中,“無論這個內(nèi)容是文字,、圖片,、音頻、視頻還是程序,,復(fù)制行為都應(yīng)當獲得相應(yīng)權(quán)利人許可,,否則就涉嫌侵權(quán)”。
游云庭表示,,根據(jù)《著作權(quán)法》,,盡管用戶運用人工智能所創(chuàng)作的內(nèi)容版權(quán)歸受托方(即人工智能公司)所有,但ChatGPT的《用戶協(xié)議》4.2條規(guī)定:用戶在使用ChatGPT時產(chǎn)生的任何內(nèi)容,,均屬于用戶的知識產(chǎn)權(quán),,ChatGPT可以在不向用戶支付任何費用的情況下使用這些內(nèi)容。
“它們(指OpenAI)要是規(guī)定生產(chǎn)的作品知識產(chǎn)權(quán)歸ChatGPT所有,,一方面會得罪用戶,;另一方面,權(quán)利和責任是一體的,,知識產(chǎn)權(quán)歸誰,,誰就要對內(nèi)容負責,如果產(chǎn)生了侵權(quán)或爭議內(nèi)容,,比如版權(quán)侵權(quán),、名譽侵權(quán)或政治不正確言論,OpenAI作為創(chuàng)業(yè)公司的小身板還真不一定扛得住,?!庇卧仆ケ硎尽?/p>
用技術(shù)打敗技術(shù)
倘若人工智能企業(yè)要大規(guī)模為所生成的內(nèi)容收取版權(quán)授權(quán)費用,,是否可行以及合理呢,?游云庭指出:“自身的底氣是不足的,因為其訓練過程涉嫌大規(guī)模侵權(quán),,有原罪,,版權(quán)收費邏輯上不能自洽?!?/p>
事實上,,AI版權(quán)問題并非始于ChatGPT,。記者注意到,在圖像和代碼方面,,已有多起訴訟案件涉及到AI模型訓練使用受版權(quán)保護的數(shù)據(jù),,比如Midjourney、Stability AI,、微軟以及GitHub都曾卷入相關(guān)糾紛,。
更重要的是,以ChatGPT為代表的AI語言模型以及Midjourney為代表的AI繪畫產(chǎn)品,,它們的高效率讓不少打工人擔憂:AI會不會讓我失業(yè),?
投資銀行高盛一份報告稱,AI可以取代3億個全職工作崗位,,目前歐美約有三分之二的工作崗位都在某種程度上受到AI自動化趨勢的影響,而多達四分之一的當前崗位有可能最終被完全取代,。
報告還指出,,AI的影響將因不同工種而異,其中46%的行政工作和44%的法律專業(yè)工作可以實現(xiàn)自動化,,但只有6%的建筑工作和4%的維護類工作可以實現(xiàn)自動化,。
除了法律問題、造成失業(yè)外,,前述公開信還指出AI可能對社會和人類構(gòu)成深刻的風險,。“先進的AI可能代表著地球生命歷史的深刻變革,,應(yīng)該通過謹慎的資源規(guī)劃和管理,。但是,即使最近幾個月AI實驗室陷入了一場失控的競賽,,試圖開發(fā)和部署越來越強大的數(shù)字智能,,甚至連他們的創(chuàng)造者都無法理解、預(yù)測或可靠地控制的智能,,但我們并沒有看到此類規(guī)劃和管理的出現(xiàn),。”公開信中指出,。
毋庸置疑,,“暫停訓練比GPT-4更強大的AI系統(tǒng)”首先會影響到OpenAI接下來的技術(shù)進展。而這對部分署名者而言,,并不是一件壞事,,比如馬斯克正在計劃組建自己的AI研究實驗室,開發(fā)ChatGPT的替代品,。
不過,,馬斯克也曾多次呼吁對AI的監(jiān)管,。“沒有對人工智能的監(jiān)管,,這是一個主要問題,。十多年來,我一直在呼吁人工智能安全監(jiān)管,?!瘪R斯克在去年12月的推文中表示。在GPT-4發(fā)布后再次表達擔憂,,馬斯克寫道:“我們?nèi)祟愡€有什么可做的,?”
在這封聯(lián)名公開信發(fā)表之前,一位名叫Michal Kosinski的斯坦福大學計算心理學家在社交媒體上曝光了GPT-4的一項“逃跑計劃”,,并稱AI能引誘人類提供開發(fā)文檔,,30分鐘就擬定出一個完整計劃,甚至還想控制人類電腦,。Kosinski疾呼:“我擔心人類無法持久地遏制住AI,。AI很聰明,會編碼,,能接觸到數(shù)百萬個人和電腦,。”
面對AI威脅論,,山姆·奧特曼承認,,一些擁有AI輸入控制權(quán)的人可能無視人們對人工智能設(shè)置的一些安全限制,“我認為社會只有有限的時間來弄清楚如何對此做出反應(yīng),,如何對其進行監(jiān)管,,如何處理它?!蓖瑫r,,他也呼吁監(jiān)管機構(gòu)和社會需要進一步參與這項技術(shù),以防止其對人類造成潛在的負面影響,。
“我特別擔心這些模型可能會被用于大規(guī)模的虛假信息,。” 山姆·奧特曼說,,“現(xiàn)在他們在編寫計算機代碼方面做得越來越好,,可以用于網(wǎng)絡(luò)攻擊?!?/p>
面對一種新技術(shù)造成的問題,,最好的辦法是另一種技術(shù)去解決,用技術(shù)打敗技術(shù),。針對AI用于網(wǎng)絡(luò)攻擊的擔憂,,微軟就推出一款新的AI聊天機器人Security Copilot,,它能描述網(wǎng)絡(luò)活動安全漏洞的暴露情況,并指出利用漏洞的賬戶,,以幫助網(wǎng)絡(luò)安全專業(yè)人士了解關(guān)鍵問題并找到解決問題的方法,。
《人類簡史》《未來簡史》的作者尤瓦爾·赫拉利(Yuval Noah Harari)近日在《紐約時報》發(fā)表文章稱,ChatGPT 可能會被用來制造虛假信息,、操縱人們的情感和行為甚至取代人類的創(chuàng)造力和智慧,。因此,他呼吁人類采取措施,,保護自己免受人工智能的侵害,,同時利用它的優(yōu)勢;建議人類升級自己的教育,、政治和倫理制度,,以適應(yīng)人工智能的世界,并學會掌控人工智能,,而不是被它掌控,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1010100.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。