本報記者 曲忠芳 李正豪 北京報道
4月14日,據(jù)外媒援引美國內(nèi)華達州的一份文件報道,,特斯拉,、推特、SpaceX的公司CEO埃隆·馬斯克已于3月9日注冊了一家新的人工智能(AI)公司,,名稱為“X.AI”,,馬斯克是新公司唯一的董事。馬斯克家族辦公室主任,,同時也是馬斯克的神經(jīng)網(wǎng)絡(luò)公司Neuralink首席執(zhí)行官的Jared Birchall則擔(dān)任秘書之職,。在此之前,據(jù)美媒報道,,馬斯克在推特內(nèi)部啟動了一個AI項目,,為此已購買了約1萬個GPU(圖形處理器)芯片,而且開始招攬AI人才,。
隨后在4月18日,,馬斯克接受福克斯采訪時表示,,要開始做一個最大程度尋求真相的人工智能,可能會叫做“TruthGPT”,。4月20日,,就在微軟宣布將推特從其廣告平臺刪除之后,,馬斯克發(fā)布推文回應(yīng)稱,,“他們(指微軟及其投資的OpenAI)非法使用推特數(shù)據(jù)進行訓(xùn)練。訴訟時間到,?!?/p>
馬斯克近期的種種舉動,引發(fā)業(yè)界的廣泛猜測——馬斯克或?qū)⒂H自入局做AI,,以對抗OpenAI的對話機器人ChatGPT及其背后支撐的GPT大模型,。針對新公司X.AI的戰(zhàn)略定位和業(yè)務(wù)范圍,以及馬斯克推文中提及的“訴訟”是否會付諸實施,,《中國經(jīng)營報》記者通過電子郵件向特斯拉和馬斯克方面求證核實,,截至發(fā)稿前暫未獲得回復(fù)。
值得注意的是,,馬斯克擁有的幾家公司——特斯拉,、SpaceX、太陽城,、Neuralink,、推特,無一不使用甚至依賴AI技術(shù),;而另一方面,,從2014年至今,馬斯克也在持續(xù)不斷地發(fā)聲,,提醒高度警惕AI,、呼吁監(jiān)管以確保AI的安全可控,。盡管宣示與執(zhí)行往往并不一定是一致的,現(xiàn)在去評判馬斯克的發(fā)聲或動作,,顯然還為時尚早,,但是,人們從馬斯克看似“矛盾”的AI觀中,,或許可以一窺其“野心”,,以及探討當下大火的生成式AI究竟帶來了哪些方面的風(fēng)險與挑戰(zhàn)。
馬斯克的X“野心”,?
需要注意的是,,在注冊X.AI公司幾乎同一時期里,馬斯克還注冊了X Holdings Corp.和X Corp.兩家公司,,前者意為控股公司,,是作為X Corp.的母公司。據(jù)外媒4月14日的報道,,馬斯克于去年10月收購的推特公司已并入X Corp.實體公司中,。馬斯克在發(fā)給推特全體員工的郵件中宣布,推特員工將獲得X Corp.的股票,。
“X”這一名稱與馬斯克的淵源頗深,。馬斯克于1999年3月創(chuàng)立了他的第二家初創(chuàng)公司,命名為X.com,。X.com發(fā)展與競爭中經(jīng)歷了合并,,于2001年6月更名為PayPal,次年被eBay出價15億美元收購,。馬斯克在X.com發(fā)展中也被解除了CEO職務(wù),,直至離開。2017年,,馬斯克從eBay手中買回了X.com這一域名,。到2020年12月,馬斯克重申了對X這一名稱的支持,。2022年10月,,隨著推特收購案的推進,馬斯克在推特上表示,,“收購?fù)铺厥莿?chuàng)建X即萬能應(yīng)用的催化劑,。”彼時,,馬斯克并未明確X的目標,,只是考慮將推特變成一個“超級微信”。
謙詢智庫合伙人龔斌認為,,“馬斯克的思維武器是第一性原理,,即凡事回到本源,,回到基本的數(shù)學(xué)規(guī)律、物理學(xué)定律,、化學(xué)原理等去看本質(zhì),。從他做的事,能夠看到他的行事方式是‘如果一件事情在理論上是成立的,,理論上能做到最好的,,那么就應(yīng)該想辦法把它做出來’?!?/p>
美國作家阿什利·萬斯撰寫的《硅谷鋼鐵俠:埃隆·馬斯克的冒險人生》一書中也提到,,“長期以來,他一直想讓世界知道,,他并不是在順應(yīng)潮流,,也不是為了發(fā)財,他是在追求一個整體的計劃,?!瘪R斯克向作者表示,“我喜歡把那些對于未來真正重要和有價值的技術(shù),,以某些方式變成現(xiàn)實,。”
由此不難看出,,馬斯克親自創(chuàng)辦一家AI公司,,對抗他所“抨擊”的、處在“閉源”“逐利”“被微軟掌控”現(xiàn)狀的OpenAI,。全聯(lián)并購公會信用管理委員會專家安光勇認為,馬斯克下場做AI,,按照他的AI觀乃至世界觀,,可能會采取諸如研究和應(yīng)用AI技術(shù)解決人類面臨的重大問題、加強內(nèi)部對AI倫理的監(jiān)管機制,、與相關(guān)組織和機構(gòu)合作等措施,,來推動AI技術(shù)被人類利用掌控并助力人類社會發(fā)展。
“戒心”由來已久
今年4月中旬,,馬斯克在接受??怂共稍L時警告,人工智能可能導(dǎo)致“文明毀滅”,,支持“政府對AI進行監(jiān)管,,盡管受到監(jiān)管并不好玩”,一旦AI“可能處于控制地位,,再制定法規(guī)可能為時已晚”,。
就在3月29日,,非營利組織“未來生命研究所”發(fā)出一封聯(lián)合署名的公開信,呼吁“所有AI實驗室立即暫停對比GPT-4更強大的AI系統(tǒng)的訓(xùn)練至少6個月”,。馬斯克位列這封公開信署名榜單的第一位,。
安光勇指出,馬斯克對AI持續(xù)多年的警惕與戒心,,與其利用AI等新型技術(shù)擴張商業(yè)版圖并不矛盾,。他看到了新技術(shù)的巨大潛力和價值,同時又意識到AI技術(shù)的發(fā)展帶來的潛在威脅和風(fēng)險,。
事實上,,馬斯克對AI的“戒心”由來已久。本報記者綜合社交媒體,、公開演講,、媒體報道、產(chǎn)業(yè)及行業(yè)會議發(fā)言等公開渠道不完全統(tǒng)計,,從2014年截止到現(xiàn)在,,馬斯克公開發(fā)表的對AI保持高度警惕、呼吁確保安全的言論高達數(shù)十次,,持續(xù)地表達對AI的擔(dān)憂,。尤其是2018年在接受采訪時,馬斯克直言“人工智能比核武器更危險”,。記者注意到,,馬斯克持續(xù)多年對AI的“戒心”大致可以概括為兩個層面:一是擔(dān)憂人工智能的進化可能脫離人類的控制,從而對人類造成負面影響甚至潛在的危險,;二是呼吁加強對人工智能的監(jiān)管,,以確保其安全可控。
需要指出的是,,馬斯克在擔(dān)憂AI失控的同時,,也并不否認AI技術(shù)的優(yōu)勢與對商業(yè)、社會的驅(qū)動力量,。而實際上,,被馬斯克批評的OpenAI無論是在大模型訓(xùn)練中,還是產(chǎn)品服務(wù)中也表出現(xiàn)出了滿滿的“求生欲”,。OpenAI方面表示,,目前并沒有關(guān)于GPT-5的訓(xùn)練計劃。在發(fā)布GPT-4大模型時也表示“花了6個月時間使GPT-4更安全,、更一致”,。4月25日,OpenAI在ChatGPT可用市場推出了新控件,允許用戶關(guān)閉其聊天記錄,。所有禁用聊天歷史記錄中發(fā)生的任何對話都不會用于訓(xùn)練OpenAI的模型,,新對話保留30天。
與此同時,,包括意大利,、德國等歐洲國家、美國,、中國在內(nèi)的相關(guān)監(jiān)管機構(gòu)或部門也開始關(guān)注并探索對生成式AI的監(jiān)管路徑,。4月11日,中國國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,,即日起至5月10日期間面向社會公開征求意見,。
AI威脅論見仁見智
馬斯克關(guān)于AI可能失控、甚至威脅人類的言論究竟是未雨綢繆,,還是杞人憂天,?顯然,現(xiàn)階段這還是一個見仁見智的事情,。馬斯克在全球范圍內(nèi)擁有大批支持者,,同時也有反對與質(zhì)疑的聲音。
上海申倫律師事務(wù)所夏海龍認為,,在人類對自身“意識”尚未有充分科學(xué)認識的情況下,,顯然不可能憑空創(chuàng)造出一個意識,因此生成式AI本質(zhì)上依然只是對人類語言模式的機械模仿,,而不存在進化出類人意識的可能,。從當下來看,生成式AI 對社會,、法律的沖擊還只是“類似于車馬時代汽車造成的沖擊”,,監(jiān)管目前只能在內(nèi)容合規(guī)、網(wǎng)絡(luò)安全等幾個傳統(tǒng)維度提出要求,,后期更細致的監(jiān)管措施可能需要生成式AI 應(yīng)用的進一步深化,、普及。
毫無疑問的是,,生成式AI的熱潮正在給個人信息保護帶來一些挑戰(zhàn)和風(fēng)險。中國科學(xué)院信息工程研究所張逸飛發(fā)文《大語言模型中的個人信息保護問題探討》指出,,雖然大語言模型(LLM)有著巨大的潛力和應(yīng)用價值,,但也帶來了一些個人信息保護方面的挑戰(zhàn)和風(fēng)險,主要包括數(shù)據(jù)來源,、數(shù)據(jù)處理,、數(shù)據(jù)安全、偏見誘導(dǎo)四方面的問題。
文章分析認為,,在數(shù)據(jù)來源方面,,LLM通常使用來自互聯(lián)網(wǎng)的公開文本數(shù)據(jù)作為預(yù)訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)可能包含一些用戶的個人信息,,如姓名,、年齡、性別,、職業(yè),、興趣愛好、社交關(guān)系等,。這些信息可能被LLM無意中學(xué)習(xí)和記憶,,并在后續(xù)的應(yīng)用中泄露出來。而在數(shù)據(jù)處理方面,,LLM在預(yù)訓(xùn)練和微調(diào)過程中需要對數(shù)據(jù)進行收集,、存儲、分析和處理,,這些操作可能會侵犯用戶的個人信息權(quán)利,,如知情權(quán)、選擇權(quán),、刪除權(quán)等,。用戶可能沒有充分的意識和能力來保護自己的個人信息,也沒有足夠的透明度和監(jiān)督機制來確保數(shù)據(jù)處理方遵守相關(guān)的法律法規(guī)和倫理規(guī)范,。在安全方面,,LLM由于參數(shù)量巨大,需要借助分布式計算和云服務(wù)等技術(shù)來進行訓(xùn)練和部署,,這就增加了數(shù)據(jù)被竊取,、篡改、濫用或泄露的風(fēng)險,。LLM的模型參數(shù)本身也可能包含一些敏感信息,,如果被惡意攻擊者獲取,可能會導(dǎo)致用戶的個人信息被還原或推斷出來,。此外,,LLM在應(yīng)用場景中可能會對用戶的個人信息進行分析、預(yù)測或推薦,,這些操作可能會影響用戶的個人自由,、尊嚴和權(quán)益,帶來歧視,、偏見,、誘導(dǎo)等問題,,甚至被用于產(chǎn)生違反社會主義核心價值觀的有害信息,對社會造成危害,。用戶可能沒有足夠的知識和能力來判斷LLM的輸出結(jié)果的可靠性和合理性,,也沒有有效的途徑和機制來糾正或申訴LLM的錯誤或不公正的決策。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1024183.html
溫馨提示:投資有風(fēng)險,,入市須謹慎。本資訊不作為投資理財建議,。