財聯(lián)社7月20日訊(編輯 牛占林)美國科技巨頭Meta的全球事務總裁尼克·克萊格表示,目前的人工智能(AI)模型“相當愚蠢”,而且遠遠沒達到足以對人類構(gòu)成任何形式的“明顯威脅”,。
克萊格是英國前副首相,,于2018年加入臉書母公司Meta,后來被提拔為該公司全球事務總裁,,負責Meta與政府的互動,、產(chǎn)品的對外宣傳等所有政策事務。
在周三接受媒體采訪時,,克萊格聲稱,,關(guān)于人工智能潛在危險的炒作已經(jīng)超過了其技術(shù)的發(fā)展,。
在談到Meta發(fā)布的開源人工智能模型Llama 2時,克萊格表示,,我認為很多的警告與當前不存在的模型有關(guān),,即所謂的超級智能、超級強大的人工智能模型,,它能夠自我思考和自我復制,。
克萊格補充說,人工智能發(fā)展出自主性和代理權(quán)的愿景,,目前來看是很不現(xiàn)實的,。至少我們的開源模型遠遠達不到這一點,事實上,,在很多方面它們都相當愚蠢,。
Meta首席執(zhí)行官馬克·扎克伯格最近宣布,,名為Llama 2的Meta人工智能模型將免費提供給在微軟Azure云計算平臺上開發(fā)軟件的開發(fā)者使用。
Meta將把Llama 2作為開源軟件發(fā)布,;“開源”軟件通??晒┕姀V泛使用、修改和共享,。
Llama 2的發(fā)布料將加劇私人,、商用模型的競爭,此類模型包括由OpenAI開發(fā)的GPT-4系統(tǒng),。OpenAI是推出熱門聊天機器人ChatGPT的初創(chuàng)公司,。
對于安全性方面的擔憂,克萊格回應稱,,Meta有350名員工在數(shù)月內(nèi)對其模型進行壓力測試,,以檢查是否存在任何潛在問題,Llama 2比其他任何開源大型語言模型都更安全,。
但人工智能語言模型也確實存在一些問題,,如傳播虛假和錯誤信息,以及泄露機密數(shù)據(jù)等,,也引起了人們對某些行業(yè)就業(yè)可能受到影響的擔憂,。
前谷歌科學家杰弗里·辛頓此前指出,人工智能不僅會導致大量工作崗位消失,,而且會導致人們沒辦法知道到底什么才是真實的,。如果人工智能變得比人類聰明得多,就會對人類進行操控,。
計算機科學專家Wendy Hall認為,,Meta的人工智能開源模型問題非常嚴重,這有點像給人們提供制造核武器的模板,。
不過,,克萊格反駁稱,群體的智慧將使人工智能模型更安全,,這比讓它們留在大型科技公司的手中更可取,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1060102.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。