編者按:大型語言模型全速發(fā)展,,以至于我們沒有充足的時間來理解這些新的產(chǎn)品。AI 需要被監(jiān)管,。在它造成更大的危害之前,我們或許該放慢開發(fā)的腳步,,給人類留下思考的時間和后悔的機會,。本文來自編譯,,希望對您有所啟發(fā),。
AI 接管世界。圖片來源:DALL-E
四個月能帶來多大的變化??!
如果你在去年 11 月問我認為人工智能系統(tǒng)進展如何,我可能會聳聳肩,。當然,,那時 OpenAI 已經(jīng)發(fā)布了 DALL-E,我也被它所呈現(xiàn)出的創(chuàng)造性迷住了,。不過,,總體而言,在目睹了大型平臺多年來對人工智能的大肆炒作之后,其實市場上似乎很少有產(chǎn)品能達到愿景中所描繪的樣子,。
然后,,OpenAI 發(fā)布了 ChatGPT,這款聊天機器人以其生成的可能性吸引了全世界,。微軟基于 GPT 的必應(yīng)瀏覽器,、Anthropic 公司的 Claude 和谷歌公司的 Bard 緊隨其后。由人工智能驅(qū)動的工具正在迅速應(yīng)用到微軟的其他產(chǎn)品中,,而谷歌的類似產(chǎn)品也將越來越多,。
與此同時,隨著我們逐漸接近一個無處不在的合成媒體的世界,,一些危險的跡象也正在出現(xiàn)。前不久,,一張顯示教皇弗朗西斯一世(Pope Francis)身穿精致白色羽絨服的照片在網(wǎng)上瘋傳,,而我就是那些“被騙相信這是真的”的人之一。開源情報網(wǎng)站 Bellingcat 的創(chuàng)始人在使用 Midjourney 制作和傳播唐納德·特朗普被捕的一些逼真圖片后,被 Midjourney 禁止登錄了,。(此后,,該公司取消了免費試用,以減少虛假圖片的傳播,。)
合成文本正在迅速打入“學生,、文案工作者和其他知識工作者”的工作流程;BuzzFeed 成為了最新一家開始嘗試使用人工智能撰寫文案的公司,。
與此同時,,科技平臺正在削減其人工智能道德團隊的成員。Meta 創(chuàng)建的一個大型語言模型被泄露并發(fā)布到 4chan 上,,很快就有人想出了如何在筆記本電腦上運行它,。
在其他地方,OpenAI 發(fā)布了 GPT-4 的插件,,允許語言模型訪問 API,,并更直接地與互聯(lián)網(wǎng)連接,這引發(fā)了人們對其帶來更多不可預(yù)測的新傷害的擔憂,。(我直接向 OpenAI 詢問了這個問題,,但該公司沒有給我答復。)
正是在這種混亂的背景下,,一群杰出的技術(shù)專家現(xiàn)在要求這些工具的制造商放慢速度,。以下是《紐約時報》的凱德·梅茨(Cade Metz)和格雷戈里·施密特(Gregory Schmidt)的報道:
包括埃隆·馬斯克(Elon Musk)在內(nèi)的 1000 多名技術(shù)領(lǐng)導者和研究人員,敦促人工智能實驗室暫停最先進系統(tǒng)的開發(fā),,并在一封公開信中警告說,,人工智能工具“對社會和人類構(gòu)成深刻的風險”。
這封信是由非營利組織未來生命研究所(Future of Life Institute)于周三發(fā)布的,,信中稱,,人工智能開發(fā)人員“陷入了一場失控的競賽,他們正在開發(fā)和部署更強大的數(shù)字大腦,,沒有人(甚至包括它們的創(chuàng)造者)能夠理解,、預(yù)測或可靠地控制這些大腦?!?/p>
在這封信上簽了名的還有蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak),;企業(yè)家、2020年總統(tǒng)候選人楊安澤(Andrew Yang),;以及設(shè)置末日時鐘(Doomsday Clock)的《原子科學家公報》(Bulletin of the Atomic Scientists)的主席雷切爾·布朗森(Rachel Bronson),。
至少,這封信在我看來是人工智能生存恐懼向主流意識邁進的一個里程碑,。多年來,,批評人士和學者一直在警告這些技術(shù)帶來的危險,。但就在去年秋天,玩 DALL-E 或 Midjourney 的人還很少擔心“開發(fā)和部署更多數(shù)字大腦的失控競賽”,。然而,,今天技術(shù)已經(jīng)發(fā)展到了這個需要擔心的地步。
對于這些技術(shù)專家的信,,有一些值得批評的地方,。華盛頓大學(University of Washington)語言學教授、人工智能批評人士艾米麗·本德(Emily M. Bender)稱其為“一團糟”,,她在一定程度上認為,,這樣的“末日論”最終仍會讓人工智能公司受益,因為它們看起來比實際情況強大得多,。
對于一個名義上擔心人工智能的組織來說,,令人尷尬的是,最初作為聯(lián)名者出現(xiàn)的一些人最終沒有在信上簽字,?!陡2妓埂分赋觯M織這封信活動的機構(gòu)主要是由馬斯克資助的,,他自己也有人工智能的野心(后來馬斯克果然也加入了 AI 大模型競賽),。
也有人認為,速度不應(yīng)該是我們的主要關(guān)注點,。上個月,,媒體人以斯拉·克萊因(Ezra Klein)認為,我們真正的關(guān)注點應(yīng)該放在這些系統(tǒng)的業(yè)務(wù)模型上,。令人擔憂的是,,廣告支持的人工智能系統(tǒng)被證明在操縱我們的行為方面,比我們目前想象的更強大,??巳R因?qū)懙溃骸霸谧龀鰶Q定之前,社會一定要弄清楚可以讓人工智能做什么,,以及不應(yīng)該讓人工智能嘗試什么,。”
這些都是很好的,、必要的批評,。然而,無論我們在上述這封公開信中發(fā)現(xiàn)了什么缺陷(我對馬斯克最近說的所有話都打了很大的折扣),,最終我還是被他們的集體論點說服了,。人工智能的變化速度似乎很快就會超過我們的集體處理能力。而簽署人所要求的改變(短暫暫停開發(fā)比已經(jīng)發(fā)布的語言模型更大的語言模型),,感覺像是宏大計劃中的一個小要求,。
科技報道往往聚焦于創(chuàng)新以及由此帶來的直接顛覆,,而通常不太擅長思考新技術(shù)可能如何導致社會層面的變化。然而,,人工智能對就業(yè)市場、信息環(huán)境,、網(wǎng)絡(luò)安全和地緣政治(僅舉四例)可能會產(chǎn)生巨大的影響,,甚至超出我們的想象。
研究信息環(huán)境的阿維夫·奧瓦迪亞(Aviv Ovadya)在 GPT-4 推出之前曾在 OpenAI 的紅隊(red team)工作,。紅隊本質(zhì)上是一種角色扮演練習,,參與者扮演系統(tǒng)的對手,以確定系統(tǒng)的弱點,。GPT-4 紅隊發(fā)現(xiàn),,如果不加檢查,語言模型會做各種我們不希望它做的事情,,比如雇傭一個不知情的 TaskRabbit 來解決驗證碼問題,。有了紅隊,OpenAI 就能夠在發(fā)布模型之前檢查并去除這些弱點,。
然而,,在《連線》雜志的一篇新文章中,奧瓦迪亞認為,,僅靠紅隊是不夠的,。他寫道,僅僅知道模型輸出的內(nèi)容是不夠的,,我們還需要知道該模型的發(fā)布可能對整個社會產(chǎn)生什么影響,。它將如何影響學校、新聞業(yè)或軍事行動,?奧瓦迪亞建議在模型發(fā)布之前引入這些領(lǐng)域的專家,,以幫助加強公共產(chǎn)品和機構(gòu)的應(yīng)對能力,并看看是否可以修改工具本身以防止濫用,。
奧瓦迪亞將這一過程稱為“violet teaming”(組建紫隊):
你可以把這想象成是一種柔道,。通用人工智能系統(tǒng)是一種正在向世界釋放的巨大的新型力量,而這種力量可能會損害我們的公共產(chǎn)品,。就像柔道可以“重定向”攻擊者的力量,,像“乾坤大挪移”那樣將其化解一樣,violet teaming 旨在“重定向”人工智能系統(tǒng)釋放的力量,,以保護這些公共產(chǎn)品,。
這在實踐中可能涉及一種所謂的“復原力孵化器”:將機構(gòu)和公共產(chǎn)品中的專家與能夠使用人工智能模型快速開發(fā)新產(chǎn)品的人員和組織配對,以幫助減輕這些風險,。
如果 OpenAI 和谷歌這樣的公司(無論是自愿的還是被動的)采用 violet teaming,,那么我們就能更好地為更強大的模型對世界帶來的影響做好準備,。
不過,充其量,,violet teaming 只是我們所需監(jiān)管的一部分,。我們還有很多基本問題要解決。像 GPT-4 這樣大的模型應(yīng)該被允許在筆記本電腦上運行嗎,?我們是否應(yīng)該限制這些模型訪問更廣泛的互聯(lián)網(wǎng)的程度,,就像 OpenAI 的插件現(xiàn)在所做的那樣?現(xiàn)有的政府機構(gòu)會監(jiān)管這些技術(shù)嗎,,還是我們需要創(chuàng)建一個新的機構(gòu),?如果是這樣,那么我們?nèi)绾慰焖僮龅竭@一點,?
我們需要這些問題的答案,,而政府需要時間才能找到答案。如果技術(shù)的發(fā)展速度持續(xù)超過世界各地政府的理解能力,,那么我們可能會后悔讓 AI 的發(fā)展加速,。
不管怎樣,在接下來的幾個月里,,我們將持續(xù)觀察 GPT-4 及其競爭對手在現(xiàn)實世界中的影響,,并幫助我們了解應(yīng)該如何采取行動。但是,,我認為,,在此期間不應(yīng)該有更大的模型發(fā)布——如果達成的話,還能給那些認為人工智能有害的人帶來些許安慰,。
我得到的一個教訓是,,互聯(lián)網(wǎng)的快速發(fā)展往往對我們不利。謊言傳播得比任何消息都快,,仇恨言論引發(fā)暴力的速度比平息情緒的速度更快,。我不知道人工智能最終是否會像一些危言聳聽的人現(xiàn)在預(yù)測的那樣造成嚴重破壞,但我相信,,如果這個行業(yè)繼續(xù)全速發(fā)展,,那么這些危害就更有可能發(fā)生。
放慢大型語言模型的發(fā)布速度并不能完全解決未來的問題,,但這可以給我們留出應(yīng)對的時間,,讓我們有機會找到答案。
譯者:Jane
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1063631.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。