A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

關(guān)于生成式 AI 的六個(gè)懸而未決的問題及預(yù)測(cè) – AI新智界

文章來源:麻省理工科技評(píng)論

作者:Will Douglas Heaven

生成式人工智能在 2023 年席卷全球。它的未來以及我們的未來將取決于我們下一步的行動(dòng),。

關(guān)于生成式 AI 的六個(gè)懸而未決的問題及預(yù)測(cè) – AI新智界

圖片來源:由無界 AI生成

從很多方面來看,目前圍繞生成式人工智能的熱議都讓人想起互聯(lián)網(wǎng)的早期階段:人們感到興奮和期待,,而且還有一種正在不斷創(chuàng)造的感覺,。

可以這么說,我們正處于 2000 年左右的互聯(lián)網(wǎng)繁榮時(shí)期,。很多公司會(huì)倒閉,。我們可能需要幾年時(shí)間才能看到這個(gè)時(shí)代的 Facebook(現(xiàn)在是 Meta)、Twitter(現(xiàn)在是 X)或 TikTok 出現(xiàn)。技術(shù)咨詢公司 Booz Allen Hamilton 生成式人工智能主管 Alison Smith 說:“人們不愿意想象 10 年后的未來,,因?yàn)檎l也不想顯得愚蠢,。”“但我認(rèn)為,,它將會(huì)大大超出我們的預(yù)期,。”

互聯(lián)網(wǎng)改變了一切 — 我們?nèi)绾喂ぷ骱蛫蕵?、如何與朋友和家人共度時(shí)光,、如何學(xué)習(xí)、如何消費(fèi),、如何戀愛,,等等。但它也給我們帶來了網(wǎng)絡(luò)欺凌,、報(bào)復(fù)性色情和巨魔工廠,。它助長(zhǎng)了種族滅絕,加劇了心理健康危機(jī),,并使監(jiān)控資本主義 — 其令人上癮的算法和掠奪性廣告 — 成為我們這個(gè)時(shí)代的主導(dǎo)市場(chǎng)力量,。只有當(dāng)人們開始大量使用人工智能,社交媒體等殺手級(jí)應(yīng)用出現(xiàn)時(shí),,這些弊端才會(huì)顯現(xiàn)出來,。

生成式人工智能很可能也是如此。有了基礎(chǔ)架構(gòu) — 來自 OpenAI,、谷歌,、Meta 和其他少數(shù)幾家公司的基礎(chǔ)生成模型 — 除了構(gòu)建者之外,其他人也會(huì)開始以其制造者做夢(mèng)也想不到的方式使用和濫用它,。Smith 說:“如果沒有個(gè)人用戶的真正使用,,我們就無法充分了解它的潛力和風(fēng)險(xiǎn)?!?/p>

生成式人工智能是在互聯(lián)網(wǎng)上訓(xùn)練出來的,,因此繼承了互聯(lián)網(wǎng)上許多尚未解決的問題,包括與偏見,、錯(cuò)誤信息,、侵犯版權(quán)、踐踏人權(quán)和全面經(jīng)濟(jì)動(dòng)蕩有關(guān)的問題,。所以,,我們決不能盲目行動(dòng)。

在我們觀察生成式人工智能革命的發(fā)展過程中,,有六個(gè)懸而未決的問題值得注意,。這一次,,我們有機(jī)會(huì)做得更好。

1. 我們能減輕偏見問題嗎,?

偏見已成為人工智能相關(guān)危害的代名詞?,F(xiàn)實(shí)世界的數(shù)據(jù),尤其是從互聯(lián)網(wǎng)上搜索到的文本和圖片,,充滿了偏見,,從性別刻板印象到種族歧視,不一而足,。在這些數(shù)據(jù)上訓(xùn)練出來的模型會(huì)對(duì)這些偏見進(jìn)行編碼,,然后在使用它們的地方強(qiáng)化這些偏見。

聊天機(jī)器人和圖像生成器傾向于將工程師描繪成白人和男性,,將護(hù)士描繪成白人和女性,。黑人有可能被警察部門的面部識(shí)別程序誤認(rèn),從而導(dǎo)致錯(cuò)誤逮捕,。招聘算法也更傾向于男性而不是女性,。

如果沒有新的數(shù)據(jù)集或新的模型訓(xùn)練方法(這兩項(xiàng)工作都需要數(shù)年時(shí)間),偏見問題的根源就會(huì)一直存在,。但這并不妨礙它成為一個(gè)熱門的研究課題,。OpenAI 一直致力于利用人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)來減少大型語言模型的偏差。這將引導(dǎo)模型的輸出向人類測(cè)試者認(rèn)為他們更喜歡的文本類型靠攏,。

其他技術(shù)包括使用合成數(shù)據(jù)集?,。例如,Runway 在人工智能生成的不同種族,、性別,、職業(yè)和年齡的人的圖像等合成數(shù)據(jù)上訓(xùn)練了一個(gè)版本的 Stable Diffusion。該公司報(bào)告說,,在該數(shù)據(jù)集上訓(xùn)練的模型生成了更多膚色較深的人的圖像和更多女性的圖像,。如果需要一張商務(wù)人士的圖像,那么輸出的圖像也會(huì)出現(xiàn)戴頭巾的女性,;醫(yī)生的圖像也會(huì)出現(xiàn)不同膚色和性別的人,,等等。

然而,,一些批評(píng)者認(rèn)為,,這些解決方案只是在破損的基礎(chǔ)模型上貼創(chuàng)可貼,掩蓋而非解決問題,。但 Smith 在 Booz Allen Hamilton 的同事,、該公司負(fù)責(zé)人工智能的主管 Geoff Schaefer 認(rèn)為,從長(zhǎng)遠(yuǎn)來看,,這種算法偏見可以暴露社會(huì)偏見,。

舉例來說,他指出,,即使從數(shù)據(jù)集中刪除了明確的種族信息,,種族偏見仍然會(huì)影響數(shù)據(jù)驅(qū)動(dòng)的決策,因?yàn)榉N族可以從人們的地址中推斷出來,,從而揭示出種族隔離和住房歧視的模式,。他說:“我們把大量數(shù)據(jù)集中在一起,這種相關(guān)性就變得非常明顯了,?!?/p>

Schaefer 認(rèn)為,這一代人工智能也會(huì)發(fā)生類似的事情:“全社會(huì)的這些偏見都會(huì)顯現(xiàn)出來,?!八f,這將導(dǎo)致更有針對(duì)性的政策制定,。

然而,,很多人會(huì)對(duì)這種樂觀態(tài)度表示反對(duì)。問題暴露在公眾面前并不能保證它一定會(huì)得到解決,。政策制定者仍在努力解決多年前就暴露出來的社會(huì)偏見,,包括住房、招聘,、貸款,、治安等方面。與此同時(shí),,個(gè)人也要承擔(dān)后果,。

預(yù)測(cè):偏見仍將是大多數(shù)人工智能生成模型的固有特征。但變通方法和不斷提高的意識(shí)可以幫助決策者解決最明顯的例子,。

2. AI 將如何改變應(yīng)用版權(quán)的方式,?

藝術(shù)家和作家(以及程序員)對(duì)科技公司未經(jīng)同意就從他們的作品中獲利感到憤怒?,因此對(duì) OpenAI,、微軟和其他公司提起了集體訴訟,,聲稱它們侵犯了版權(quán)。Getty 正在起訴 Stable Diffusion 背后的公司 Stability AI,。

這些案件都是大事,。Sarah Silverman 和 George R.R. Martin 等知名人士引起了媒體的關(guān)注。至少在美國(guó),,這些案件將改寫有關(guān)合理使用和不合理使用他人作品的規(guī)則,。

然而,這一切還不會(huì)立馬有結(jié)果,。代表 280 多家人工智能公司的 Gunderson Dettmer 律師事務(wù)所專門從事知識(shí)產(chǎn)權(quán)許可的合伙人 Katie Gardner 說,,法院做出最終裁決還需要好幾年的時(shí)間,。她說:“到那時(shí),這項(xiàng)技術(shù)將在經(jīng)濟(jì)中根深蒂固,,無法挽回,。”

與此同時(shí),,科技行業(yè)正以驚人的速度在這些涉嫌侵權(quán)行為的基礎(chǔ)上繼續(xù)發(fā)展,。Gardner 說:“我不認(rèn)為公司會(huì)觀望?!薄翱赡軙?huì)有一些法律風(fēng)險(xiǎn),,但如果跟不上,還有很多其他風(fēng)險(xiǎn),?!?/p>

一些公司已經(jīng)采取措施限制侵權(quán)的可能性。OpenAI 和 Meta 聲稱,,它們已經(jīng)為創(chuàng)作者提供了從未來數(shù)據(jù)集中刪除作品的方法?,F(xiàn)在,OpenAI 也禁止 DALL-E 的用戶要求獲得在世藝術(shù)家風(fēng)格的圖像,。但是,,Gardner 說:“這些都是為了支持他們?cè)谠V訟中的論點(diǎn)而采取的行動(dòng)”。

谷歌,、微軟和 OpenAI 現(xiàn)在都提出要保護(hù)其模型的用戶免受潛在的法律訴訟,。微軟為其生成式編碼助手 GitHub Copilot 制定的賠償政策,原則上將在法院解決此事時(shí)保護(hù)那些使用該軟件的用戶,。微軟首席執(zhí)行官 Satya Nadella? 表示:“我們將承擔(dān)這一責(zé)任,,讓我們產(chǎn)品的用戶不必為此擔(dān)心?!?/p>

與此同時(shí),,新的授權(quán)協(xié)議也層出不窮。Shutterstock 已與 OpenAI 簽署了一份為期六年的協(xié)議,,以使用其圖像,。Adobe 聲稱其自己的圖像制作模型 Firefly 只接受了許可圖像、Adobe Stock 數(shù)據(jù)集中的圖像或不再受版權(quán)保護(hù)的圖像的訓(xùn)練,。不過,,Adobe Stock 的一些貢獻(xiàn)者表示,他們沒有被征求過意見,,而且對(duì)此并不滿意,。

怨恨情緒十分強(qiáng)烈。現(xiàn)在,,藝術(shù)家們正在用自己的技術(shù)進(jìn)行反擊,。一款名為“Nightshade”的工具可以讓用戶以人類無法察覺的方式修改圖片,,但對(duì)機(jī)器學(xué)習(xí)模型來說卻是毀滅性的,它會(huì)讓模型在訓(xùn)練過程中對(duì)圖片進(jìn)行錯(cuò)誤分類,。網(wǎng)絡(luò)媒體的共享和再利用規(guī)范有望發(fā)生重大調(diào)整,。

預(yù)測(cè):高調(diào)的訴訟將繼續(xù)吸引人們的關(guān)注,但這不可能阻止公司建立生成模型,。圍繞道德數(shù)據(jù)集的新市場(chǎng)將會(huì)興起,公司與創(chuàng)作者之間的貓鼠游戲?qū)?huì)繼續(xù)上演,。

3. AI 將如何改變工作,?

我們?cè)缇吐犝f人工智能正在取代我們的工作。這次的一個(gè)不同之處在于,,白領(lǐng) — 數(shù)據(jù)分析師,、醫(yī)生、律師和記者 — 看起來也面臨風(fēng)險(xiǎn),。聊天機(jī)器人可以應(yīng)對(duì)高中考試,、專業(yè)醫(yī)療執(zhí)照考試和律師資格考試。它們還能總結(jié)會(huì)議內(nèi)容,,甚至撰寫基本的新聞報(bào)道,。那么,留給我們的工作還有什么,?事實(shí)遠(yuǎn)非如此簡(jiǎn)單,。

許多研究人員否認(rèn)大型語言模型的表現(xiàn)是真正智能的證據(jù)。但即便如此,,對(duì)于大多數(shù)專業(yè)角色來說,,這些模型所能完成的任務(wù)還遠(yuǎn)遠(yuǎn)不止這些。

去年夏天,,賓夕法尼亞大學(xué)沃頓商學(xué)院研究創(chuàng)新的 Ethan Mollick 幫助波士頓咨詢集團(tuán)進(jìn)行了一項(xiàng)實(shí)驗(yàn),,研究 ChatGPT 對(duì)顧問的影響。該團(tuán)隊(duì)給數(shù)百名顧問布置了 18 項(xiàng)與一家虛構(gòu)的制鞋公司有關(guān)的任務(wù),,如“針對(duì)服務(wù)不足的市場(chǎng)或運(yùn)動(dòng)提出至少 10 個(gè)新鞋創(chuàng)意”以及“根據(jù)用戶劃分制鞋業(yè)市場(chǎng)”,。小組中有些人使用了 ChatGPT,也有人沒用,。

實(shí)驗(yàn)的結(jié)果令人震驚:“使用 ChatGPT-4 的顧問在各方面的表現(xiàn)都遠(yuǎn)遠(yuǎn)優(yōu)于未使用 ChatGPT-4 的顧問,。在每個(gè)維度上都是如此?!盡ollick 在一篇關(guān)于這項(xiàng)研究的博文?中寫道,。

風(fēng)險(xiǎn)投資公司 Air Street Capital 的創(chuàng)始人兼《人工智能現(xiàn)狀報(bào)告》(State of AI Report?)團(tuán)隊(duì)負(fù)責(zé)人 Nathan Benaich 說,許多企業(yè)已經(jīng)在使用大型語言模型來查找和獲取信息,。對(duì)此他表示歡迎:“希望分析師能夠成為一種人工智能模型,,”他說,。“這些東西基本上都是令人頭疼的,?!?/p>

他的觀點(diǎn)是,將繁重的工作交給機(jī)器,,可以讓人們專注于工作中更有意義的部分,。這種技術(shù)似乎還能提高員工的技能:早期的研究,比如 Mollick 對(duì)顧問和其他編碼員的研究表明,,經(jīng)驗(yàn)較少的人在使用人工智能后會(huì)得到更大的提升,。(不過也有一些注意事項(xiàng)。Mollick 發(fā)現(xiàn),,過于依賴 GPT-4 的人變得粗心大意,,當(dāng)模型出錯(cuò)時(shí),他們不太可能發(fā)現(xiàn)錯(cuò)誤),。

生成式 AI 不僅能改變上述工作,。圖像和視頻制作模型可以在沒有人類插畫師、攝影師或演員的情況下,,制作出無窮無盡的圖片和電影,。2023 年美國(guó)編劇和演員的罷工表明,這將是未來幾年的一個(gè)熱點(diǎn),。

即便如此,,許多研究人員認(rèn)為這項(xiàng)技術(shù)總體上是提高工人的能力,而不是取代工人,。畢竟,,自工業(yè)革命以來,技術(shù)一直在為工作而生,。隨著舊的工作崗位逐漸消失,,新的工作崗位也隨之產(chǎn)生。Smith 說:“我強(qiáng)烈地感覺到,,這是一種凈積極因素,。”

然而,,變革總是痛苦的,,凈收益可能掩蓋個(gè)別損失。技術(shù)變革也往往會(huì)集中財(cái)富和權(quán)力,,加劇不平等,。

Mollick 寫道:“在我看來,問題不再是人工智能是否會(huì)重塑工作,而是我們希望這意味著什么,?!?/p>

預(yù)測(cè):對(duì)大量失業(yè)的擔(dān)憂將被夸大。但生成工具將繼續(xù)在工作場(chǎng)所大量出現(xiàn),。角色可能會(huì)改變,;我們可能需要學(xué)習(xí)新的技能。

4. AI 會(huì)帶來哪些錯(cuò)誤信息,?

2023 年最熱門的三張圖片分別是教皇身穿 Balenciaga,、特朗普被警察摔倒在地以及五角大樓爆炸的照片。所有這些都是假的,,但都被數(shù)百萬人看到并分享,。

使用生成模型創(chuàng)建虛假文本或圖像比以往任何時(shí)候都要容易。許多人警告說,,錯(cuò)誤信息將過載。OpenAI 合作開展了一項(xiàng)研究,,強(qiáng)調(diào)了其技術(shù)在假新聞活動(dòng)中的許多潛在濫用,。在 2023 年的一份報(bào)告中,它警告說,,大型語言模型可用于大規(guī)模制作更具說服力的宣傳品,,而這種宣傳很難被發(fā)現(xiàn)。美國(guó)和歐盟的專家已經(jīng)表示選舉面臨風(fēng)險(xiǎn),。

拜登政府將人工智能生成內(nèi)容的標(biāo)簽和檢測(cè)作為其 10 月份人工智能行政令的重點(diǎn),,這并不令人意外。但該命令并沒有從法律上要求工具制造商將文本或圖像標(biāo)注為人工智能的作品,。而最好的檢測(cè)工具也還沒有好到可以信賴的程度,。

本月達(dá)成一致的歐盟人工智能法案則更進(jìn)一步。該法案的部分內(nèi)容要求公司在人工智能生成的文本,、圖像或視頻上打上水印,,并向人們明確說明他們是在與聊天機(jī)器人互動(dòng)。此外,,《人工智能法案》還具有法律效力:這些規(guī)則將具有約束力,,并對(duì)違規(guī)行為處以高額罰款。

關(guān)于生成式 AI 的六個(gè)懸而未決的問題及預(yù)測(cè) – AI新智界

美國(guó)還表示,,它將對(duì)任何可能對(duì)國(guó)家安全構(gòu)成威脅的人工智能進(jìn)行審計(jì),,包括干預(yù)選舉。Benaich 將這稱之為偉大的進(jìn)步,。但是,,即使是這些模型的開發(fā)者也不知道它們的全部能力:“政府或其他獨(dú)立機(jī)構(gòu)可以強(qiáng)迫公司在發(fā)布模型之前對(duì)其進(jìn)行全面測(cè)試,這種想法似乎并不現(xiàn)實(shí)”。

問題在于:在一項(xiàng)技術(shù)被使用之前,,我們不可能知道它被濫用的所有方式,。“2023 年,,有很多關(guān)于放慢人工智能發(fā)展速度的討論,,”Schaefer 說?!暗覀兂窒喾吹挠^點(diǎn),。”

除非這些工具被盡可能多的人以盡可能多的不同方式使用,,否則我們不會(huì)讓它們變得更好,。他說:”我們不會(huì)了解這些怪異風(fēng)險(xiǎn)的細(xì)微表現(xiàn)方式,也不會(huì)了解哪些事件會(huì)觸發(fā)這些風(fēng)險(xiǎn),?!?/p>

預(yù)測(cè):隨著使用的增加,新的濫用形式將不斷出現(xiàn),。會(huì)有一些突出的例子,,比如涉及選舉操縱。

5. 我們能否接受 AI 的成本,?

生成式人工智能的開發(fā)成本,,包括人力成本和環(huán)境成本,也需要加以考慮,。隱形工人問題?是一個(gè)公開的秘密:我們之所以能幸免于生成模型所能產(chǎn)生的最糟糕的結(jié)果,,部分原因在于有大量隱蔽的(通常收入微薄的)工人為訓(xùn)練數(shù)據(jù)貼標(biāo)簽,并在測(cè)試過程中剔除有毒的,、有時(shí)是創(chuàng)傷性的輸出結(jié)果,。這是數(shù)據(jù)時(shí)代的血汗工廠。

2023 年,,OpenAI 在肯尼亞使用工人的做法受到了《時(shí)代》和《華爾街日?qǐng)?bào)》等大眾媒體的關(guān)注,。OpenAI 希望通過建立一個(gè)過濾器來改進(jìn)其生成模型,從而從用戶那里隱藏仇恨,、淫穢和其他令人反感的內(nèi)容,。但要做到這一點(diǎn),它需要人們發(fā)現(xiàn)并標(biāo)注大量此類有毒內(nèi)容的例子,,以便其自動(dòng)過濾器能夠?qū)W會(huì)識(shí)別它們,。OpenAI 雇用了外包公司 Sama,而后者則被指控在肯尼亞使用了低薪工人,,這些工人幾乎得不到任何報(bào)酬,。

隨著生成式人工智能成為主流關(guān)注點(diǎn),,人力成本將成為更突出的焦點(diǎn),這將給建立這些模型的公司帶來壓力,,要求它們解決世界各地受雇幫助改進(jìn)其技術(shù)的工人的勞動(dòng)條件問題,。

另一個(gè)巨大的成本,即訓(xùn)練大型生成模型所需的能源,,在情況好轉(zhuǎn)之前還將繼續(xù)攀升,。今年 8 月,英偉達(dá)宣布 2024 年第二季度盈利超過 135 億美元,,是上年同期的兩倍,。其中大部分收入(103 億美元)來自數(shù)據(jù)中心,換句話說,,就是使用 英偉達(dá)硬件訓(xùn)練人工智能模型的其他公司,。

英偉達(dá)首席執(zhí)行官黃仁勛(Jensen Huang)表示:“需求非常大?!薄拔覀冋幱谏墒饺斯ぶ悄艿钠痫w階段,。”他承認(rèn)存在能源問題,,并預(yù)測(cè)這一熱潮甚至?xí)苿?dòng)所部署的計(jì)算硬件類型發(fā)生變化,。他說:“世界上絕大多數(shù)計(jì)算基礎(chǔ)設(shè)施都必須高效節(jié)能?!?/p>

預(yù)測(cè):公眾對(duì)人工智能的勞動(dòng)力和環(huán)境成本的認(rèn)識(shí)提高,,將給科技公司帶來壓力,。但不要指望這兩方面很快會(huì)有明顯改善,。

6. 末日論會(huì)繼續(xù)主導(dǎo)決策嗎?

長(zhǎng)期以來,,人工智能領(lǐng)域一直暗流涌動(dòng),,人們擔(dān)心智能機(jī)器的誕生會(huì)帶來災(zāi)難性的后果,甚至是世界末日,。由于炒作達(dá)到了頂峰,,再加上人工智能先驅(qū) Geoffrey Hinton 在 5 月份高調(diào)宣布對(duì)自己幫助建立的技術(shù)感到恐懼,使得這種情緒浮出水面,。

在 2023 年,,幾乎沒有什么問題能像這個(gè)問題一樣引發(fā)分歧。像辛頓和同為圖靈獎(jiǎng)獲得者的 Yann LeCun 這樣的人工智能名人都在公開場(chǎng)合大打口水仗,,在社交媒體上互相攻擊,。

辛頓、OpenAI 首席執(zhí)行官山姆 – 阿爾特曼(Sam Altman)等人建議,,(未來的)人工智能系統(tǒng)應(yīng)該有類似于核武器的保障措施,。這些言論引起了人們的關(guān)注。但美國(guó)科學(xué)家聯(lián)合會(huì)(Federation of American Scientists)核信息項(xiàng)目經(jīng)理 Matt Korda 在今年七月與他人合寫的一篇文章?中,對(duì)這些“混淆不清的類比”及其引發(fā)的“媒體恐慌”表示譴責(zé),。

Benaich 說,,我們很難理解什么是真實(shí)的,什么是虛假的,,因?yàn)槲覀儾恢腊l(fā)出警報(bào)的人的動(dòng)機(jī)是什么,。“很多人因?yàn)檫@些東西而變得非常富有,,而很多人正是那些要求加強(qiáng)控制的人,,這看起來確實(shí)很奇怪。這就好像,,‘嘿,,我發(fā)明了一種非常強(qiáng)大的東西!它有很多風(fēng)險(xiǎn),,但我有解藥’”,。

有些人擔(dān)心所有這些恐懼宣傳的影響。深度學(xué)習(xí)先驅(qū) Andrew Ng 在 X 上寫道:“我對(duì)人工智能未來最擔(dān)心的是,,如果過度夸大的風(fēng)險(xiǎn)(比如人類滅絕)讓科技游說者頒布了壓制開源和壓制創(chuàng)新的窒息性法規(guī),。”這場(chǎng)爭(zhēng)論還將資源和研究人員從更直接的風(fēng)險(xiǎn)上引開,,如偏見,、工作動(dòng)蕩和錯(cuò)誤信息。

谷歌頗具影響力的人工智能研究員 Fran?ois Chollet 表示:“有些人推崇存在性風(fēng)險(xiǎn),,因?yàn)樗麄冋J(rèn)為這對(duì)自己的公司有利,,”“談?wù)撋骘L(fēng)險(xiǎn)既能凸顯你的道德意識(shí)和責(zé)任感,又能轉(zhuǎn)移人們對(duì)更現(xiàn)實(shí),、更緊迫問題的注意力,。”

Benaich 指出,,有些人一方面敲響警鐘,,另一方面卻在為自己的公司籌集 1 億美元的資金。他說:“大可以說‘末日論’是一種籌資策略,?!?/p>

預(yù)測(cè):恐慌會(huì)逐漸平息,但對(duì)決策者議程的影響可能會(huì)持續(xù)一段時(shí)間,。呼吁重新關(guān)注更直接危害的呼聲將會(huì)繼續(xù),。

仍然缺失:人工智能的殺手級(jí)應(yīng)用

想想 ChatGPT 差點(diǎn)就沒出現(xiàn)。在 2022 年 11 月推出之前,,OpenAI 的聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 并不看好 ChatGPT 的準(zhǔn)確性?,。公司里的其他人也擔(dān)心它并沒有什么進(jìn)步,。從本質(zhì)上講,ChatGPT 更像是混搭,,而不是革命,。它由 GPT-3.5 驅(qū)動(dòng),這是 OpenAI 幾個(gè)月前開發(fā)的大型語言模型,。但是,,聊天機(jī)器人將一些引人入勝的調(diào)整 — 尤其是更會(huì)說話、更有針對(duì)性的回復(fù) — 整合到了一個(gè)易于使用的軟件包中,?!八δ軓?qiáng)大且方便,”Sutskever 說,?!斑@是人工智能領(lǐng)域第一次讓人工智能之外的人看到人工智能的進(jìn)步?!?/p>

ChatGPT 引發(fā)的熱潮還沒有結(jié)束,。Sutskever 說:“人工智能是城里唯一的游戲?!薄斑@是科技領(lǐng)域最大的事情,,而科技是經(jīng)濟(jì)領(lǐng)域最大的事情。我認(rèn)為,,我們將繼續(xù)為人工智能所能做的事情感到驚訝,。”

不過,,既然我們已經(jīng)看到了人工智能的能耐,,也許眼下的問題是它的用途。OpenAI 在構(gòu)建這項(xiàng)技術(shù)時(shí)并沒有考慮到它的真正用途,。研究人員在發(fā)布 ChatGPT 時(shí)似乎是這么說的:想怎么用就怎么用,。從那時(shí)起,,每個(gè)人都在爭(zhēng)先恐后地尋找答案,。

“我發(fā)現(xiàn) ChatGPT 非常有用,”Sutskever 說,?!拔医?jīng)常用它來做各種亂七八糟的事情?!彼f,,他用它來查找某些單詞,或者幫助他更清楚地表達(dá)自己的意思,。有時(shí),,他還會(huì)用它來查找事實(shí)(盡管并不總是事實(shí)),。OpenAI 的其他人則用它來制定度假計(jì)劃,或者提供編碼技巧或 IT 支持,。

這些都很有用,,但不能改變游戲規(guī)則。這些例子中的大多數(shù)都可以用現(xiàn)有的工具來完成,,比如搜索,。與此同時(shí),據(jù)說谷歌內(nèi)部員工對(duì)該公司自己的聊天機(jī)器人巴德(Bard)(現(xiàn)在由谷歌的 GPT-4 競(jìng)爭(zhēng)對(duì)手 Gemini 提供支持,,于上個(gè)月推出)的實(shí)用性表示懷疑,。“我仍在思考的最大挑戰(zhàn)是:就幫助性而言,,LLM 真正有用的是什么,?”據(jù)彭博社?報(bào)道,Bard 的用戶體驗(yàn)負(fù)責(zé)人 Cathy Pearl 今年 8 月在 Discord 上寫道,?!氨热缯嬲兴鳛椤4?!”

沒有殺手級(jí)應(yīng)用,,“wow”的效應(yīng)就會(huì)逐漸消失。投資公司紅杉資本(Sequoia Capital)的統(tǒng)計(jì)數(shù)據(jù)顯示,,盡管 ChatGPT,、Character.ai 和 Lensa 等人工智能應(yīng)用推出時(shí)病毒式傳播,但這些應(yīng)用的用戶流失速度比 YouTube,、Instagram 和 TikTok 等現(xiàn)有流行服務(wù)更快,。

Benaich 說:“消費(fèi)科技的法則依然適用?!薄皶?huì)有很多實(shí)驗(yàn),,很多東西在炒作幾個(gè)月后就會(huì)死掉?!?/p>

當(dāng)然,,互聯(lián)網(wǎng)的早期也充滿了錯(cuò)誤的開始。在改變世界之前,,網(wǎng)絡(luò)公司的繁榮以失敗告終,。今天的生成式人工智能總是有可能消聲匿跡,被下一個(gè)大事件所取代,。

不管發(fā)生什么,,既然人工智能已經(jīng)完全成為主流,那么利基問題就成了所有人的問題,。正如 Schaefer 所說:“我們將被迫以前所未有的方式來解決這些問題,?!?/p>

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1084133.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。

(0)
Yangz的頭像Yangz
上一篇 2023年12月20日 下午2:33
下一篇 2023年12月20日 下午3:20
198搶自鏈數(shù)字人

相關(guān)推薦