“我正在臺(tái)上給大家做現(xiàn)場演示呢,,有點(diǎn)緊張?jiān)趺崔k?”
“你在臺(tái)上做演示嗎,?那真是太棒了,!深呼吸一下吧,要記得你可是專家,!”
圖/視覺中國
邏輯清晰,語調(diào)幽默,,感情飽滿,,很難想象這是現(xiàn)實(shí)中人類與AI間的對話。北京時(shí)間5月14日凌晨,,美國人工智能公司OpenAI的春季發(fā)布會(huì)上線,,發(fā)布了重磅產(chǎn)品,也就是人工智能大模型ChatGPT-4的升級版GPT-4o,。前述對話就發(fā)生在發(fā)布會(huì)現(xiàn)場,這位提問的研發(fā)負(fù)責(zé)人在得到GPT-4o的回應(yīng)后,,隨即故意大喘幾口氣,,這一動(dòng)作成功被手機(jī)上的GPT-4o捕捉到,并給出了“放松點(diǎn),,你可不是吸塵器”的回應(yīng),。
5月14日,,OpenAI發(fā)布會(huì)現(xiàn)場,GPT-4o正在告訴工作人員“放松點(diǎn),,你可不是吸塵器”,。 圖/OpenAI官網(wǎng)視頻截圖
“GPT-4o可以綜合利用語音、文本和視覺信息進(jìn)行推理,?!監(jiān)penAI首席技術(shù)官穆里·穆拉蒂在隨后舉行的主題演講中表示,GPT-4是OpenAI此前的旗艦?zāi)P?,可以處理圖像和文本的混合信息,,而GPT-4o則在此基礎(chǔ)上新增了語音處理能力。最關(guān)鍵的是,,其反應(yīng)速度平均為320毫秒,,完全做到了與人類在正常對話中同頻。多位業(yè)內(nèi)人士指出,,這是此前GPT-4或任何智能語音助手都未曾達(dá)到的水平,。
就在OpenAI發(fā)布會(huì)24小時(shí)后,5月15日凌晨,,谷歌在“I/O開發(fā)者大會(huì)”上發(fā)布了大模型Gemini加持下的個(gè)人數(shù)字助理Project Astra,,用于對標(biāo)GPT-4o。谷歌稱其為“通用AI智能體”,,其視覺識別和語音交互效果與GPT-4o不相上下,。不少業(yè)內(nèi)人士感嘆,曾幾何時(shí)由蘋果發(fā)布會(huì)主導(dǎo)的“科技春晚”,,如今已被AI大模型徹底接手,。
邁向通用語音助手
OpenAI創(chuàng)始人、CEO薩姆·奧爾特曼并未參加此次OpenAI發(fā)布會(huì),,而是在會(huì)后于社交平臺(tái)X上發(fā)表了一個(gè)單詞“她”作為回應(yīng),。在2013年的美國電影《她》中,男主結(jié)識了一個(gè)可以不斷適應(yīng)環(huán)境的AI系統(tǒng),,并與其墜入愛河,。這個(gè)AI系統(tǒng)所擁有的迷人聲線,、幽默風(fēng)趣和善解人意,如今GPT-4o似乎都可以實(shí)現(xiàn)了,。
01:07
測試人員與GPT-4o對話,,內(nèi)容是為一場工作面試做準(zhǔn)備。視頻/OpenAI官網(wǎng)
GPT-4o中的“o”源自詞綴“omni-”,,有“全知全能”之義,。對AI大模型而言,要做到全知全能,、無障礙與人交流,,首先要快。OpenAI官網(wǎng)顯示,,GPT-4o在英文文本和代碼處理上與此前最新的GPT-4 Turbo的性能不相上下,,但在非英文文本、視覺和音頻理解方面都更為高效,。此前,,若使用語音模式對話,GPT-3.5的平均延遲為2.8秒,,GPT-4則為5.4秒,。人類的平均反應(yīng)時(shí)間一般為100毫秒到400毫秒,而GPT-4o最低可達(dá)232毫秒,,因此后者可以提供幾乎無延遲的順暢交互體驗(yàn),。
OpenAI此次未放出任何具體的技術(shù)文件,僅在主頁上用一段話介紹了GPT-4o的技術(shù)突破,。普通的智能語音模型由多個(gè)獨(dú)立模型組成,,分別實(shí)現(xiàn)音頻轉(zhuǎn)文本,文本吞吐和處理,,以及文本再轉(zhuǎn)音頻等功能,。ChatGPT就是負(fù)責(zé)文本吞吐和處理的核心,也就是智能核心,。據(jù)OpenAI介紹,,GPT-4o一改這種流水線模式,可以同時(shí)吞吐文本,、畫面和音頻數(shù)據(jù),,這意味著所有輸入和輸出都由這一個(gè)核心來處理,再加上其在視頻和音頻理解方面的升級,,其處理速度顯著加快,。這一模式被稱為“端到端的多模態(tài)模型”。
多模態(tài)還意味著AI可以識別和表現(xiàn)情感。目前,,市面上的語音助手常被用戶詬病為冷漠,、機(jī)械、一成不變,,這是AI語音交互的一大阻礙,。這是因?yàn)椋饲暗牧魉€模式會(huì)讓智能核心丟失很多信息,,它很難探測語調(diào),、識別多個(gè)說話者、排除背景噪聲,,也無法歌唱或用語氣表達(dá)情感,。端到端模式下,文字和音視頻都可以成為訓(xùn)練智能核心的數(shù)據(jù),,從而讓其真正明白語言所承載的情感,。
OpenAI發(fā)布會(huì)上,,演示者要求GPT-4o調(diào)整說話時(shí)語氣,,在說話和唱歌之間快速切換,甚至用堪比莎士比亞戲劇的夸張聲調(diào)來講一個(gè)睡前故事,,GPT-4o都能完成任務(wù),。在被人類打斷時(shí),其也能耐心等待,、快速理解新指令。在聽到讓自己唱歌的要求時(shí),,GPT-4o甚至輕微嘆了口氣,。
清華大學(xué)智能產(chǎn)業(yè)研究院首席研究員聶再清對《中國新聞周刊》稱,從現(xiàn)場和官方視頻來看,,GPT-4o確實(shí)做到了即時(shí)回應(yīng),、準(zhǔn)確理解并執(zhí)行指令,以及合時(shí)宜的語調(diào)情感,。如果這確實(shí)是現(xiàn)場隨機(jī)的結(jié)果,,而非為了演示而設(shè)定好的流程,那么GPT-4o的能力的確令人震驚,。在他看來,,由于缺乏技術(shù)文件,一個(gè)GPT-4性能水平的處理核心如何完成如此復(fù)雜的任務(wù),,還未可知,,但“這一定是大數(shù)據(jù)喂養(yǎng)的結(jié)果”。
除了現(xiàn)場演示,發(fā)布會(huì)還有網(wǎng)友提問環(huán)節(jié),。按照網(wǎng)友要求,,GPT-4o展示了同聲傳譯、情緒識別的能力,。在識別一位工作人員的面部情緒時(shí),,GPT-4o說“我好像在看一個(gè)木質(zhì)表面的東西”,疑似“翻車”,,但該工作人員立刻調(diào)整提問策略,,聲明自己“不是一張桌子”。之后,,GPT-4o給出了合乎情理的答案,。
GPT-4o并不是第一個(gè)多模態(tài)模型。去年12月,,谷歌Gemini Ultra模型發(fā)布,,用于完成任務(wù)語言理解、數(shù)學(xué)推理等高度復(fù)雜的任務(wù),,被業(yè)內(nèi)認(rèn)為可叫板當(dāng)時(shí)的GPT-4,,也是市面上最先發(fā)布的多模態(tài)模型。在谷歌官方公布的視頻中,,測試員和Gemini做了一些小游戲,,Gemini能夠用圖片設(shè)計(jì)智力問答,或者找出紙團(tuán)被扣在哪個(gè)紙杯底下,。整個(gè)過程中,,Gemini的反應(yīng)速度都非常快,,還會(huì)生成音頻和圖片來輔助回答,。但發(fā)布會(huì)后僅數(shù)日,谷歌發(fā)言人便公開承認(rèn),,該演示視頻不是實(shí)時(shí)錄制,, Gemini實(shí)際上只能對靜態(tài)圖像做出反應(yīng)。
因此,,GPT-4o的發(fā)布被業(yè)內(nèi)人士看作是OpenAI對谷歌的“貼臉開大”,。谷歌則緊隨其后,在15日的發(fā)布會(huì)上予以還擊。相比于OpenAI不足半小時(shí)的“輕聲細(xì)語”,谷歌用長達(dá)近兩小時(shí),、包含數(shù)十款A(yù)I產(chǎn)品的大轟炸叫板OpenAI,包括文生視頻領(lǐng)域?qū)?biāo)Sora 的Veo,,以及對標(biāo)ChatGPT但文本吞吐量遠(yuǎn)超前者的Gemini 1.5 Pro,。
5月15日,,谷歌首席執(zhí)行官孫達(dá)爾·皮柴在谷歌I/O開發(fā)者大會(huì)上發(fā)表主題演講,。圖/視覺中國
谷歌發(fā)布的視頻中,Project Astra能識別各種物體,,說出代碼的功用,,并與人類實(shí)時(shí)溝通,延遲上與GPT-4o沒有明顯差異,。Project Astra還能與谷歌AR原型眼鏡“夢幻聯(lián)動(dòng)”,,為佩戴者描述周圍場景,并根據(jù)佩戴者的反饋補(bǔ)充細(xì)節(jié),。這一應(yīng)用有可能力壓OpenAI,,在未來成為視覺障礙患者的福音。有業(yè)內(nèi)人士分析,,除了搜索引擎,,谷歌在AI大模型領(lǐng)域還在拉平與OpenAI差距的過程中。
在聶再清看來,,兩家公司接連發(fā)布多模態(tài)語音助手,,在易用性方面邁出了一大步,讓人窺見了未來通用語音助手的樣貌,。通用語音助手就是人類在數(shù)字世界里的代理或管家,,可以幫人解決一切數(shù)字事務(wù),,包括安排日程,、整理和調(diào)用文件、利用知識指導(dǎo)學(xué)習(xí),、利用記憶推薦可能喜歡的產(chǎn)品等,。未來隨著模型吸納的信息越來越多,語音助手會(huì)更加人性化,、更加智能,,做到真正的自然交互。隨著視頻能力的加入,,除語音外,,表情、肢體動(dòng)作等也能夠被模型解讀,,作為其決策的依據(jù),。有網(wǎng)友評論稱,無論是GPT-4o還是Project Astra,,其身手足以秒殺蘋果的語音助手Siri,。
距離用戶越來越近
OpenAI在發(fā)布會(huì)上表示,, GPT-4o將在未來幾周內(nèi)分階段集成至OpenAI的各項(xiàng)服務(wù)之中,包括還未面世的ChatGPT搜索引擎,。許多業(yè)內(nèi)人士對此次發(fā)布會(huì)上GPT-5的缺席表示惋惜,,由于OpenAI在2022年底推出ChatGPT的時(shí)候,實(shí)際上已做出了GPT-4,,因此有業(yè)內(nèi)人士預(yù)測,,帶搜索引擎的GPT-5也許已“在路上”。英偉達(dá)高級科學(xué)家Jim Fan在X上表示,,GPT-4o已經(jīng)接近GPT-5,,或許是后者的一次早期試水。據(jù)聶再清觀察,,目前還沒有看到模型迭代的瓶頸,,大模型的迭代速度有可能還會(huì)加快。
奧爾特曼在X上表示,,OpenAI致力于將GPT-4o免費(fèi)提供給所有用戶使用,。以往,OpenAI發(fā)布新版ChatGPT模型時(shí),,通常會(huì)將其置于付費(fèi)墻之后,。如今,免費(fèi)用戶已經(jīng)可以訪問GPT-4o加持下的多項(xiàng)功能,,例如分析數(shù)據(jù),、創(chuàng)建圖表、撰寫文件總結(jié)等,,但不能使用圖片生成功能,。付費(fèi)用戶則可以享受5倍調(diào)用額度。谷歌在發(fā)布會(huì)中沒有公布Project Astra的具體上線時(shí)間,,預(yù)計(jì)很快會(huì)登錄到安卓,、iOS等平臺(tái)使用。
對開發(fā)者來說,,GPT-4o的定價(jià)也更友好,。OpenAI官網(wǎng)顯示,從GPT-4開始,,輸入單位文本的價(jià)格一直在下降,,相較GPT-4 Turbo,GPT-4o收費(fèi)降低50%,,調(diào)用速度卻提升了兩倍,。這使其在商業(yè)應(yīng)用上有了更大吸引力。聶再清表示,,大模型控制價(jià)格的方式之一是提升模型性能,,用更少的資源做更多的事,;另一個(gè)方式則是通過類似搜索引擎的商業(yè)模式,對用戶免費(fèi),,但可以收取廣告商的贊助,。
至于未來OpenAI和谷歌的大模型有沒有開源的可能性,聶再清表示,,參考iOS和安卓,,一個(gè)閉源一個(gè)開源,未來的大模型市場也極有可能出現(xiàn)開源和閉源的巨頭,。用戶體驗(yàn)最好的行業(yè)領(lǐng)先者傾向于閉源,,而開源的好處在于可以集體將模型“做大做強(qiáng)”,二者在市場都有自己的位置,。谷歌在發(fā)布會(huì)中推出了其首個(gè)視覺語言開源模型PaliGemma,,針對圖像標(biāo)注、視覺問答,、圖像標(biāo)簽化等方面進(jìn)行了優(yōu)化,。此外,谷歌還將在6月推出更大規(guī)模的開源模型Gemma 2 27B,。
OpenAI也同步發(fā)布了適用于macOS的ChatGPT桌面應(yīng)用程序,,使用戶調(diào)用的體驗(yàn)更絲滑。
GPT-4o加持下的通用語音助手在未來將有廣泛應(yīng)用,,例如健康管理,、醫(yī)療咨詢、教育教輔等領(lǐng)域,。聶再清認(rèn)為,,所有開放領(lǐng)域用到的語音智能,例如購物App中的導(dǎo)購等,,都可以加裝類似GPT-4o的智能核心,,增強(qiáng)用戶體驗(yàn)。這類語音助手將離用戶越來越近,。
作者:周游
編輯:杜瑋
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1104389.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。