北京時間14日凌晨,,OpenAI公司在美國加州舉辦新品發(fā)布會,推出一款名為GPT-4o(歐)的人工智能模型,。公司表示,,新模型具備“聽、看,、說”的出色本領(lǐng),。發(fā)布會上,OpenAI公司展示了新模型的多個應(yīng)用場景,。據(jù)介紹,,GPT-4o(歐)的“o”源自拉丁語,意思是“全能”(字幕:omni,,全能),,新模型能夠處理50種不同的語言,提高了速度和質(zhì)量,,并能夠讀取人的情緒,。新模型可以在最短232毫秒對音頻輸入做出反應(yīng),與人類在對話中的反應(yīng)時間相近,。即使對話被打斷,,新模型也可以做出自然反應(yīng)。這是此前人工智能語音聊天機(jī)器人做不到的,。圖像輸入方面,研究人員啟動攝像頭,,要求實時完成一道方程題,,新模型輕松完成了任務(wù);研究人員還展示了它對一張氣溫圖表進(jìn)行實時解讀的能力,。OpenAI公司研究人員 巴雷特:ChatGPT,,我正在和你分享這張圖表。你能否用非常簡短的一句話概括你所看到的,?人工智能模型GPT-4o:這張圖表顯示了2018年全年的平均,、最低和最高溫度。一個明顯的注釋顯示,,9月下旬曾下過一場大雨,。來源:央視新聞
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1102179.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。