A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

本周(4.8-4.14)AI界發(fā)生了什么,?

文|陳斯達(dá)

編輯|鄧詠儀

大事件

谷歌,、OpenAI、Mistral的“瘋狂星期二”

太平洋時(shí)間4月9日,,谷歌,、OpenAl、Mistral在24小時(shí)內(nèi),,接連發(fā)布大模型重磅更新,。

谷歌正式發(fā)布了Gemini 1.5 Pro的多項(xiàng)更新,包括企業(yè)AI平臺(tái)預(yù)覽版本,,首次上新音視頻處理能力——最長(zhǎng)可處理11小時(shí)的音頻,,或者1小時(shí)的視頻。

OpenAl則又一次“狙擊”谷歌,,緊接著發(fā)布非預(yù)覽版的GPT-4 Turbo,,將之前獨(dú)立的 GPT-4 Vision直接集成到模型中,只需一次API調(diào)用,,該模型就可以分析圖像并應(yīng)用推理,。

“歐洲版OpenAI”Mistral AI也正式開(kāi)源了大模型Mixtral8x22B,參數(shù)規(guī)模高達(dá)1760億,,僅次于馬斯克AI公司的Grok-1大模型,。

蘋(píng)果或在9月發(fā)布新電腦,搭載AI功能

當(dāng)?shù)貢r(shí)間4月11日,,據(jù)彭博社,,為了提振低迷的電腦業(yè)務(wù),蘋(píng)果正準(zhǔn)備借助AI功能,,徹底改造整個(gè)Mac產(chǎn)品線,。新版Mac將配置具備AI功能的M4芯片,預(yù)計(jì)首批最快將于今年9月推出,。

蘋(píng)果股價(jià)當(dāng)天出現(xiàn)近來(lái)罕見(jiàn)飆升,大漲超4%,,約 1120 億美元,。

英特爾發(fā)布新AI芯片,性能超越英偉達(dá)H100

當(dāng)?shù)貢r(shí)間4月9日,,英特爾Vision大會(huì)上發(fā)布新一代 Gaudi 3 AI 芯片,。新款 Gaudi 3 與英偉達(dá) H100 相比訓(xùn)練性能提高了 170%,推理能力提高了 50%,,效率提高了 40%,,且成本更低,但英特爾并未與英偉達(dá)最新的 Blackwell 系列產(chǎn)品進(jìn)行對(duì)比。

谷歌發(fā)布Transformer新架構(gòu),,解決大模型“內(nèi)存”問(wèn)題

4月12日消息,,谷歌發(fā)布下一代Transformer模型Infini-Transformer。Infini-Transformer引入了一種有效方法,,可將基于 Transformer 的大語(yǔ)言模型拓展到無(wú)限長(zhǎng)輸入,,而不增加內(nèi)存和運(yùn)算需求。就在4月5日,,谷歌還發(fā)布 Mixture-of-Depths,,改變了以往 Transformer 計(jì)算模式。

本周(4.8-4.14)AI界發(fā)生了什么,?

圖源:論文

論文鏈接:

https://arxiv.org/pdf/2404.07143.pdf

AI界前線

馬斯克旗下xAI發(fā)布其首款多模態(tài)大模型

4月13日消息,,馬斯克AI初創(chuàng)公司xAI推出了其首款多模態(tài)大模型Grok-1.5V。除文本功能外,,Grok現(xiàn)在可以處理各種各樣的視覺(jué)信息,,包括文檔、圖表,、圖表,、屏幕截圖、照片,,并能進(jìn)行多學(xué)科推理,。xAI 表示,將于近期邀請(qǐng)?jiān)缙跍y(cè)試者和現(xiàn)有的 Grok 用戶(hù)測(cè)試,。

本周(4.8-4.14)AI界發(fā)生了什么,?

圖源:官網(wǎng)

AI大牛吳恩達(dá)加入亞馬遜董事會(huì)

4月12日消息,據(jù)亞馬遜官方,,DeepLearning.AI 創(chuàng)始人吳恩達(dá)已加入亞馬遜董事會(huì),,該任命從 4 月 9 日起生效。吳恩達(dá)是DeepLearning.AI 創(chuàng)始人,、Landing.AI 創(chuàng)始人,、Coursera 聯(lián)合創(chuàng)始人、斯坦福大學(xué)計(jì)算機(jī)科學(xué)系和電氣工程系客座教授,,曾任谷歌大腦深度學(xué)習(xí)項(xiàng)目創(chuàng)始人兼負(fù)責(zé)人,、百度首席科學(xué)家、斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任,。

OpenAI解雇兩名核心團(tuán)隊(duì)成員

4月12日,,據(jù)The Information,近期兩名OpenAI的研究員因涉嫌泄露機(jī)密信息而遭到解雇,。其中一位是OpenAI 超級(jí)對(duì)齊團(tuán)隊(duì)的核心成員 Leopold Aschenbrenner,,在2023年 OpenAI 的宮斗大戲中,曾是時(shí)任首席科學(xué)家 Ilya Sutskever的堅(jiān)定盟友。另一位是專(zhuān)注于推理研究的專(zhuān)家Pavel Izmailov,,也曾在安全團(tuán)隊(duì)工作,。

Meta推出5nm制程AI訓(xùn)練芯片

當(dāng)?shù)貢r(shí)間4月10日,Meta宣布推出旗下的第二代自研AI訓(xùn)練和推理芯片MTIA v2,。和2023年五月官宣的Meta第一代AI推理加速器MTIA v1相比,,最新版本芯片在性能上有顯著提升,專(zhuān)為Meta旗下社交軟件的排名和推薦系統(tǒng)而設(shè)計(jì),。分析指出,,Meta的目標(biāo)是降低對(duì)英偉達(dá)等芯片廠商的依賴(lài)。

融資動(dòng)態(tài)

Sam Altman又去中東了,,給OpenAI找錢(qián)找合作

據(jù)彭博社,,4月11日消息,OpenAI首席執(zhí)行官Sam Altman正努力在全球范圍內(nèi)構(gòu)建一個(gè)由各國(guó)政府與行業(yè)領(lǐng)袖組成的聯(lián)盟,,旨在保證AI發(fā)展所需的芯片,、能源和數(shù)據(jù)中心容量的供應(yīng)。據(jù)消息人士,,Altman本周在阿拉伯聯(lián)合酋長(zhǎng)國(guó)會(huì)見(jiàn)投資者和政府官員,,討論私營(yíng)部門(mén)如何與各國(guó)合作,支持昂貴的大規(guī)模AI基礎(chǔ)設(shè)施,。

“面壁智能”完成新一輪數(shù)億元融資

4月11日消息,,面壁智能完成新一輪數(shù)億元融資,由春華創(chuàng)投,、華為哈勃領(lǐng)投,,北京市人工智能產(chǎn)業(yè)投資基金等跟投,知乎作為戰(zhàn)略股東持續(xù)跟投支持。本輪融資將用于人才引入,,大模型底層算力與數(shù)據(jù)基礎(chǔ)構(gòu)建,,和大模型落地三個(gè)方向。光源資本擔(dān)任獨(dú)家財(cái)務(wù)顧問(wèn),。面壁智能創(chuàng)立于2022年8月,,團(tuán)隊(duì)曾于2020年12月發(fā)布國(guó)內(nèi)首個(gè)中文大模型CPM-1。

AI物聯(lián)網(wǎng)企業(yè)“特斯聯(lián)”融資20億元

4月9日消息,,人工智能物聯(lián)網(wǎng)(AIoT)企業(yè)特斯聯(lián)宣布完成D輪20億人民幣融資交割。本輪融資由國(guó)際著名投資機(jī)構(gòu) AL Capital 與國(guó)內(nèi)產(chǎn)業(yè)基金陽(yáng)明股權(quán)投資基金共同領(lǐng)投,,國(guó)家發(fā)改委旗下投資平臺(tái),、福田資本、金地集團(tuán),、重科控股,、數(shù)字重慶等新老股東一同跟投,,募集資金將用于完善具有多模態(tài)能力的領(lǐng)域大模型在園區(qū)、企業(yè),、經(jīng)濟(jì),、能源等多場(chǎng)景的應(yīng)用。

特斯聯(lián)成立于2015年,,關(guān)注以智能技術(shù)驅(qū)動(dòng)場(chǎng)景的智慧化升級(jí),、產(chǎn)業(yè)生態(tài)繁榮與綠色低碳落地。

新玩意

Suno的對(duì)手來(lái)了:AI音樂(lè)生成工具Udio上線

4月11日,,一款名為Udio的AI音樂(lè)生成工具正式對(duì)外發(fā)布,。用戶(hù)可以通過(guò)簡(jiǎn)單的文字描述,創(chuàng)作出帶有歌詞的音樂(lè)作品,。Udio還具備多語(yǔ)言歌聲創(chuàng)作功能,,支持包括J-pop、俄羅斯夢(mèng)幻流行,、雷鬼音樂(lè)和寶萊塢音樂(lè)在內(nèi)的多語(yǔ)言歌聲,。

本周(4.8-4.14)AI界發(fā)生了什么?

△Udio界面,,圖源:官網(wǎng)

前沿研究

北大與字節(jié)合作提出VAR范式

4月13日消息,,北京大學(xué)和字節(jié)跳動(dòng)的研究者提出合作提出新一代范式視覺(jué)自回歸建模(VAR),將圖像的自回歸學(xué)習(xí),,重新定義為從粗到細(xì)的“下一個(gè)尺度預(yù)測(cè)”或“下一個(gè)分辨率預(yù)測(cè)”,。人類(lèi)在感知、創(chuàng)作圖像時(shí)習(xí)慣先概覽全局,、再深入細(xì)節(jié),。VAR模仿了這一邏輯順序,這樣的自回歸算法帶來(lái)很好的效果,。

成果登上 GitHub 和 Paperwithcode 熱度榜單,,得到大量同行關(guān)注。

本周(4.8-4.14)AI界發(fā)生了什么,?

△圖源:論文

體驗(yàn)網(wǎng)站:

https://var.vision/

論文地址:

https://arxiv.org/abs/2404.02905

開(kāi)源代碼:

https://github.com/FoundationVision/VAR

開(kāi)源模型:

https://huggingface.co/FoundationVision/var

北大開(kāi)源aiXcoder-7B代碼大模型

4月9日,,北京大學(xué)軟件工程研究所開(kāi)源了由其 aiXcoder 團(tuán)隊(duì)全新自研 7B 代碼大模型。模型在代碼生成和補(bǔ)全任務(wù)中領(lǐng)先同量級(jí)甚至超越 15B,、34B 參數(shù)量級(jí)的代碼大模型,。模型將憑借其在個(gè)性化訓(xùn)練、私有化部署,、定制化開(kāi)發(fā)方面的優(yōu)勢(shì),,滿(mǎn)足企業(yè)個(gè)性化開(kāi)發(fā)需求。

免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1097083.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。

(0)
的頭像
上一篇 2024年4月14日 下午6:38
下一篇 2024年4月14日 下午8:23
198搶自鏈數(shù)字人

相關(guān)推薦