潮新聞 執(zhí)筆 祝依凡AI擴圖又出圈了,。近日,,剪映推出“智能擴圖”功能后,讓“廢片”秒變“大片”的短視頻登上抖音挑戰(zhàn)榜高位,。正當(dāng)網(wǎng)友準(zhǔn)備借此“拯救”相冊里的照片時,,卻發(fā)現(xiàn)畫風(fēng)逐漸走偏,甚至把人擴成了樹干,,讓人直呼“驚掉下巴”,。網(wǎng)絡(luò)視頻截圖AI擴圖不算新鮮話題,。7月,美圖秀秀“AI擴圖”功能上線,,引起AI擴圖的第一次出圈,。在此之前,妙鴨相機APP以能夠AI生成肖像寫真而風(fēng)靡一時。自ChatGPT后,,人們對AI相關(guān)應(yīng)用的關(guān)注,,多以圖片生成類應(yīng)用引發(fā)。借用剪映“智能擴圖”的廣告語“可以用AI讓一張單調(diào)的照片變得無限寬廣”,,AI圖片生成類應(yīng)用的未來也是無限寬廣嗎,?圖片社交從事新媒體工作的樂樂,對每天的互聯(lián)網(wǎng)熱點十分熟悉,。當(dāng)她看到抖音忽然給她推了不少“AI擴圖”相關(guān)視頻時,,她馬上去試了試,覺得好玩又好笑:“它會給我?guī)眢@喜,,不管是圖片的正常延伸,或者產(chǎn)生的一些滑稽搞笑圖片,,讓我感覺有一種開盲盒的樂趣,。”早期的AI在國內(nèi),,對不少用戶而言是一種看不見,,摸不著的新技術(shù)。盡管AI機器人,、AI模型等產(chǎn)品在不斷推出,,但大多應(yīng)用于工業(yè)和企業(yè)端,大眾很難切身感受到其帶來的好處,。直到近些年AI與寫作,、繪畫等產(chǎn)品結(jié)合后,用戶能親自參與其中,,大大增強了體驗感,。
圖源:視覺中國而相對于文字,,圖片無疑是更直觀的呈現(xiàn)方式。判別一段文字的好與壞需要幾分鐘的時間來閱讀,,但判別一張圖片是否滿足你的需求,,或者是否帶來情緒價值,只需要幾秒鐘,。浙江工業(yè)大學(xué)計算機科學(xué)與技術(shù)學(xué)院,、軟件學(xué)院副教授程振波表示:“圖片類應(yīng)用產(chǎn)生的結(jié)果比較直觀,對人的沖擊力很強,。我們大腦會通過視覺,、聽覺、嗅覺等來感知外部信息,其中有超過70%的外部信息來自視覺,,所以以圖片方式呈現(xiàn)的應(yīng)用比較火,。”記者嘗試在一款名為“無界AI”的國產(chǎn)AI生圖工具中輸入“玫瑰花園里有一個短發(fā)小女孩,,穿著藍(lán)色連衣裙在澆花”,,選擇風(fēng)格和尺寸后等待30秒,一張圖片就生成了,,從畫面整體美感還是布局來看,基本可以滿足日常的圖片需求,。“從商業(yè)化上來說,,AI文生圖比AI文生文普遍更快一些。文生文國內(nèi)商業(yè)化做的很謹(jǐn)慎,,因為文生文更容易有不‘對齊’的現(xiàn)象,比如生成反動內(nèi)容之類,,監(jiān)管側(cè)也會更審慎,?!背闪⒂诤贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示,。社交,,是人類生存的原始需求,而AI圖片生成類應(yīng)用所具備的社交屬性也不容小覷,。以AI擴圖為例,樂樂給記者展示了部分自己和朋友的照片:“我把很多朋友的照片也導(dǎo)進去了,,如果生成的圖片很搞笑,,我就會發(fā)給他或者發(fā)朋友圈,,他們也會跟著一起玩,。”在社交平臺上,,像樂樂這樣的年輕人不在少數(shù),,這也恰恰說明了當(dāng)下“圖片社交”的火熱?;ヂ?lián)網(wǎng)的發(fā)展打破了機構(gòu)對互聯(lián)網(wǎng)圖像的壟斷地位,圖像生產(chǎn)權(quán)不斷“下沉”,,使得人與人之間通過圖像進行互動成為可能,。人們在意網(wǎng)絡(luò)世界上自己曬出來的生活,尤其對于年輕人來說,,拍照發(fā)朋友圈收獲點贊感到的快樂甚至?xí)笥诂F(xiàn)實生活的感受。需求的考驗紅杉資本做過一個研究,,將Chatgpt,、Runway等AIGC應(yīng)用和YouTube、Instagram等傳統(tǒng)應(yīng)用進行對比,,發(fā)現(xiàn)傳統(tǒng)應(yīng)用的首月用戶平均留存率為63%,,AIGC應(yīng)用僅為42%,。在用戶參與度上傳統(tǒng)軟件的平均DAU/MAU為51%,,而AIGC應(yīng)用僅為14%。低留存率意味著AIGC應(yīng)用的用戶粘性低,,而低參與度則意味著用戶的使用頻率低。那么,,為什么高熱度的風(fēng)吹過AI圖片生成類應(yīng)用后,,卻不能為它帶來持續(xù)的熱度呢?以近日出圈的AI生圖應(yīng)用“AI擴圖”為例,,不少用戶表示:“剛開始的時候覺得挺新奇的,,有些擴圖出來的部分也很搞笑。但時間長了之后覺得不是特別實用,,沒有能具體運用到的地方,,也就覺得不太好玩了,?!薄白罱餍械腁I擴圖對于普通用戶而言,使用場景有限,,‘娛樂’用途很有噱頭?!焙贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示。由此可見,,“娛樂”屬性過強是目前大部分AI圖片生成軟件的一大痛點,,雖然用戶的破圈傳播能為其帶來短期內(nèi)可觀的流量紅利,卻不能為用戶在應(yīng)用端提供長期價值,。此外,,專業(yè)性能不強是部分AI圖片生成軟件在用戶端難形成穩(wěn)定需求的原因。從事視覺設(shè)計工作的小怡告訴記者,,工作時會用國外的Midjourney軟件來進行生圖:“我一般會這個軟件生成圖片來找靈感,如果尺寸不合適的話就用擴圖功能,?!睂τ趪鴥?nèi)的類似應(yīng)用,她表示:“沒有使用過,,Midjourney專業(yè)性相對較高,,公司的同事都用這個軟件?!?img decoding="async" alt="潮聲丨AI生圖應(yīng)用,,未來是“無限寬廣”嗎,?" src="http://lequren.com/wp-content/themes/justnews/themer/assets/images/lazy.png" data-original="http://p.mgcj.net/2023/12/20231210667869.jpg" class="aligncenter j-lazy">圖源:視覺中國“國內(nèi)相關(guān)應(yīng)用的精確度有待提高,,這樣才能避免生圖的時候出現(xiàn)詞不達意的情況,?!敝袊笆忻窨ㄖ浮薄⒄憬髮W(xué)智能教育研究中心特聘研究員張旭光向記者表示:“產(chǎn)品好不好用,,還是要看它自身的大模型底座、圖片訓(xùn)練的參數(shù),,由于國內(nèi)目前‘智算’算力缺乏,,生成的圖片質(zhì)量就沒有那么高,?!倍鳤IGC所帶來的法律問題,,也制約著不少用戶和企業(yè)。在知識產(chǎn)權(quán)方面,,今年1月,,蓋蒂圖片社以“Stable Difussion”作為“Stability AI”旗下訓(xùn)練模型非法復(fù)制和處理數(shù)百萬受版權(quán)保護的圖像為由,,在倫敦高等法院起訴“Stability AI”,。作為全球首例 AIGC 侵權(quán)案件,,引發(fā)廣泛關(guān)注。除此之外,,AI侵犯肖像權(quán)、隱私權(quán)的問題也亟待解決,。那么,對于C端產(chǎn)品如何對消費者形成長線需求,,張旭光認(rèn)為一方面這些應(yīng)用要不斷提升自己的專業(yè)性能,把生成圖片的細(xì)節(jié)做得更到位,、更真實,;另一方面則需要從用戶的實際需求出發(fā),使產(chǎn)品有實際應(yīng)用價值,,比如能夠為企業(yè)實現(xiàn)降本增效,節(jié)省設(shè)計方面的人工成本,。走入尋常百姓家近段時間,AI圖片生成行業(yè)出圈的產(chǎn)品還不止一個,。11月29日,文生視頻公司Pika推出Pika1.0,,能夠生成和編輯3D動畫、動漫,、卡通和電影等各種風(fēng)格的視頻。目前,,Pika社區(qū)已經(jīng)發(fā)展到50萬名用戶,,每周生成數(shù)百萬個視頻。
使用Pika生成的視頻 圖源:網(wǎng)絡(luò)AI視頻行業(yè),近段時間整體迎來了一段“爆發(fā)期”,。據(jù)不完全統(tǒng)計,,從11月至今,,包括Meta,、字節(jié)、Stable AI等5家企業(yè)的AI視頻生成產(chǎn)品發(fā)布或迎來大更新,?!霸趫D片方面,AI應(yīng)用的一個趨勢是生成跟真實世界完全一樣的內(nèi)容,,不僅僅是圖像的外在,,甚至圖像中各個對象之間的物理作用法則也與真實世界相同。未來,,生成視頻的長度會越來越長,,像電影也許都可以全部AI制作”,。程振波表示,隨著技術(shù)的發(fā)展,未來或許人人都有機會成為導(dǎo)演,。從文生圖,、圖生圖,再到如今的文生視頻,,技術(shù)的不斷創(chuàng)新也在為用戶創(chuàng)造新的需求,?!艾F(xiàn)在是一個短視頻大行其道的時代,Pika的出現(xiàn)能夠讓相關(guān)企業(yè)降低生產(chǎn)成本,,而且它做得連續(xù)性很好,,又很逼真?!睆埿窆獗硎荆骸拔磥?,隨著技術(shù)的進步,AI能夠通過大模型的訓(xùn)練來生成圖片,、視頻甚至3D,,將其運用于AR、VR等多種媒介中,?!边@也就意味著,AI生圖,,或許還能生成3D,。今年,清華大學(xué)元宇宙文化實驗室發(fā)布了《AIGC發(fā)展研究報告1.0版》,,其中提到AIGC的未來是AIGM(AI-Generated Metaverse),,也就是通過人工智能技術(shù)自動生成元宇宙空間。報告認(rèn)為,,讓人類一旦徹底轉(zhuǎn)入元宇宙,AIGC就會升級為AIGM。清華大學(xué)繼續(xù)教育學(xué)院數(shù)字化學(xué)習(xí)主管,、清華大學(xué)積極心理學(xué)指導(dǎo)師、清華大學(xué)元宇宙案例實務(wù)青藍(lán)計劃發(fā)起人李璇曾在采訪中表示,,AIGC可以根據(jù)文字,、音頻、視頻等素材,,塑造出虛擬場景,、虛擬人物形象,使得元宇宙逐漸超越真實場景,,到達‘虛實共存’‘靈肉雙生’的高級階段,。由此可見,AI圖片生成類產(chǎn)品的應(yīng)用遠(yuǎn)不止“擴圖”,,從2D發(fā)展到3D甚至它的最終形態(tài)也許是極致元宇宙,,未來似乎無限寬廣。也希望在不斷拓寬未來可能性的同時,,讓AIGC應(yīng)用真正走入尋常百姓家,。“轉(zhuǎn)載請注明出處”
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1082717.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。