潮新聞 執(zhí)筆 祝依凡AI擴(kuò)圖又出圈了,。近日,,剪映推出“智能擴(kuò)圖”功能后,讓“廢片”秒變“大片”的短視頻登上抖音挑戰(zhàn)榜高位,。正當(dāng)網(wǎng)友準(zhǔn)備借此“拯救”相冊里的照片時,,卻發(fā)現(xiàn)畫風(fēng)逐漸走偏,甚至把人擴(kuò)成了樹干,,讓人直呼“驚掉下巴”,。網(wǎng)絡(luò)視頻截圖AI擴(kuò)圖不算新鮮話題,。7月,,美圖秀秀“AI擴(kuò)圖”功能上線,引起AI擴(kuò)圖的第一次出圈,。在此之前,,妙鴨相機(jī)APP以能夠AI生成肖像寫真而風(fēng)靡一時。自ChatGPT后,,人們對AI相關(guān)應(yīng)用的關(guān)注,,多以圖片生成類應(yīng)用引發(fā)。借用剪映“智能擴(kuò)圖”的廣告語“可以用AI讓一張單調(diào)的照片變得無限寬廣”,,AI圖片生成類應(yīng)用的未來也是無限寬廣嗎,?圖片社交從事新媒體工作的樂樂,對每天的互聯(lián)網(wǎng)熱點十分熟悉,。當(dāng)她看到抖音忽然給她推了不少“AI擴(kuò)圖”相關(guān)視頻時,,她馬上去試了試,覺得好玩又好笑:“它會給我?guī)眢@喜,,不管是圖片的正常延伸,,或者產(chǎn)生的一些滑稽搞笑圖片,讓我感覺有一種開盲盒的樂趣,?!痹缙诘腁I在國內(nèi),對不少用戶而言是一種看不見,,摸不著的新技術(shù),。盡管AI機(jī)器人、AI模型等產(chǎn)品在不斷推出,,但大多應(yīng)用于工業(yè)和企業(yè)端,,大眾很難切身感受到其帶來的好處。直到近些年AI與寫作,、繪畫等產(chǎn)品結(jié)合后,,用戶能親自參與其中,大大增強(qiáng)了體驗感,。圖源:視覺中國而相對于文字,,圖片無疑是更直觀的呈現(xiàn)方式,。判別一段文字的好與壞需要幾分鐘的時間來閱讀,但判別一張圖片是否滿足你的需求,或者是否帶來情緒價值,,只需要幾秒鐘,。浙江工業(yè)大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院、軟件學(xué)院副教授程振波表示:“圖片類應(yīng)用產(chǎn)生的結(jié)果比較直觀,,對人的沖擊力很強(qiáng),。我們大腦會通過視覺、聽覺,、嗅覺等來感知外部信息,,其中有超過70%的外部信息來自視覺,所以以圖片方式呈現(xiàn)的應(yīng)用比較火,?!庇浾邍L試在一款名為“無界AI”的國產(chǎn)AI生圖工具中輸入“玫瑰花園里有一個短發(fā)小女孩,穿著藍(lán)色連衣裙在澆花”,,選擇風(fēng)格和尺寸后等待30秒,,一張圖片就生成了,從畫面整體美感還是布局來看,,基本可以滿足日常的圖片需求,。“從商業(yè)化上來說,,AI文生圖比AI文生文普遍更快一些,。文生文國內(nèi)商業(yè)化做的很謹(jǐn)慎,因為文生文更容易有不‘對齊’的現(xiàn)象,,比如生成反動內(nèi)容之類,,監(jiān)管側(cè)也會更審慎?!背闪⒂诤贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示,。社交,是人類生存的原始需求,,而AI圖片生成類應(yīng)用所具備的社交屬性也不容小覷,。以AI擴(kuò)圖為例,樂樂給記者展示了部分自己和朋友的照片:“我把很多朋友的照片也導(dǎo)進(jìn)去了,,如果生成的圖片很搞笑,,我就會發(fā)給他或者發(fā)朋友圈,他們也會跟著一起玩,。”在社交平臺上,,像樂樂這樣的年輕人不在少數(shù),,這也恰恰說明了當(dāng)下“圖片社交”的火熱?;ヂ?lián)網(wǎng)的發(fā)展打破了機(jī)構(gòu)對互聯(lián)網(wǎng)圖像的壟斷地位,,圖像生產(chǎn)權(quán)不斷“下沉”,使得人與人之間通過圖像進(jìn)行互動成為可能,。人們在意網(wǎng)絡(luò)世界上自己曬出來的生活,,尤其對于年輕人來說,拍照發(fā)朋友圈收獲點贊感到的快樂甚至?xí)笥诂F(xiàn)實生活的感受,。需求的考驗紅杉資本做過一個研究,,將Chatgpt、Runway等AIGC應(yīng)用和YouTube,、Instagram等傳統(tǒng)應(yīng)用進(jìn)行對比,,發(fā)現(xiàn)傳統(tǒng)應(yīng)用的首月用戶平均留存率為63%,AIGC應(yīng)用僅為42%,。在用戶參與度上傳統(tǒng)軟件的平均DAU/MAU為51%,,而AIGC應(yīng)用僅為14%。低留存率意味著AIGC應(yīng)用的用戶粘性低,,而低參與度則意味著用戶的使用頻率低,。那么,為什么高熱度的風(fēng)吹過AI圖片生成類應(yīng)用后,,卻不能為它帶來持續(xù)的熱度呢,?以近日出圈的AI生圖應(yīng)用“AI擴(kuò)圖”為例,不少用戶表示:“剛開始的時候覺得挺新奇的,,有些擴(kuò)圖出來的部分也很搞笑,。但時間長了之后覺得不是特別實用,沒有能具體運用到的地方,,也就覺得不太好玩了,。”“最近流行的AI擴(kuò)圖對于普通用戶而言,,使用場景有限,,‘娛樂’用途很有噱頭?!焙贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示,。由此可見,“娛樂”屬性過強(qiáng)是目前大部分AI圖片生成軟件的一大痛點,,雖然用戶的破圈傳播能為其帶來短期內(nèi)可觀的流量紅利,,卻不能為用戶在應(yīng)用端提供長期價值。此外,,專業(yè)性能不強(qiáng)是部分AI圖片生成軟件在用戶端難形成穩(wěn)定需求的原因,。從事視覺設(shè)計工作的小怡告訴記者,,工作時會用國外的Midjourney軟件來進(jìn)行生圖:“我一般會這個軟件生成圖片來找靈感,如果尺寸不合適的話就用擴(kuò)圖功能,?!睂τ趪鴥?nèi)的類似應(yīng)用,她表示:“沒有使用過,,Midjourney專業(yè)性相對較高,,公司的同事都用這個軟件?!?img decoding="async" alt="潮聲丨AI生圖應(yīng)用,,未來是“無限寬廣”嗎?" src="http://lequren.com/wp-content/themes/justnews/themer/assets/images/lazy.png" data-original="http://p.mgcj.net/2023/12/20231210667869.jpg" class="aligncenter j-lazy">圖源:視覺中國“國內(nèi)相關(guān)應(yīng)用的精確度有待提高,,這樣才能避免生圖的時候出現(xiàn)詞不達(dá)意的情況,。”中國“市民卡之父”,、浙江大學(xué)智能教育研究中心特聘研究員張旭光向記者表示:“產(chǎn)品好不好用,,還是要看它自身的大模型底座、圖片訓(xùn)練的參數(shù),,由于國內(nèi)目前‘智算’算力缺乏,,生成的圖片質(zhì)量就沒有那么高?!倍鳤IGC所帶來的法律問題,,也制約著不少用戶和企業(yè)。在知識產(chǎn)權(quán)方面,,今年1月,,蓋蒂圖片社以“Stable Difussion”作為“Stability AI”旗下訓(xùn)練模型非法復(fù)制和處理數(shù)百萬受版權(quán)保護(hù)的圖像為由,在倫敦高等法院起訴“Stability AI”,。作為全球首例 AIGC 侵權(quán)案件,,引發(fā)廣泛關(guān)注。除此之外,,AI侵犯肖像權(quán),、隱私權(quán)的問題也亟待解決。那么,,對于C端產(chǎn)品如何對消費者形成長線需求,,張旭光認(rèn)為一方面這些應(yīng)用要不斷提升自己的專業(yè)性能,把生成圖片的細(xì)節(jié)做得更到位,、更真實,;另一方面則需要從用戶的實際需求出發(fā),使產(chǎn)品有實際應(yīng)用價值,,比如能夠為企業(yè)實現(xiàn)降本增效,,節(jié)省設(shè)計方面的人工成本,。走入尋常百姓家近段時間,AI圖片生成行業(yè)出圈的產(chǎn)品還不止一個,。11月29日,,文生視頻公司Pika推出Pika1.0,能夠生成和編輯3D動畫,、動漫、卡通和電影等各種風(fēng)格的視頻,。目前,,Pika社區(qū)已經(jīng)發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻,。使用Pika生成的視頻 圖源:網(wǎng)絡(luò)AI視頻行業(yè),,近段時間整體迎來了一段“爆發(fā)期”,。據(jù)不完全統(tǒng)計,從11月至今,,包括Meta,、字節(jié)、Stable AI等5家企業(yè)的AI視頻生成產(chǎn)品發(fā)布或迎來大更新,?!霸趫D片方面,AI應(yīng)用的一個趨勢是生成跟真實世界完全一樣的內(nèi)容,,不僅僅是圖像的外在,,甚至圖像中各個對象之間的物理作用法則也與真實世界相同。未來,,生成視頻的長度會越來越長,,像電影也許都可以全部AI制作”。程振波表示,,隨著技術(shù)的發(fā)展,,未來或許人人都有機(jī)會成為導(dǎo)演。從文生圖,、圖生圖,,再到如今的文生視頻,技術(shù)的不斷創(chuàng)新也在為用戶創(chuàng)造新的需求,?!艾F(xiàn)在是一個短視頻大行其道的時代,Pika的出現(xiàn)能夠讓相關(guān)企業(yè)降低生產(chǎn)成本,,而且它做得連續(xù)性很好,,又很逼真,。”張旭光表示:“未來,,隨著技術(shù)的進(jìn)步,,AI能夠通過大模型的訓(xùn)練來生成圖片、視頻甚至3D,,將其運用于AR,、VR等多種媒介中?!边@也就意味著,,AI生圖,或許還能生成3D,。今年,,清華大學(xué)元宇宙文化實驗室發(fā)布了《AIGC發(fā)展研究報告1.0版》,其中提到AIGC的未來是AIGM(AI-Generated Metaverse),,也就是通過人工智能技術(shù)自動生成元宇宙空間,。報告認(rèn)為,讓人類一旦徹底轉(zhuǎn)入元宇宙,,AIGC就會升級為AIGM,。清華大學(xué)繼續(xù)教育學(xué)院數(shù)字化學(xué)習(xí)主管、清華大學(xué)積極心理學(xué)指導(dǎo)師,、清華大學(xué)元宇宙案例實務(wù)青藍(lán)計劃發(fā)起人李璇曾在采訪中表示,,AIGC可以根據(jù)文字、音頻,、視頻等素材,,塑造出虛擬場景、虛擬人物形象,,使得元宇宙逐漸超越真實場景,,到達(dá)‘虛實共存’‘靈肉雙生’的高級階段。由此可見,,AI圖片生成類產(chǎn)品的應(yīng)用遠(yuǎn)不止“擴(kuò)圖”,,從2D發(fā)展到3D甚至它的最終形態(tài)也許是極致元宇宙,未來似乎無限寬廣,。也希望在不斷拓寬未來可能性的同時,,讓AIGC應(yīng)用真正走入尋常百姓家?!稗D(zhuǎn)載請注明出處”
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1082717.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。