在PGC(Professional Generated Content,專業(yè)生成內(nèi)容)與UGC(User Generated Content)之外,AIGC作為一種新的內(nèi)容生產(chǎn)方式正在走入大眾視野。
2015年前后,商湯科技、曠世科技等作為上一代AI浪潮的代表性公司,所做的工作主要是圖形、文字識別以及安防等;而對于正在到來的下一代AI浪潮來說,AI的作用不再是判斷“對不對”或“是不是”,而是作為一個(gè)“半人類”,輔助人類提高創(chuàng)造水平。
在PGC(Professional Generated Content,專業(yè)生成內(nèi)容)與UGC(User Generated Content)之外,AIGC作為一種新的內(nèi)容生產(chǎn)方式正在走入大眾視野。根據(jù)中金所發(fā)布的報(bào)告,AIGC指的是一種通過AI技術(shù)來自動或輔助生成內(nèi)容的生產(chǎn)方式。通過輸入指令,人類讓AI去完成冗雜的代碼、繪圖、建模等任務(wù),從而生成內(nèi)容。讓AIGC大規(guī)模發(fā)酵的導(dǎo)火索事件發(fā)生在2022年8月31日,當(dāng)日由AI生成的畫作《空間歌劇院(Thétre D'opéra Spatial)》在美國科羅拉多州博覽會的數(shù)字藝術(shù)類美術(shù)比賽中獲得第一名。該獎項(xiàng)的授予除了進(jìn)一步展現(xiàn)出AI的能力,同時(shí)衍生出了一系列倫理與版權(quán)問題,關(guān)于“AI能否替代繪畫工作者”的議論不絕于耳,“AI所替代的是‘實(shí)現(xiàn)’層面的工作,人類創(chuàng)造需要情感、欲望、感受等,而這些是AI所不具備的。”在ZMO.AI創(chuàng)始人兼CEO張?jiān)姮摽磥?,隨著線上化程度越來越高,人類對于優(yōu)質(zhì)內(nèi)容的需求也將呈指數(shù)型增長,在這個(gè)過程中,借助AI可以極大降低內(nèi)容創(chuàng)作門檻,人人都將成為內(nèi)容創(chuàng)作者。ZMO.AI成立于2020年,是一家AIGC引擎平臺構(gòu)建公司。ZMO.AI從電商切入,旨在通過提供人工智能模特圖片解決方案,降低拍照時(shí)間與成本,提升電商轉(zhuǎn)化率。在進(jìn)行了近兩年的積累后,ZMO.AI推出了AIGC引擎——“Yuan初”?!癥uan初”通過幾個(gè)文字關(guān)鍵詞便足以使AI自動生成用戶所需要的圖片。![微信圖片_20221114105811.png 微信圖片_20221114105811.png](https://img1.kchuhai.com/ueditor/image/20221114/6380402049739003488943637.png)
- Yuan初生成圖像 -
融資方面,2022年5月,ZMO.AI完成800萬美元pre A輪融資,投資方為高瓴資本、金沙江創(chuàng)投、GGV紀(jì)源資本;2021年5月,ZMO.AI獲金沙江創(chuàng)投、GGV紀(jì)源資本天使輪投資。![]()
張?jiān)姮摀碛蠻CLA的電氣工程碩士學(xué)位,創(chuàng)立ZMO.AI前,其曾是Apple Air Pods產(chǎn)品線創(chuàng)始團(tuán)隊(duì)核心人員,主要負(fù)責(zé)產(chǎn)品線的系統(tǒng)構(gòu)架研發(fā)、設(shè)計(jì)、生產(chǎn)整個(gè)流程;之后張?jiān)姮撚旨尤隚oogle 擔(dān)任AR系統(tǒng)構(gòu)架師,負(fù)責(zé)Glass、Reflector等項(xiàng)目的算法和構(gòu)架。在多年從業(yè)過程中,張?jiān)姮摽吹搅藘?nèi)容行業(yè)所面臨的供需不匹配問題:當(dāng)疫情使用戶將越來越多的時(shí)間置于線上時(shí),其對于內(nèi)容的質(zhì)量與數(shù)量要求越來越高,但原有的PGC內(nèi)容量受限,UGC的加入雖在一定程度上緩解了內(nèi)容數(shù)量問題,卻也使整體的內(nèi)容生產(chǎn)質(zhì)量變低。張?jiān)姮撜J(rèn)為,當(dāng)人類對內(nèi)容的需求呈指數(shù)型上升時(shí),僅靠人力生產(chǎn)將無法滿足,此時(shí),AI將走上內(nèi)容生產(chǎn)舞臺。而從AI的發(fā)展歷程來看,AI也恰好走到了一個(gè)新的浪潮下。過去AI所扮演的角色更多是進(jìn)行判斷,隨著技術(shù)的不斷突破,AI可以進(jìn)行創(chuàng)作與生成,“我們認(rèn)為AIGC是AI的下一波浪潮?!?/span>在以上底層發(fā)展規(guī)律的支撐之下,AIGC勢必會迎來高速發(fā)展期,而其之所以能在今年下半年開始爆火,主要是AI繪畫產(chǎn)品關(guān)鍵技術(shù)的突破。過去AIGC更多應(yīng)用在自動續(xù)寫小說、劇本等領(lǐng)域,但圖形與文字屬于兩種模態(tài),一直以來,兩種模態(tài)之間難以實(shí)現(xiàn)跨越。在生成模型賽道,此前多是應(yīng)用生成對抗網(wǎng)絡(luò)(GAN),GAN通過對抗學(xué)習(xí)的方式,同時(shí)訓(xùn)練一個(gè)判別器和生成器,兩者互相對抗互相促進(jìn)提升,最終使生成器生成出以假亂真的真實(shí)圖像,讓判別器難以判斷是真是假,以達(dá)到納什均衡。但該種框架在文字生成圖片領(lǐng)域的應(yīng)用仍存在較多問題,比如在操作上因缺乏大模型的加持,文本與圖像多模態(tài)之間的關(guān)聯(lián)性難以充分學(xué)習(xí),導(dǎo)致在非限定場景中的效果較差,甚至在很多情況下,用戶無法通過文本調(diào)整生成結(jié)果。而今年Diffusion model框架的理論開始被應(yīng)用在了圖像生成領(lǐng)域,Diffusion框架在大數(shù)據(jù)訓(xùn)練下所產(chǎn)生的效果更好,通過Diffusion框架訓(xùn)練出的模型,內(nèi)容質(zhì)量可媲美自然界的高清圖像。![微信圖片_20221114105815.png 微信圖片_20221114105815.png](https://img1.kchuhai.com/ueditor/image/20221114/6380402052930786042003032.png)
- Yuan初生成圖像 -
Diffusion model與Open AI提出的CLIP模型相結(jié)合,二者一方提高了圖像的生成質(zhì)量,另一方可以使AI準(zhǔn)確理解用戶所輸入的文字,最終使得AIGC圖片在今年迎來了大爆發(fā)。巨頭紛紛展開布局,谷歌、Meta等紛紛發(fā)布從文字生成視頻,微軟推出disigner工具,將DALL-E內(nèi)容生成功能集成到自己的設(shè)計(jì)編輯軟件內(nèi)。Stable Diffusion、Midjourney、Make-A-Scene、NUWA等平臺短期內(nèi)迅速完成了用戶積累,其中Midjourney在兩個(gè)月收獲了一百萬用戶。![]()
據(jù)張?jiān)姮摻榻B,ZMO.AI從成立之初便一直在生成式AI領(lǐng)域探索。時(shí)尚電商是ZMO.AI最先切入的行業(yè),當(dāng)時(shí)隨著Shein等一批時(shí)尚電商的崛起,耗時(shí)耗力、成本較高的圖片拍攝上傳流程越來越難以滿足極速擴(kuò)張的SKU的需求,ZMO.AI基于GAN創(chuàng)造了一款自定義模特的軟件,商家通過簡單地設(shè)置面部、身高、膚色以及身材等參數(shù)便可以創(chuàng)建服裝模特。除了當(dāng)時(shí)時(shí)尚電商行業(yè)所面臨的痛點(diǎn)較為明顯,ZMO.AI最初選擇從該行業(yè)切入主要是基于兩個(gè)因素:第一,創(chuàng)業(yè)初期ZMO.AI內(nèi)容生成模型的通用性并不強(qiáng),為了在某一領(lǐng)域做到十分精專,ZMO.AI瞄準(zhǔn)了商用可能性最強(qiáng)以及對照片需求最大的電商領(lǐng)域;第二,在張?jiān)姮搱F(tuán)隊(duì)看來,電商是對圖片質(zhì)量要求最高的行業(yè)之一,如果系統(tǒng)可以在電商領(lǐng)域?qū)崿F(xiàn)商用,則也大概率能夠滿足其他領(lǐng)域的需求。但張?jiān)姮搱F(tuán)隊(duì)從一開始想做的便是一家提供底層技術(shù)與引擎的公司來服務(wù)于所有行業(yè),而非針對某個(gè)特定行業(yè)提供圖片。“電商比較容易盈利,但我們并非以盈利為目的與商家進(jìn)行合作,我們并不需要為銷售量、點(diǎn)擊率負(fù)責(zé),而是從數(shù)據(jù)和算法層面與之合作?!痹趶?jiān)姮摽磥?,這個(gè)行業(yè)最接近商業(yè)化的算法與數(shù)據(jù),而非生產(chǎn)出的一幅幅圖片。所以在上文中所提到的技術(shù)就緒之后,今年9月,ZMO.AI推出了AIGC平臺Yuan初。
通過文字的輸入,Yuan初便可以生成真實(shí)的照片、3D形象、插畫、動漫、游戲中的人物形象等。![微信圖片_20221114105824.jpg 微信圖片_20221114105824.jpg](https://img1.kchuhai.com/ueditor/image/20221114/6380402056927114612577660.jpg)
- Yuan初生成圖像 -
具體來講,Yuan初與其他AI繪畫平臺相比,具備以下幾項(xiàng)優(yōu)勢:第一,生成的照片高清逼真、光影自然。借助在電商行業(yè)的積累,Yuan初獲得了大量的內(nèi)容生成與數(shù)據(jù)反饋,并在此過程中不斷提升生成模型對于照片光影、細(xì)節(jié)的處理能力,如果不仔細(xì)分辨,很難看出究竟是AI生成還是人類拍攝的圖片。第二,Yuan初生成的3D模型細(xì)節(jié)更考究。Yuan初可以適應(yīng)常見的材質(zhì),比如塑料、亞克力、玻璃等,在不同材質(zhì)下呈現(xiàn)出不同的質(zhì)感與光影效果。第三,Yuan初生成出的插畫更加符合現(xiàn)代插畫師的藝術(shù)感覺。Yuan初在生成模型的訓(xùn)練中借鑒了業(yè)內(nèi)專業(yè)插畫師的作品,團(tuán)隊(duì)通過和網(wǎng)頁,PPT, 海報(bào)插畫師大量合作后,獲得了一些專業(yè)素材,這使其可以處理一萬種插畫風(fēng)格,最終保證能夠適配不同行業(yè)的設(shè)計(jì)師需求。第四,Yuan初對于真實(shí)產(chǎn)品具備設(shè)計(jì)能力。以建筑行業(yè)為例,一般需要設(shè)計(jì)師先畫草圖、再繪制彩繪圖、最后形成3D圖,而借助Yuan初,設(shè)計(jì)師輸入想法便可以得到最終的想要的設(shè)計(jì)圖。第五,Yuan初具備文字版Photoshop的功能。Photoshop擁有著極為強(qiáng)大的功能,但其操作復(fù)雜,長期以來被作為一項(xiàng)專業(yè)技能,這就使得用戶使用Photoshop進(jìn)行創(chuàng)作的門檻極高,Yuan初可以做到,用戶不需要學(xué)習(xí)Photoshop,借助平臺的文字描述和擦除功能,便可以獲得真實(shí)感較強(qiáng)的圖片。![微信圖片_20221114105831.gif 微信圖片_20221114105831.gif](https://img1.kchuhai.com/ueditor/image/20221114/6380402058442101269991554.gif)
- Yuan初生成圖像 -
以AI進(jìn)行Photoshop的難點(diǎn)在于如何使光影和諧同時(shí)降低PS感,在此類問題上,Yuan初也遇到了非常多阻礙,其在處理過程中加入了3D,并對算法結(jié)構(gòu)與細(xì)節(jié)進(jìn)行了調(diào)優(yōu)處理,最終使得生成的內(nèi)容更真實(shí)。目前Yuan初的用戶包含工作需要生成基礎(chǔ)元素的設(shè)計(jì)師與插畫師,需要產(chǎn)出大量內(nèi)容的博主與社交媒體內(nèi)容工作者,游戲、動畫形象的設(shè)計(jì)師,以及需要進(jìn)行Photoshop的人群(以電商用戶為主)。在張?jiān)姮摽磥?,未來?nèi)容生產(chǎn)方式將會產(chǎn)生巨大的變革——一種全新交互式內(nèi)容生成模式將成為主流。“現(xiàn)在平臺會根據(jù)算法為我們推薦我們所喜歡的內(nèi)容,但這些內(nèi)容是靜態(tài)的,并不會因?yàn)橥扑]給不同用戶而發(fā)生改變。在未來,內(nèi)容生成可以是實(shí)時(shí)高效,并會根據(jù)用戶的不同產(chǎn)生變化的?!?/span>這種模式之下,內(nèi)容領(lǐng)域變得更加精準(zhǔn)與個(gè)性化,內(nèi)容消費(fèi)者也會在無形中變成內(nèi)容生產(chǎn)者,而在這背后,需要AI承擔(dān)起“實(shí)現(xiàn)者”的角色。![]()
立即登錄,閱讀全文