圖像生成AI現(xiàn)在已經(jīng)變得越來越強(qiáng)大,不過視頻生成則不是那么容易。最近Google就發(fā)布了最新的一個(gè)視頻生成模型,可以提供更暢順的視頻。
Google新公布的Lumiere視頻生成模型采用了全新的Diffusion模型技術(shù)STUNet,可以讓模型認(rèn)知對象在時(shí)間和空間中的定位,從而一次過生成整個(gè)視頻,使動(dòng)作更加流暢自然。以前的技術(shù)雖然可以逐格生成視頻,不過連貫性始終有一定缺陷,讓人感到不自然。
Lumiere的視頻生成最多可以制作80格,比Stable Video Diffusion模型的25格要多,而且可以支持文本指令、圖片風(fēng)格指令以及視頻編輯指令等,用法相當(dāng)多樣化。不過目前Lumiere只是研究階段,未來實(shí)際提供相關(guān)產(chǎn)品相信還有一段長時(shí)間,特別是在解決濫用風(fēng)險(xiǎn)之前應(yīng)該不會(huì)對外公開。