谷歌研究人员推出了创新性文本生成视频模型——Lumiere。与传统模型不同的是,Lumiere采用了一种时空扩散(Space-time)U-Net架构,可以在单次推理中生成整个视频的所有时间段,能明显增强生成视频的动作连贯性,并大幅度提升时间的一致性。此外,Lumiere为了解决空间超分辨率级联模块,在整个视频的内存需求过大的难题,使用了Multidiffusion方法,同时可以对生成的视频质量、连贯性进行优化。
来源:AIGC开放社区
未经允许不得转载:爱AI工具库 » 文本生成高清、连贯视频,谷歌推出时空扩散模型