包括 Pika 1.0 和 Pika 2.0,这些模型在处理活动主体的真实性方面进行了优化,尽管在复杂行为生成上仍面临挑战。
Pippo 是 Meta Reality Labs 推出的图像到 视频生成 模型,能从单张照片生成 1K 分辨率的多视角高清人像视频。
Runway Gen系列包括 Runway Gen-2 和其后续升级版本 Runway Gen-3,这些模型专注于从文本到视频的转换,展示了在物体运动和场景生成方面的进步。
Sa2VA 是字节跳动联合加州大学默塞德分校、武汉大学和北京大学共同推出的多模态大语言模型,是 SAM2 和 LLaVA 结合而成,能实现对图像和视频的密集、细粒度理解。
Sora 由 OpenAI 于 2024 年 2 月推出,Sora 模型因其生成逼真视频的能力而受到关注,能够根据简短的文字指令生成长达 60 秒的高清视频。
Stable Video Diffusion 是 Stability AI 发布的一种开源潜在扩散模型,支持文本生成视频和图像生成视频以及物体从单一视角到多视角的 3D 合成。
Goku 是香港大学与字节跳动合作开发的视频生成模型,支持文本到视频、图像到视频、文本到图像等多种生成任务。基于 Rectified Flow Transformer 架构,通过多模态训练,Goku能够生成自然互动的广告视频,显著降低制作成本。
Pippo 是 Meta Reality Labs 推出的图像到 视频生成 模型,能从单张照片生成 1K 分辨率的多视角高清人像视频。