Stability AI推出视频生成工具“稳定视频扩散”

Stability AI推出了一款名为“稳定视频扩散(Stable Video Diffusion)”的新型AI模型,旨在通过给现有图像添加动画,生成视频。这款新模型是基于Stability AI之前的文本到图像模型“稳定扩散(Stable Diffusion)”取得的成功,在公司致力于使生成式AI视频模型普及化的任务中具有重大意义。该模型现已提供研究预览版,并且Stability AI的目标是创建面向所有人的模型。该公司已在GitHub上公开发布了Stable Video Diffusion的代码,以及一篇详细的研究论文。该模型由两个图像到视频模型组成,分别可生成14和25帧,每秒可定制帧率在3到30之间。Stability AI表示,该模型在用户偏好研究中超过了主流闭源模型。然而,需要注意的是,该模型目前并不适用于实际应用或商业应用。Stability AI正在积极寻求用户反馈,以改进模型的安全性和质量方面。

除了稳定视频扩散之外,Stability AI还推出了“稳定3D”,旨在简化生成概念级质地纹理的3D对象的过程。这个工具目前处于私人预览阶段,面向平面设计师、数字艺术家和游戏开发者。用户可以通过选择图像或提供文本提示,快速创建草图质量的3D模型。Stability AI在生成式AI模型的探索不仅限于视频生成,还延伸到3D模型的创建领域,推出了稳定3D。

下一页
上一页