AnimateAnyone AnimateAnyone是一个基于深度学习的视频生成模型,它能够将静态图片或视频转换为动画。该模型由Novita AI非官方实现,灵感来源于MooreThreads/Moore-AnimateAnyone的实现,并在训练过程和数据集上进行了调整。
Video-Infinity Video-Infinity 是一种分布式长视频生成技术,能够在5分钟内生成2300帧的视频,速度是先前方法的100倍。该技术基于VideoCrafter2模型,采用了Clip Parallelism和Dual-scope Attention等创新技术,显著提高了视频生成的效率和质量。
CogVideoX-2B CogVideoX-2B是一个开源的视频生成模型,由清华大学团队开发。它支持使用英语提示语言生成视频,具有36GB的推理GPU内存需求,并且可以生成6秒长、每秒8帧、分辨率为720*480的视频。该模型使用正弦位置嵌入,目前不支持量化推理和多卡推理。它基于Hugging Face的diffusers库进行部署,能够根据文本提示生成视频,具有高度的创造性和应用潜力。
Xpression Camera Xpression Camera是一个屡获殊荣的虚拟摄像机应用程序,允许用户通过一张照片立即变身为任何带有面部的人或物,无需任何处理时间。xpression相机可以让用户在实时聊天(例如Zoom)、在Twitch直播或创建YouTube视频时实时重新定义他们的屏幕角色。
Audiolabs 将您的播客转换为适合TikTok、YouTube Shorts和Reels的短视频。吸引新的播客听众,实现商业目标。在短视频平台上发布视频剪辑,可作为“钩子”吸引听众发现您的内容库,并收听完整的剪辑或其他营销目标。
Open-Sora Plan v1.2 Open-Sora Plan v1.2是一个开源的视频生成模型,专注于文本到视频的转换任务。它采用3D全注意力架构,优化了视频的视觉表示,并提高了推理效率。该模型在视频生成领域具有创新性,能够更好地捕捉联合空间-时间特征,为视频内容的自动生成提供了新的技术路径。
VideoTetris VideoTetris是一个新颖的框架,它实现了文本到视频的生成,特别适用于处理包含多个对象或对象数量动态变化的复杂视频生成场景。该框架通过空间时间组合扩散技术,精确地遵循复杂的文本语义,并通过操作和组合去噪网络的空间和时间注意力图来实现。此外,它还引入了一种新的参考帧注意力机制,以提高自回归视频生成的一致性。VideoTetris在组合文本到视频生成方面取得了令人印象深刻的定性和定量结果。
Runway API Runway API是一个强大的视频模型平台,提供先进的生成视频模型,允许用户在安全、可靠的环境中嵌入Gen-3 Alpha Turbo到他们的产品中。它支持广泛的应用场景,包括创意广告、音乐视频、电影制作等,是全球顶尖创意人士的首选。