TANGO Model TANGO是一个基于层次化音频-运动嵌入和扩散插值的共语手势视频重现技术。它利用先进的人工智能算法,将语音信号转换成相应的手势动作,实现视频中人物手势的自然重现。这项技术在视频制作、虚拟现实、增强现实等领域具有广泛的应用前景,能够提升视频内容的互动性和真实感。TANGO由东京大学和CyberAgent AI Lab联合开发,代表了当前人工智能在手势识别和动作生成领域的前沿水平。
FramePack FramePack 是一个创新的视频生成模型,旨在通过压缩输入帧的上下文来提高视频生成的质量和效率。其主要优点在于解决了视频生成中的漂移问题,通过双向采样方法保持视频质量,适合需要生成长视频的用户。该技术背景来源于对现有模型的深入研究和实验,以改进视频生成的稳定性和连贯性。
MM_StoryAgent MM_StoryAgent 是一个基于多智能体范式的故事视频生成框架,它结合了文本、图像和音频等多种模态,通过多阶段流程生成高质量的故事视频。该框架的核心优势在于其可定制性,用户可以自定义专家工具以提升每个组件的生成质量。此外,它还提供了故事主题列表和评估标准,便于进一步的故事创作和评估。MM_StoryAgent 主要面向需要高效生成故事视频的创作者和企业,其开源特性使得用户可以根据自身需求进行扩展和优化。
Sieve Eye Contact Correction Sieve Eye Contact Correction API 是一个为开发者设计的快速且高质量的视频眼神校正API。该技术通过重定向眼神,确保视频中的人物即使没有直接看向摄像头,也能模拟出与摄像头进行眼神交流的效果。它支持多种自定义选项来微调眼神重定向,保留了原始的眨眼和头部动作,并通过随机的“看向别处”功能来避免眼神呆板。此外,还提供了分屏视图和可视化选项,以便于调试和分析。该API主要面向视频制作者、在线教育提供者和任何需要提升视频交流质量的用户。定价为每分钟视频0.10美元。
PPLLaVA PPLLaVA是一个高效的视频大型语言模型,它结合了细粒度视觉提示对齐、用户指令的卷积风格池化的视觉令牌压缩以及CLIP上下文扩展。该模型在VideoMME、MVBench、VideoChatGPT Bench和VideoQA Bench等数据集上建立了新的最先进结果,仅使用1024个视觉令牌,吞吐量提高了8倍。
Video Prediction Policy Video Prediction Policy(VPP)是一种基于视频扩散模型(VDMs)的机器人策略,能够准确预测未来的图像序列,展现出对物理动力学的良好理解。VPP利用VDMs中的视觉表示来反映物理世界的演变,这种表示被称为预测性视觉表示。通过结合多样化的人类或机器人操控数据集,并采用统一的视频生成训练目标,VPP在两个模拟环境和两个真实世界基准测试中均优于现有方法。特别是在Calvin ABC-D基准测试中,相较于先前的最佳技术,VPP实现了28.1%的相对改进,并在复杂的真实世界灵巧手操控任务中提高了28.8%的成功率。
genmoai genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
Kawara AI Kawara AI 是一款面向视频创作者的 AI 工具,通过智能组织和搜索视频文件,帮助用户高效管理视频素材。其核心功能包括自动剪辑、视频搜索和无缝集成等,旨在提升视频创作的生产力。产品目前提供免费试用,定位为视频创作者的得力助手,致力于简化视频编辑流程,节省时间和精力。