凤凰网科技讯 2月26日,25日深夜阿里云视频生成大模型万相2.1(Wan)正式宣布开源,此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务。
据阿里云官方介绍,14B版本万相模型在指令遵循、复杂运动生成、物理建模、文字视频生成等方面表现突出,在权威评测集Vbench中,万相2.1以总分86.22%大幅超越Sora(OpenAI旗下)、Luma、Pika等国内外模型,稳居榜首位置。
1.3B版本万相模型不仅超过了更大尺寸的开源模型,甚至还和一些闭源的模型结果接近,同时能在消费级显卡运行,仅需8.2GB显存就可以生成480P视频,适用于二次模型开发和学术研究。
万相大模型在多个内部和外部基准测试中,均大幅超越现有的开源模型以及顶尖商业闭源模型。万相能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等;能够精准还原碰撞、反弹、切割等复杂真实物理场景。
在指令遵循能力方面,能够准确理解中英文长文本指令,还原各种场景切换、角色互动。
随着万相的开源,阿里云两大基模全部开源,实现了全模态、全尺寸大模型的开源。
附万相模型生成demo展示
首个具备支持中文文字生成能力,且同时支持中英文文字特效生成的视频生成模型:
更稳定的复杂运动生成能力:
更灵活的运镜控制能力:
更好的物理规律理解、更好的模拟真实的世界:
高级质感、多种风格、多长宽比:
图生视频,让创作更可控: