阿里刚刚开源的通义万相Wan2.2,印象最深的是其生成人体后空翻的能力,几乎无瑕疵
其次是它的美学表达,电影大片的既视感,对光和色调的理解,镜头的运用,以及镜头中人物情绪的表达都提升了几个级别
这次开源了三款模型 文生视频:Wan2.2-T2V-A14B,MoE架构 图生视频:Wan2.2-I2V-A14B,MoE架构 统一视频生成:Wan2.2-IT2V-5B
在同参数下可节省约50%的计算资源消耗
同时,还开源了一款5B的小尺寸统一视频生成模型,可在消费级显卡部署,22G显存(单张消费级显卡)即可在数分钟内生成5秒高清视频
GitHub:https://github.com/Wan-Video/Wan2.2 HuggingFace:https://huggingface.co/Wan-AI 魔搭社区:https://modelscope.cn/organization/Wan-AI