跳到内容

晚上好,辛苦一天了,放松一下吧。

Wan.Video

Wan.Video

Alibaba Wan AI platform provides a variety of AI generation functions such as text-to-video and image-to-video. Based on the open-source Wan 2.1 model, it supports both Chinese and English and can run on consumer-grade graphics cards. It is suitable for content creators, designers and developers to quickly produce social media content or professional videos, and can also be developed twice through open source code.

浏览 342 收藏 0 外链点击 0 更新 2026年4月15日
适用地区
全球
适用平台
以官网说明为准
是否免费
以官网与标签为准

Wan AI 是什么?

访问 https://wan.video,你会进入一个由阿里巴巴 Wan AI 团队打造的创意工坊。它的核心很简单:用文字或图片,让 AI 帮你生成视频。无论是让一张静态的猫图动起来,还是凭空想象一段故事短片,这个平台都能试试看。

它能做什么?

Wan AI 的功能围绕“生成”展开,把想法变成动态画面。

用文字生成视频

输入一段描述,比如“两只拟人化的猫在拳击台上对决”,选择好分辨率和时长,AI 就会开始工作。它的 Wan 2.1 模型有个特别之处:生成视频里的中英文字幕效果很清晰,这对需要带字幕的内容很友好。

让图片动起来

上传一张照片,再告诉 AI 你想让它怎么动。比如给一张风景照加上“风吹麦浪”的效果,它就能生成一段短视频。你可以选择不同的画面比例,适配手机竖屏或是电脑横屏。

AI 视频编辑

除了生成,还能修改。平台提供了一些编辑工具,比如保持视频里人物姿态不变只换背景,或者修复视频中缺失的片段。这些功能更偏向专业一点的后期处理。

其他实用工具

平台还尝试了一些有趣的功能,比如根据视频内容自动配上背景音乐,或者你只提供视频的开头和结尾,让 AI 自动补全中间的过程。这些功能还在完善中。

技术上有何不同?

Wan AI 的底气来自其开源的 Wan 2.1 系列模型。

两种模型,丰俭由人

它提供了两种选择:轻量版的 1.3B 参数模型,用一块像 RTX 4090 这样的消费级显卡就能跑起来,生成一段短视频大概需要几分钟;专业版的 14B 参数模型,效果更强,适合追求高分辨率(720p或1080p)和复杂场景的用户,不过对硬件要求也更高。

完全开源,欢迎折腾

模型代码和权重都在 GitHub 和 Hugging Face 上公开。这意味着开发者可以下载到自己的电脑上运行,也可以基于它进行二次开发。社区里已经出现了不少衍生工具,比如专门做人物动画的版本,或者能优化显存占用的插件。

对硬件比较友好

轻量模型降低了玩 AI 视频的门槛。通过一些优化技术,比如 FP8 量化,还能进一步提升生成速度。

谁会用得上它?

内容创作者和营销人员: 快速生产短视频内容,用于社交媒体或广告。
设计师和视频制作人: 作为创意辅助工具,生成素材或进行概念预览。
开发者和研究者: 开源模型是学习和实验的好材料,也可以集成到自己的应用里。

如何开始使用?

最简单的方法是直接访问官网,用阿里云账号登录即可在线体验大部分功能。
对于开发者,可以去 GitHub 下载模型和代码,在本地部署。官方提供了详细的配置指南,从消费级显卡到多卡专业配置都有对应方案。社区也贡献了像 ComfyUI 这样的图形化工作流工具,让本地运行变得更直观。

发表评论

正文
强调色