大家好,我是 Jack。
AI 的下一个风口是什么?
前有 runway、后有 Pika,AI 一键生成视频无疑是爆火项目之一。
但很多时候,宣传得很好,但只要一用就会发现很拉胯。
并且这些还都是国外的产品,国内用户体验起来门槛颇高。
其实,国内早已有了一些类似的产品,今天就盘点一下在国内就能体验的算法。

一、AnimateDiff

AnimateDiff 是开源算法,可以结合 Stable Diffusion 体验。
输入一张图示图片:
结合一些 prompt 描述,以及特定运动的模型,就能获得动图。
这个也是 AnimateDiff + Stable Diffusion 生成的。
项目开源地址:
https://github.com/guoyww/AnimateDiff
SD插件开源地址:
https://github.com/continue-revolution/sd-webui-animatediff
AnimateDiff 的效果确实不错,并且已经开源。但用起来也有一定的局限性,能用的动作比较单一,想要更多的动图效果,只能训练更多的动作模型。

二、Animate AnyOne

这个是阿里发布的算法,我抢先体验了下:
再配上跳舞 BGM,科目三啥的,效果非常不错。
由于动图太大了,这里只截取放了一小段的效果,也没有 BGM,更多完整的效果可以看我最新发布的视频:
https://www.bilibili.com/video/BV1ow411g7WP/
这个算法上个月很多人应该都看过了:
原始图 + 骨骼动画引导 = 对应的视频。
由于一直没有开源,很多人都没有实际体验过。
不过就在今天(1月3日),Animate AnyOne 上线通义千问,下载个通义千问 App,在提示框中输入:通义舞王,就能体验。
我新发布的视频有详细的使用方法,感兴趣的小伙伴可以看下:
https://www.bilibili.com/video/BV1ow411g7WP/
期待 Animate AnyOne 的进一步开源!

三、Magic Animate

这个我就不多说了,之前写文章简单介绍过 Magic Animate,字节开源的新算法。
项目地址:
https://github.com/magic-research/magic-animate
使用体验上,感觉 Animate AnyOne 生成效果更稳定些。
今天就聊这么多吧,我热爱技术分享的 Jack。
我们下期见!
·················END·················

推荐阅读

继续阅读
阅读原文