Midjourney+Gen2,7步完成「芭本海默」,引Karpathy惊呼|附实测经验

2023-09-23 10:36 253 阅读 ID:1456
新智元
新智元

在前两天芭比海默全网爆火之后,不断有网友“复现”用MidJourney+Gen-2制作电影的神技!

而一位网友更新了一个自己的教程,制作芭本海默只需7步,被Karpathy盛赞为“电影制作工业2.0”。

一部20秒钟,有完整剧情,包含6个分镜头的动画短片,7步完成,曹植看了都要直呼内行!

7步完成芭比海默,效果惊人

下面就给大家具体演示一下:

1. ChatGPT帮你写分镜头剧本,顺便再帮你把字幕也写好

2. 根据分镜头脚本,用Midjourney生成每个镜头的开始的一张图片。

这里可能是7步成片中唯一一步稍微有点门槛的操作,每张图片的提示词要自己创作。

但是点击图片放大之后可以看到提示词也不是很长,有一点英语基础的朋友稍微试一下就能做到。

这是短片中另外几个场景的起始图片,也全都是用Midjourney生成。

3. 为了保证短片中的场景色调一致,需要用修图软件调整一下每张图片的色调。

比如短片里的色调是比较复古的风格,Midjourney生成的原图可能不符合。

用任意一款修图软件调整过后,就能让所有场景的风格比较一致了。

4. 使用Gen-2让每一张照片动起来,把6张照片变为6个分镜头。

5.然后用ElevenLabs生成字幕的语音。

6. 然后用FinalCut Pro把动画,声音,和特效结合起来,短片就基本完成了。

7. 再用Capcut添加好字幕,大功告成!

实测之后发现的经验

虽然看着简单,但是亲手实测了一波后发现,没有一个清晰的规划,要想做出自己效果满意的电影,还是很不容易的。

最大的障碍在于,因为Gen-2的动画只能以某一张图随机生成,所以在涉及人脸画面的时候,畸变会比较多。

本来想做一个马老板手搓星舰的视频,但是发现人物面部的畸变太严重了,以至于每段视频只有第一帧图片是马老板本人,一秒钟之后就不知道会变成谁了。

所以如果想要用Gen-2做一个明星相关的视频,现在为止还几乎不可能。

而且这些面部畸变和人物动作时完全随机的,完全不受用户控制。

有一位网友做了一段视频,把每4秒的最后一帧截图下来让Gen-2继续生成新动画。

大概40秒之后,画面中的人物,从一开始的美漫风格的动画角色,最后几乎畸变成了雕塑。

即便图片中有一些比较明显的动态提示的效果,但是Gen-2还不能理解,所以生成的效果也不一定符合你的预期。

人物的动作也没有办法太好的控制,可能为了要生成一段自己满意的动画需要用同一张图尝试好长时间。

所以就目前Gen-2能实现的效果来看,还不太可能随意适应比较复杂的剧本。

所以就要求写剧本时要尽量避免近景人脸特写等场景。

但是如果未来Gen-2能够将prompt和图片完全结合起来,让图片能够跟着prompt的描述动起来,效果就会有一个巨大的飞跃。

其他的Midjourney+Gen-2的效果

大神歸藏,用Gen-2做了几个《奥本海默》中的场景,足以以假乱真。

同时,他还比较了相似的场景和Pika Lab生成的区别。

下图是Pika Lab的效果。

除了开头这段「芭比海默」之外,很多网友也用Gen-2和Midjouney这对黄金搭档做起了动画开发的副业。

让我们来欣赏几组效果不错的动画效果演示。

可以看出,在演示之中人脸的效果变形不是很大,这与实测的差异很大,很有可能是因为作者试了很多次之后找到的脸部畸变不大的效果。

有网友生成了一部名人漫威角色的预告片,效果非常逼真,配上一点动画特效和光影,感觉真的像是漫威官方的作品。

这是网友生成的一段恐怖电影的预告片,反而很好的利用了Gen-2人物画面畸变,增加了恐怖片的氛围感。

这一段也是网友用MJ+Gen-2做的艺术感很强的视频,加上后期跟新的导演运镜特效。

这是一幅用油画的静图生成的动画,虽然有一点畸变,但是效果确实不错。

参考资料:

https://twitter.com/karpathy/status/1684608881920802816

https://twitter.com/kalsonkalu/status/1684534663472087042

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn