avatar
R99
02-08

看了不少 Seedance 2.0 的样片,简单说几句感受。 现在很多人其实没抓到重点。讨论的无非是一致性很牛or提示词遵循很强,比如给到非常细的提示词:0–3 秒出什么效果、3–5 秒出什么效果。 说实话,这种一看就不是影视行业的人,更像是纯玩 AI 的。 因为不管是一致性,还是提示词遵循,本质上都是 Veo 3 半年前就已经玩明白的东西,并不是什么新能力。 Seedance 2.0 真正恐怖的地方(如果真如demo演示)在于: 它表面是一个视频生成工具,实际上干的是导演 + 剪辑的活。 放在今天的流程里,我们做一个完整成片早就已经高度流程化了: 分镜提示词 → 分镜生图 → 图生视频。 在香蕉 Pro的工具加持下,一致性这件事完全可以做到不输 Seedance 2.0,甚至因为每一张分镜都能单独调整,可控性反而更强。 真正拉开差距的,从来就不在一致性,而在分镜处理和剪辑能力。 同样的素材,给不同的人剪,结果天差地别。 这和素材本身关系不大,本质是剪辑思维的差距: 分镜和分镜之间如何找剪辑点,哪怕只错几帧,观感都会完全变样。真的干过几年剪辑的,都知道我在说什么。 而这套经验,正是影视从业者相对于AI视频玩家最大的壁垒,也是他们一直以来的护城河。 Seedance 2.0的出现,真正可怕的是:它在直接拆这条护城河。 我看到的 Seedance 2.0 成片,厉害的并不是一致性,而是那种非常自然、甚至接近专业剪辑水平的分镜切换。 更要命的是,要做到这种效果,甚至不需要你精确指定每几秒切一个分镜,只给一个统筹层面的提示词就够了。 而在过去,我们想要同样的观感,需要手动调分镜, 切得太硬还得额外补素材做过渡。 现在用 Seedance 2.0,这一步直接被模型吃掉了。 我不知道字节给 Seedance 2.0 喂了多少素材,才把模型推到这个层级。 但至少从这次展示来看,字节这条路线,是真的走对了。 #Seedance

来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论