avatar
R99
02-08

看了不少 Seedance 2.0 的樣片,簡單說幾句感受。 現在很多人其實沒抓到重點。討論的無非是一致性很牛or提示詞遵循很強,比如給到非常細的提示詞:0–3 秒出什麼效果、3–5 秒出什麼效果。 說實話,這種一看就不是影視行業的人,更像是純玩 AI 的。 因為不管是一致性,還是提示詞遵循,本質上都是 Veo 3 半年前就已經玩明白的東西,並不是什麼新能力。 Seedance 2.0 真正恐怖的地方(如果真如demo演示)在於: 它表面是一個視頻生成工具,實際上乾的是導演 + 剪輯的活。 放在今天的流程裡,我們做一個完整成片早就已經高度流程化了: 分鏡提示詞 → 分鏡生圖 → 圖生視頻。 在香蕉 Pro的工具加持下,一致性這件事完全可以做到不輸 Seedance 2.0,甚至因為每一張分鏡都能單獨調整,可控性反而更強。 真正拉開差距的,從來就不在一致性,而在分鏡處理和剪輯能力。 同樣的素材,給不同的人剪,結果天差地別。 這和素材本身關係不大,本質是剪輯思維的差距: 分鏡和分鏡之間如何找剪輯點,哪怕只錯幾幀,觀感都會完全變樣。真的幹過幾年剪輯的,都知道我在說什麼。 而這套經驗,正是影視從業者相對於AI視頻玩家最大的壁壘,也是他們一直以來的護城河。 Seedance 2.0的出現,真正可怕的是:它在直接拆這條護城河。 我看到的 Seedance 2.0 成片,厲害的並不是一致性,而是那種非常自然、甚至接近專業剪輯水平的分鏡切換。 更要命的是,要做到這種效果,甚至不需要你精確指定每幾秒切一個分鏡,只給一個統籌層面的提示詞就夠了。 而在過去,我們想要同樣的觀感,需要手動調分鏡, 切得太硬還得額外補素材做過渡。 現在用 Seedance 2.0,這一步直接被模型吃掉了。 我不知道字節給 Seedance 2.0 餵了多少素材,才把模型推到這個層級。 但至少從這次展示來看,字節這條路線,是真的走對了。 #Seedance

來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論