我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。

“AI視頻創(chuàng )作現在已經(jīng)從幼兒園進(jìn)化到了小學(xué),迭代以天計算。”AIGC(人工智能生成內容)創(chuàng )作者劉歸源告訴記者試用Seedance 2.0的體驗。
“Seedance 2.0已經(jīng)接近于一款工業(yè)化內容生產(chǎn)工具,在成本效率與穩定可控性上更具優(yōu)勢,適合商業(yè)內容批量生產(chǎn)。”四川大學(xué)中華文化傳承與全球傳播數字融合實(shí)驗室執行主任宋耀說(shuō)。
1
創(chuàng )新:雙分支擴散架構
2月9日,字節跳動(dòng)發(fā)布視頻生成模型Seedance 2.0測試版,引發(fā)全網(wǎng)熱議。
“你可以理解為,以前的AI是畫(huà)家,現在Seedance是編劇+分鏡師+攝影師三位一體。”宋耀說(shuō),過(guò)去兩年,AI視頻生成的最大痛點(diǎn)并非畫(huà)質(zhì),而是連貫性。早期模型本質(zhì)上是逐幀生成+簡(jiǎn)單拼接,每一幀獨立繪制,再靠后期處理強行對齊。結果便是角色面孔隨機變化、手指數目錯亂、背景忽明忽暗——業(yè)內戲稱(chēng)“抽卡地獄”(抽卡類(lèi)游戲用語(yǔ))。“Seedance 2.0的突破,在于引入了所謂‘雙分支擴散架構’。”宋耀解釋說(shuō)。
這個(gè)架構,本質(zhì)上是在傳統擴散模型上疊加了一個(gè)長(cháng)期時(shí)序控制的大腦。而所謂“雙分支”,可以通俗理解為一條分支負責畫(huà)面生成,另一條分支負責整體敘事與時(shí)序控制。“前者仍然使用擴散模型來(lái)生成高質(zhì)量圖像幀,后者則承擔‘導演’角色,負責記住人物身份、動(dòng)作軌跡、鏡頭邏輯以及場(chǎng)景狀態(tài)。”這種設計使模型不再是每一幀獨立創(chuàng )作,而是在一個(gè)持續存在的狀態(tài)中推進(jìn)畫(huà)面,因此角色不會(huì )在不同鏡頭中隨機變臉,動(dòng)作也能保持物理連續性,鏡頭切換時(shí)的空間關(guān)系與光線(xiàn)條件能夠維持一致,從根本上緩解了早期A(yíng)I視頻常見(jiàn)的“畫(huà)面崩壞”“角色漂移”“動(dòng)作斷裂”等頑疾。
2
從“抽卡”到快速出視頻
四川傳媒學(xué)院跨媒體藝術(shù)專(zhuān)業(yè)主任劉歸源長(cháng)期關(guān)注AIGC發(fā)展和應用。“每個(gè)大廠(chǎng)的模型都各有特點(diǎn),我們通常是幾種工具交替使用,配合不同模型,提升效率。”他坦言,在Seedance 2.0出來(lái)之前,做一條30秒的AI視頻,實(shí)屬“勞動(dòng)密集工作”。“光是修圖就得反復‘抽卡’,平均一張圖要改4到5次,才能用。而一個(gè)幾十秒的視頻,背后可能要生成200到300張圖,再手動(dòng)篩選、拼接。整個(gè)流程特別繁瑣——先寫(xiě)文字腳本,再分鏡,然后出圖,轉視頻,最后剪輯合成,要花幾個(gè)小時(shí)。”
現在,只需要提供足量細節的提示詞、有效的首尾幀畫(huà)面,AI就能在短時(shí)間內生成一段運鏡流暢、轉場(chǎng)絲滑的短視頻。劉歸源展示了一個(gè)用Seedance 2.0生成的15秒動(dòng)畫(huà),“整個(gè)時(shí)間差不多半個(gè)小時(shí)。”
如果說(shuō)去年的AI出圖水平還停留在“幼兒園級別”,現在Seedance 2.0一出,算是進(jìn)階到了“小學(xué)級別”。在劉歸源看來(lái),這還不是結束,“很快也會(huì )有其他廠(chǎng)牌超越它——這場(chǎng)AI視頻戰爭,技術(shù)迭代是以‘天’為單位的。”
3
技術(shù)、數據造就“中國版sora”
“海外評測認為Seedance 2.0在角色一致性與多鏡頭敘事上優(yōu)于sora 2,這一優(yōu)勢既來(lái)自架構設計,也來(lái)自訓練數據結構。”宋耀補充說(shuō),“架構層面,Seedance顯然更強調角色持久狀態(tài)與鏡頭邏輯控制,而sora更強調物理世界模擬與場(chǎng)景生成,因此前者在人物驅動(dòng)敘事上更穩定。”
“數據層面,中國短視頻生態(tài)提供了海量連續劇情、口播與電商視頻素材,這類(lèi)內容天然具有角色連續、鏡頭密集與節奏明確的特征,使模型在訓練中更容易學(xué)習到工業(yè)化敘事結構??梢哉f(shuō),技術(shù)與數據的雙重因素共同造就了其在多鏡頭敘事上的優(yōu)勢。”宋耀分析。與此觀(guān)點(diǎn)一致,劉歸源把這次字節跳動(dòng)在A(yíng)I視頻創(chuàng )作工具的暫時(shí)領(lǐng)先,歸結于Seedance 2.0對字節旗下抖音等短視頻平臺海量數據(22.800, 0.54, 2.43%)的學(xué)習。
4
整體風(fēng)格更偏向“內容生產(chǎn)流水線(xiàn)”
與其他模型不同,字節走出了工業(yè)風(fēng)。
“從橫向對比來(lái)看,Seedance 2.0與國際主流模型的定位差異十分明顯。OpenAI推出的sora更偏向世界模擬與通用視頻生成,其目標是構建能夠理解物理世界與復雜場(chǎng)景的通用生成模型。”宋耀認為,Seedance 2.0的差異化定位則更接近工業(yè)化內容生產(chǎn)工具,尤其面向短視頻、廣告、電商與劇情短內容的高效生成,因此在角色穩定性、鏡頭可控性與音畫(huà)同步方面投入更多架構優(yōu)化。這也使Seedance 2.0的整體風(fēng)格更偏向“內容生產(chǎn)流水線(xiàn)”,而非藝術(shù)實(shí)驗型模型。
“在生成時(shí)長(cháng)、分辨率與成本效率方面,Seedance 2.0大概率處于全球第一梯隊,但偏工業(yè)應用。”宋耀評價(jià)說(shuō)。其生成時(shí)長(cháng)與分辨率可能略低于最激進(jìn)的研究型模型,但在成本效率與穩定可控性上更具優(yōu)勢,適合商業(yè)內容批量生產(chǎn)。

從“抽卡”到“成片”:Seedance 2.0重構視頻創(chuàng )作? 09:20:36
微軟發(fā)布兩款全新 Windows 365 專(zhuān)用迷你電腦 11:50:27
Google Translate引入更多Gemini AI功能 強化學(xué)習與語(yǔ)境理解能力? 11:47:26
蘋(píng)果Xcode 26.3上線(xiàn):AI編程從“給建議”到“寫(xiě)代碼” 11:23:17
阿里千問(wèn)AI眼鏡將在MWC 2026發(fā)布,3月2日開(kāi)啟預約 11:19:01
微信員工談微信新功能!可一鍵查看文件在哪些聊天被用 10:44:15