#AI視訊生成
實測Seedance 2.0:普通人做短片只需3步,效果炸裂
沒想到,我們的國產AI視訊生成模型能做到這種程度!不說廢話,先看效果!這是我輸入到Seedance 2.0的圖,一個有點傲氣的小雞我讓ChatGPT寫了個劇情,想看看Seedance2.0能不能按照劇情給我生成視訊小公雞走在路上,面向鏡頭。突然,它遇到了一隻笨拙的。鏡頭迅速切換,聚焦在小公雞和狼之間,展現出它們都懵懂、驚訝的神情。 小公雞嚇壞了,它立刻使出絕招——“裝死”。它毫不猶豫地跌倒在地,身體僵硬,舌頭垂出,腦袋一片空白。 狼滿臉困惑,它用鼻子湊近小公雞,疑惑地戳了戳它,狼更加迷茫, 最終,小公雞憋氣憋得難受,忍不住猛地跳起來,劇烈地咳嗽,嚇得狼魂飛魄散,。狼很慌張,撞上了小公雞,一同跌倒。狼和小公雞都暈了過去結果超出我的預期了。劇情在視訊裡沒有遺漏,表情刻畫非常細膩,分鏡切換流暢絲滑,幾乎沒有AI的痕跡。最關鍵是,這個視訊一次性出片!Seedance2.0強在那裡?精細化的提示詞控制、場景切換時的任務一致性,是Seedance 2.0出彩的地方。在最開始的例子裡面,我們構思的劇情, Sedance 2.0完全幫我們實現了。但是,讓我覺得Seedance 2.0強悍的,不只是他精準控制的提示詞!Seedance2.0不只是AI視訊生辰工具,更是AI導演+剪輯師!說實話,Seedance 2.0 表面上是個視訊生成工具,實際上干的是導演+剪輯的活。那種自然流暢的分鏡切換、專業的鏡頭語言、角色表情的細膩刻畫——這些都是影視從業者靠實戰才能培養出來的經驗,是他們的護城河。但 Seedance 2.0 直接把這道護城河炸了。以前需要導演腦子裡構思、剪輯師手上實現的東西,現在一句提示詞就能搞定。以前,技術很值錢。會剪輯、會調色、會分鏡,就能吃香。但未來,人人都可以做視訊。個體經營來一大波機遇。工具越來越平權,拼的不再是技術,而是腦子裡的創意。你能想到什麼樣的故事?你能設計什麼樣的情節?你的腦洞有多大?創意才是唯一的護城河。下面我找了幾個真實案例,看完你就知道這個工具有多顛覆。真實使用效果動畫片跟Sora相比,我更推薦打擊用Sendance 2.0做動漫,因為,Sendance2.0沒有跟Sora一樣,對於IP形象卡的死死的。我曾經用Nano banana pro生成了鬼滅之刃的一個小小的漫畫現在,直接把他拿給Seedance 2.0,直接可以生成對應的視訊了!小互(@xiaohu)的這個case,更是驚豔,看到我震驚了,下面的這個是原始圖然後用的是這個提示詞將@圖1以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格詼諧幽默;演繹方式參考@視訊1具體效果,各位老闆欣賞下吧真人短劇Seedance 2.0生成的這個打鬥視訊效果絕對是NO 1的,即便是Sora也比不上。我試過很多模型,但是發現生成的打鬥視訊不是在生成的過程中崩了,就是沒有能夠很好的表現出打鬥的精彩。Seedance 2.0處理的就非常好。這種效果,完全可以用來做真人短劇了。現在短劇那麼火,但普通人沒有資本根本沒有辦法入局,有了Seedance 2.0,說不定可以嘗試一下。我那位朋友如果還做電商的話,估計要高興壞了,再也不用花巨額的廣告視訊製作費了。廣告視訊以前我有位做電商的朋友,新開發了一個產品,然後找人做了個視訊廣告。來來回回搞了一個多月,最後花了5萬多塊錢(我不知道他是不是被坑了)現在,用Seedance 2.0完全可以自己做一個類似的視訊,所花費的積分可能也就幾百塊錢。我找了位網友做的廣告視訊,大家看看這個視訊能否入的了法眼 我那位朋友如果還做電商的話,估計要高興壞了,再也不用花巨額的廣告視訊製作費了。 (GoWalker)
中國AI視訊雙雄並起:Seedance 2.0與Vidu Q3組團席捲全球
爆紅社交平台、登頂全球評測,中國AI視訊模型集體破圈。在AI視訊創作領域,Seedance 2.0的爆火不是偶然。這一次真正“破圈”,很大程度上源於它所具備的“導演思維”——劇本驅動、分鏡清晰、節奏精準。它讓人們意識到,一個好的AI視訊更需要創意調度。而過去,創作者在AI視訊中最難掌握的兩個要素,恰恰就是理解故事結構與鏡頭語言。與此同時,另一款國產視訊生成模型生數科技的Vidu Q3,也在創作者社群中走紅,並剛剛登頂全球權威AI評測平台Artificial Analysis,成為全球排名第一的視訊生成模型。Vidu Q3強調“為劇而生”,它將畫面、聲音與長時長合為一體,一次生成即可輸出16秒的完整敘事段落,並支援多角色、多語種對話,具備強烈的“導演感”與“表演張力”。當行業熱議Seedance 2.0的絲滑節奏與真實感時,Vidu所代表的則是另一種強勢崛起——可控的內容表達、紮實的技術底盤以及高完成度的成片落地。01. 同樣是爆款視訊製造機Vidu Q3頗具表演張力AI生成視訊越來越真實,也越來越“能演”。情緒遞進是否自然、人物神情是否真實,成為評判AI視訊質感的重要標準之一。此次對比中,Vidu Q3在“表演感”上的表現,展現了另一種完成度。提示詞:現代高層辦公室,冷灰色調搭配落地窗的自然光線。女主穿著黑色西裝,手肘撐在辦公桌托腮凝視鏡頭,眼神冷靜且有力量。鏡頭從正面鏡頭,切換到側面鏡頭,捕捉她手指輕敲桌面的細節,她皺起眉頭,有點生氣,中文開口說道:“這就是這個星期的成果麼?我不滿意,重新做吧。”背景加入鍵盤敲擊聲與窗外城市車流的環境音,營造專業且略帶壓迫感的職場氛圍,無背景音樂。參考圖:Seedance 2.0與Vidu Q3效果:Vidu Q3生成的人物表情細節表現出較高穩定性,尤其在眼神、嘴角與眉弓等關鍵部位的控制上較為自然。當人物面臨情緒轉折時,能呈現出接近真人演員的表情變化,而非單一貼圖式的處理方式。A與此同時,Seedance 2.0與Vidu Q3的情緒表達具備起伏與節奏感,能夠與劇情節點同步推進,使畫面更具張力與“表演感”。無論是Seedance 2.0所展現的鏡頭感與節奏感,還是Vidu Q3在人設與情緒上的延展,都在共同拓展AI視訊“可看性”的邊界,補足了當前主流AI視訊模型在人物演繹方面的一大空白。02. 視聽一體的沉浸感更接近可用成片音畫一致性也是成片質感的關鍵參考因素。我們嘗試用Vidu Q3復刻了Seedance 2.0所生成的爆款視訊,Vidu Q3的效果與Seedance 2.0相近,在聲音與畫面協同方面展現出極高完成度。Seedance 2.0效果:Vidu Q3效果:從兩款模型的生成效果可見,其環境音、動作聲均與畫面節奏高度貼合,音效能夠配合鏡頭同步表達情緒變化。就比如在“怪獸大戰貓咪”這類打鬥場景中,打擊聲和背景音樂與角色動作完全同步,環境音與畫面節奏貼合得很好,整體氛圍被瞬間拉滿。無論是Seedance 2.0還是Vidu Q3,整體生成結果都具備很強的沉浸感,無明顯音畫錯位或情緒斷裂,生成後無需額外“補聲”處理,即可作為可用片段使用。在此番對比下,Vidu Q3與Seedance 2.0在視聽協同方面的穩定性與一致性上平分秋色,其生成內容均接近“直接可投放”水準,特別適用於短劇、廣告、劇情視訊等需要聲畫並重的創作場景。03. 開頭抓人,結尾帶情緒畫面爆發力適配商業化節奏在短內容環境中,一條視訊是否“抓人”,往往由首尾幾秒決定。本輪對比測試中,兩款模型在關鍵畫面節點均表現出色,尤其是在開場的視覺衝擊力與結尾的情緒收束方面。提示詞:電影級特效風格,夜晚都市環境,中景拍攝。一名身穿西裝的男子站立不動,神情冷靜;下一瞬間黑色黏稠液體從頸部與肩部迅速蔓延,沿身體流動、翻湧、包裹全身,伴隨強烈閃光,西裝被吞噬並重組為毒液風格怪獸形態,肌肉誇張、表面液態反射明顯。鏡頭輕微震動並快速推近,強化變身衝擊力。音訊:低頻能量轟鳴起始 → 黏液流動音效(濕潤、拉絲感)→ 變身完成瞬間加入強烈衝擊音與閃光爆音;無背景音樂、無人聲,對白完全缺失,所有聲音集中服務於變身過程,營造震撼、黑暗、危險的氛圍。參考圖:以“毒液變身”這一高強度特效場景為例,Vidu Q3的開場首幀具備強烈的視覺記憶點,如面部特寫、液體包裹動作與爆發性變身效果,能夠迅速吸引使用者注意。而在劇情推進結束時,其收尾處理較為自然,畫面具有一定的定格感,這類特徵便適用於短劇、廣告等留存導向內容。與之對應,Seedance 2.0則在鏡頭語言與節奏控制上表現穩定,變身過程中的動作銜接與閃光爆點處理流暢,在視覺與節奏之間拿捏得當,也展現出極強的大片質感。再來看“雪王大戰奧特曼”這一打鬥場景。Seedance 2.0在打擊感上的表現更加直接,動作反饋清晰、節奏緊湊,呈現出“拳拳到肉”的真實衝擊力。Vidu Q3則在特效表現上更為突出,“電光火石”的能量感與視覺張力更強,整體畫面更具影視感。就對內容“起承轉合”的掌控能力而言,這兩款模型不僅都適合內容生產,還可直接用於商用傳播。在以短影片和片段化內容為主的平台生態中,這種“自帶爆點”的生成方式將極大提升效率。04. 從節奏調度到風格控制創作可控性正在重塑AI視訊工具AI視訊是否能持續復用、風格是否統一、鏡頭是否可控,是關鍵難題。從這一層面看,兩款模型代表了創作路徑的不同側重。在節奏調度方面,Seedance 2.0在李小龍風格動作片這類快節奏場景中,鏡頭切換自然、動作銜接流暢,具備很強的“剪輯感”,很適合強調動感、爽感的內容創作。相較之下,Vidu Q3在鏡頭穩定性上表現較為均衡。在風格控制能力上,Vidu Q3支援特效參數設定與多參考素材輸入,創作者可細緻調節光效、鏡頭節奏、角色穩定性等維度,可控影響最終的生成內容。兩種路徑的分化,本質上是效率與風格的抉擇,也為不同階段、不同類型的創作者提供了工具層面的適配方案。一邊是絲滑節奏與高上手效率,一邊是多參控制與風格一致性,兩種創作思路均圍繞“可控性”這一核心能力進行各自演進,共同推動AI視訊從生成工具進化為創作工具。05. 中國雙雄並起,國產AI視訊模型正攜手走上全球第一梯隊在生成視訊這條賽道上,中國模型正在超越國際水準。Seedance 2.0和Vidu Q3分別代表了創意調度與高水準輸出的兩個高點,也代表了國產模型從技術追趕到能力破圈的階段性躍遷。從性能角度看,據全球權威評測平台Artificial Analysis資料顯示,Vidu在商業內容生成級模型中目前排名全球第一,其生成速度比OpenAI的Sora 2快10倍,相較Google Veo 3 Fast和Grok-imagine-video也有2倍優勢。生數科技在2025年12月開放原始碼的TurboDiffusion框架,也將生成效率提升至單張RTX 5090顯示卡1.9秒生成5秒視訊,效率相比傳統擴散路徑提升100-200倍。相比海外模型,Vidu和Seedance走出了一條更加面向成片落地的道路,強化結構控制與多角色協同,在短劇、廣告、劇情類內容中更具適用性,國產AI視訊模型正攜手走上全球第一梯隊。06. 結語:一登榜首,一爆火出圈國產AI視訊模型正在形成集體突破從登頂全球權威榜單的Vidu Q3,到在海內外爆火的Seedance 2.0,無論是生成速度、結構控制、情緒表現,還是風格自由度,國產AI視訊模型正在多個核心維度上持續接近甚至超越海外同類產品,逐步站上全球第一梯隊。它們不僅證明了中國模型在技術能力上的躍升,也為AI視訊在商業化與創作生態中的深度落地打開了想像空間。國產AI視訊的全球登頂,或許只是一個更大變局的起點。 (智東西)
字節跳動,又放了一個大招
臨近春節,字節跳動新一代AI視訊生成模型Seedance 2.0迅速出圈。遊戲科學CEO馮驥甚至感慨它是當前地表最強的視訊生成模型,沒有之一。然而,在驚豔業界的同時,Seedance 2.0也引發了對深度偽造(Deepfake)濫用和虛假視訊氾濫的廣泛擔憂。2026年開年,朋友圈被字節跳動旗下視訊生成模型Seedance 2.0刷屏。“董宇輝功夫對戰成龍”“滅霸對戰中國神話人物”等AI視訊給人一種前所未有的“炸裂感”。有使用者測評之後坦言,“功能太強大,真被嚇壞了”。在一片驚嘆聲中,資本市場的情緒也被點燃。2月10日,傳媒類股集體走強,不少相關公司直接漲停。這並非一次簡單的話題炒作。作為2026年第一個出圈的視訊大模型,Seedance 2.0的橫空出世,不僅正在重塑AI視訊創作的行業格局,也迅速撬動了產業鏈上下游的想像空間。不少業內人士感嘆,視訊領域的“DeepSeek時刻”,終於來了。Seedance 2.0有多厲害?2月7日,字節跳動低調上線其新一代AI視訊生成模型Seedance 2.0,並在即夢、豆包、小雲雀等旗下產品開啟小範圍內測。目前僅向即夢會員有限次開放,非會員僅能獲得少量免費試用機會。儘管官方尚未正式官宣,但其展現出的“工業級”生產力讓行業劇震。Seedance 2.0之所以能快速出圈,核心原因在於它擺脫了之前產品“技術炫技”的套路,成為一個高度貼近現實應用場景的產品。該模型不僅支援文生視訊、圖生視訊,更具備強大的“多模態參考”能力,可同時上傳圖片、視訊、音訊等最多12個檔案。使用者只需輸入一句自然語言描述,或上傳一張靜態圖片,就能自動生成具備多鏡頭切換、連貫敘事、同步音效的原生1080p電影級視訊,部分場景可支援2K解析度。更重要的是,其生成的畫面在清晰度、色彩還原、景深與動態模糊等方面,已完全貼合商用級創作標準,且物理引擎升級後,流體、布料、人體動作呈現更符合物理規律,避免畫面失真。影視颶風創始人潘天鴻(Tim)第一時間對Seedance 2.0進行了實測。他發現,該模型在大範圍運動畫面、分鏡切換、音畫匹配等方面表現突出,其中分鏡設計具備“明顯的角度切換”,能夠“像真人導演一樣,不斷改變攝影機的位置”。真正拉開差距的是Seedance 2.0對“生成+編輯”流程的重構。不同於以往“生成即定稿”的AI視訊模型,Seedance 2.0允許使用者在生成後直接對局部片段進行修改,無需借助第三方軟體,大幅降低廢片率,顯著提升創作效率。與此同時,它還系統性地解決了困擾AI視訊領域已久的三大痛點:嘴型與音訊不同步、角色面部畸變、長視訊內容穩定性不足。實測顯示,其角色對話口型誤差已可控制在0.1秒以內,足以支撐短劇、廣告、遊戲CG等商用場景。隨著更多使用者的實測視訊在社交平台擴散,行業評價迅速升溫。2月9日晚,國產3A遊戲《黑神話:悟空》製作人、遊戲科學CEO馮驥在微博直言, Seedance 2.0是“當前地表最強的視訊生成模型,沒有之一”,並感慨“AIGC的童年時代,結束了”。馮驥還感到慶幸,“至少今天的Seedance 2.0,來自中國”。多家券商也在研報中對Seedance 2.0給出積極評價。開源證券指出,Seedance 2.0的驚豔,在於自運鏡和分運鏡、全方位多模態思考、音畫同步生成、多鏡頭敘事能力等幾個關鍵能力上實現突破,給使用者提供“導演級”的控制精度,或將成為AI影視的“奇點”時刻。會帶來那些改變?Seedance 2.0的爆火,並不僅是一款科技產品的走紅,更被業內視為一次對視訊創作、傳媒影視等行業底層邏輯的強烈衝擊。首先是Seedance 2.0抹平了專業技術鴻溝,使“高品質視訊”不再是昂貴團隊的專利。電商廣告、產品預拍攝等對成本敏感的領域,正經歷從靜態圖向視訊態的全面轉化。其次是生產流程的系統性重構。對於傳媒、影視、短劇等行業而言,Seedance 2.0已開始被用於影視預演、廣告提案、IP可視化等環節。在短劇領域,“一鍵小說轉短劇”成為現實,在漫劇賽道,內容生產甚至可以實現24小時不間斷上線。中文線上已通過接入Seedance 2.0技術,在春節檔上線多部AI短劇,累計播放量突破5億,IP變現效率明顯提升。馮驥直言,一般性視訊內容的製作成本將逐步趨近算力的邊際成本,內容領域必將迎來史無前例的 “通貨膨脹”,傳統的組織結構與製作流程會被徹底重構。最後是IP價值的再啟動與新賽道的打開。Seedance 2.0使得網文、圖書、經典影視IP能夠被更低成本、更高頻率地轉化為視訊內容。例如,上海電影借助Seedance 2.0,將“葫蘆娃”“黑貓警長”等經典IP轉化為4K續作短片,上線三日播放量破億,探索出經典IP二次變現的新路徑。對讀客文化、掌閱科技等IP儲備大戶來說,這無異於掌握了快速跨入視訊賽道的“入場券”。中信建投證券在研報中指出,Seedance 2.0有望與字節跳動旗下豆包、Seedream等模型協同,形成全模態內容矩陣,加速AI視訊商業化落地,推動傳媒行業進入新的發展階段。不過,Seedance 2.0所暴露出的風險,同樣引發了專業人士的集中討論,其中隱私保護、版權歸屬與內容可信度成為爭議焦點。影視颶風創始人潘天鴻(Tim)在測評時,多次用“恐怖”一詞形容自己的體驗。他發現,僅上傳自己的人臉照片,系統便可生成與其本人高度相似的聲音。在上傳一棟建築的正面照片後,AI運鏡竟能自動切換至建築背面,背面景象與現實幾乎一致。“它知道我背後的東西是什麼,即便我們沒有告訴它。 ”他詫異道。由此,他推測Seedance 2.0可能在訓練過程中大量使用了其團隊過往的視訊素材,而他本人並未收到明確授權或獲得報酬。儘管平台使用者協議中可能存在相關條款,但這種“隱性授權”模式,仍引發了行業對版權邊界的廣泛討論。馮驥在肯定技術突破的同時,也直言自己最擔憂的是“假視訊氾濫與信任危機”。在他看來,逼真的假視訊將變得毫無門檻,現有的智慧財產權與審查體系,會面臨空前衝擊。因此,馮驥鄭重建議:“請大家盡快提醒父母與不熟悉AI的親友,未來一切缺乏官方權威管道背書的視訊內容(尤其是包含個人形象與聲音的)都可能是偽造的。請務必通過多管道交叉確認,避免上當。”使用者的擔憂已在產品端得到反饋。2月9日,即夢平台緊急發佈通知,暫不支援輸入真人圖片或視訊作為主體參考。針對上述爭議,業內一些專家指出,基於公開資料訓練模型是全球AI行業的通行做法,但視訊與聲音的高辨識度,使得資料使用邊界問題被急劇放大。如何在技術進步與隱私保護之間建立新的平衡,將成為2026年全球監管者繞不開的課題。總體而言,Seedance 2.0點燃的,或許不只是一個市場概念,而是整個行業的重構周期。 (財經天下WEEKLY)
海外推特已誇爆,馮驥都嚇一跳,“慶幸Seedance是中國的AI”
“學了7年數字電影製作,現在感覺90%都白學了。”在社交媒體X上,AI影視創意內容領域最為活躍的創作者之一“el.cine”,突然哭笑不得地爆發出了一陣哀嚎。原因無他,在嘗鮮字節跳動新一代AI視訊生成模型Seedance 2.0後,他徹底被震撼了。這款於今年2月低調上線的模型,官網將其定位為“可導演的電影級全流程生成引擎”。它能理解複雜的自然語言指令,將文字或圖像直接轉化為電影級水準的視訊內容,區別於早期AI視訊工具僅能生成碎片化片段的侷限。Seedance 2.0採用雙分支擴散變換器架構,可同步生成視訊與音訊,只需輸入提示詞或上傳參考圖,就能在60秒內產出帶完整原生音軌的多鏡頭視訊,大幅降低專業創作的門檻與成本。其最具突破性的能力,在於“單指令生成連貫多場景”。AI可自動解析敘事邏輯,生成環環相扣的鏡頭序列,並在角色、光影、風格與氛圍上保持高度統一,實現近乎“零後期”的成片效果。這種跨鏡頭的敘事一致性也被業界視為突破性創新。官方介紹稱,該模型非常適合創作從開篇到高潮的完整故事線,保證專業級的敘事流暢度。儘管上線低調,但上線僅2日,Seedance 2.0便在海外輿論場引發轟動。當年蘇聯率先發射人造衛星“Sputnik”,在英語世界造就了“斯普特尼克時刻”這個詞組;而2026年開年,世界就迎來了“Seedance時刻”。X 平台上,不少使用者稱讚其生成效果媲美好萊塢大片,相關話題迅速沖上熱門,多條演示影片播放量破百萬。el.cine用它製作的第一條短片便引爆關注:畫面中,一名男子在人群中狂奔,猛地撞翻路邊水果攤,橙子四散飛落。在一段極具張力的慢鏡頭之後,男子掙紮起身,繼續被四名警察追逐。網友有點晃神:等會兒,從那兒開始是AI做的?“我甚至都不確定這是真的還是假的。”運鏡、光影、人物表情、鏡頭語言近乎無懈可擊。人類大腦正是依靠這種感知層面的高度統一來判斷真實,而這段視訊幾乎“騙”過了所有人的眼睛。“99%逼真。要是你沒說這是AI,我都要去查演員了。”還有網友感嘆道,“如果Seedance 2.0能做到在實際生產中穩定、低成本、可預期地運行,那麼一整套創意工作流程都將被徹底改寫。”這則視訊更讓許多專業人士嘖嘖稱奇。美國AI訓練資料初創公司Parsewave的聯合創始人在觀看後驚嘆:“我太驚訝了,蘋果和橙子掉落在地上的效果看起來如此逼真……我對AI視訊向來極其挑剔,但這個片段,我真的挑不出任何毛病。”在Mac生產力社區小有名氣的小型獨立開發者dashpane.pro前創始人更是直言:“中美AI視訊技術的差距已經大到有些難堪。中國這些模型的水平,看起來比美國所有公開可用的同類技術領先了整整兩代。”在隨後幾天裡,el.cine繼續發佈了多條Seedance 2.0創作視訊,全面展示其能力。比如用漫畫分鏡鏡頭直接生成動作電影場景。或是僅憑一個文字指令,就能生成一個多鏡頭武打場景。甄子丹看了都得迷糊:我拍過這部電影嗎?無論是拳腳交鋒、刀光劍影;還是戰火紛飛、硝煙瀰漫;乃至天馬行空的科幻巨製,都能輕鬆實現。el.cine不禁苦笑:現在還有誰會說“一鍵生成電影”是做不到的?網友也有同感,“過去一部好萊塢電影要耗資數百萬美元,如今,一個只要付得起電費的人,就能完成同樣的事。”“老天鵝,這完全是重新定義了視覺敘事。”作為導演,el.cine坦言,Seedance 2.0是目前唯一讓他產生強烈危機感的AI模型。“毫不誇張地說,電影行業裡的每一份工作都面臨被顛覆。你只要上傳一個劇本,它就能直接生成完整場景,不只是零散片段,還自帶特效、配音、音效、配樂,甚至連剪輯都完成得十分出色。我們可能連剪輯師都不再需要。”他感慨:“這更像是傳統電影行業在無聲中走向終點,同時,一個未知的全新時代正在開啟。”在遊戲科學CEO馮驥看來,Seedance 2.0確實如其所言,是一個“殺死比賽”的存在。他直接給出了“當前地表最強的視訊生成模型”的超高評價。“AI理解多模態資訊(文、畫、影、音)並整合的能力完成了一次飛躍,令人驚嘆。”馮驥直言,“我很慶幸,至少今天的Seedance2.0,來自中國。”當被評論區網友問及未來AI若能做出《黑神話:悟空》等級的作品時,馮驥幽默回應:“那我們可能將會變成新時代的非遺手工作坊了。”面對又一輪來自中國AI的強勢衝擊,有人憂心傳統影視行業或將就此落幕,“好萊塢完蛋了”的論調此起彼伏;但也有人從中看見,一個更回歸創作本質的新時代正在到來。“我們終於回到了拼創意的時代。AI視訊模型已經強大到,靠廉價特效和單純獵奇再也打動不了人了。你必須講好一個真正讓人願意追隨的故事——而這,恰恰是最難也最珍貴的事。” (觀察者網)
“強到可怕!”字節Seedance2.0灰度測試爆火,黑悟空老闆:AIGC的童年結束了
全模態素材都能參考,鏡頭切回來還保持原樣。智東西2月9日報導,2月7日,字節跳動AI視訊生成模型Seedance2.0開啟灰度測試,該模型支援文字、圖片、視訊、音訊素材輸入,可以完成自分鏡和自運鏡,鏡頭移動後人物特徵能夠保持一致。字節Seedance團隊釋放出的飛書文件中介紹到,Seedance2.0可精準還原參考圖的畫面構圖、角色細節,可以復刻參考視訊的鏡頭語言、複雜的動作節奏和創意特效。其所生成的視訊支援平滑延長與銜接,可按使用者提示生成連續鏡頭。Seedance2.0的編輯能力同步增強,支援對已有視訊進行角色更替、刪減、增加。▲女士優雅地曬衣服(來源:Seedance官方)在海外社交平台X上,Seedance2.0的討論熱度居高不下。一位學習了7年數字電影製作的網友在體驗後說,這個模型(Seedance2.0)是唯一一個讓他感到害怕的模型,電影行業的所有崗位幾乎都要消失了。90%他所學習到的技能,Seedance2.0都能實現。▲數字電影製作學習者評論(來源:X)產品設計師、使用者體驗(UX/UI)設計師Linus Ekenstam看完Seedance2.0的案例後說:“它會讓網際網路崩潰,百分之百。 ”▲產品設計師評價(來源:X)遊戲科學創始人兼CEO、《黑神話·悟空》製作人馮驥在體驗了Seedance2.0後還專門發了微博,稱讚該模型為“當前地表最強的視訊生成模型。”並且很慶幸今天的Seedance2.0來自中國。但他也從其中看出了假視訊氾濫與信任危機,因為“逼真的視訊將變得毫無門檻。”▲馮驥微博(來源:新浪微博)但是Seedance2.0也並不完美,在字節Seedance團隊發出的飛書文件《Seedance2.0使用手冊》中,有使用者在評論區中反映,使用同樣的提示詞和素材,生成的視訊在精細化控制上卻不太行。▲飛書文件使用者評論(來源:飛書)並且在一個官方案例中,Seedance2.0生成視訊的中文字幕還是會出現老生常談的中文亂碼情況。▲官方案例錯誤(來源:飛書)這個模型真的有一眾網友說得這麼“恐怖”嗎?智東西第一時間體驗了Seedance2.0,Seedance2.0所生成的視訊畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解加入運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。體驗地址:https://jimeng.jianying.com/ai-tool/home01.能自動加入運鏡全模態素材均可參考2025年12月16日,Seedance1.5 pro模型發佈,在音視訊聯合生成、音畫同步、多語言、運鏡以及語言理解方面進行了提升。Seedance2.0預計在明天正式發佈,目前在即夢AI官網可以充值會員付費體驗,在小雲雀App中則有三次免費體驗機會。Seedance2.0支援文字、圖片、視訊和音訊作為參考素材輸入。使用者可以同時給它最多9張圖片、3段視訊和3段音訊作為參考,指定動作、運鏡、人物、場景、特效、聲效等,Seedance2.0就可以根據參考材料和提示詞要求,合成視訊。但為了保護隱私,Seedance2.0目前暫不支援上傳包含寫實真人臉部的圖片素材。Seedance2.0可精準還原參考圖的畫面構圖、角色細節,還支援鏡頭語言、複雜的動作節奏、創意特效的復刻。其所生成的視訊支援平滑延長與銜接,可按使用者提示生成連續鏡頭。Seedance2.0的編輯能力也同步增強,支援對已有視訊進行角色更替、刪減、增加。如果沒有參考素材也沒關係,只需要一段簡單的提示詞,該模型就可以根據所描述的情節自動規劃分鏡以及運鏡,還能在劇情需要的地方實現慢動作、鏡頭搖晃等效果。在一致性上,Seedance2.0在生成視訊的同時就可以生成匹配的音效和配樂,並且支援口型同步和情緒匹配。Seedance2.0所生成視訊中的角色和場景還可以在多個鏡頭之間保持一致性,使用者可以用該模型生成一段包含多個鏡頭切換的完整片段。02.體驗:人物場景一致性高汗水灑落可以“以假亂真”智東西上手體驗了Seedance2.0模型,主要考察模型的自運鏡、角色場景一致性和角色替換方面的能力。Seedance2.0所生成的視訊畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解加入運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。首先,我們輸入提示詞:特寫,焦距50mm,扎馬尾的女生坐在窗邊,微笑時有梨渦,在咖啡廳的桌面上的筆記本上寫著什麼,偶爾有思考的停頓,背景虛化呈現,咖啡館的木質桌沿,柔光打在面部,突出輕鬆的氛圍,咖啡廳中放著鋼琴曲。Seedance2.0生成的視訊如下:▲咖啡廳女孩生成片段(來源:智東西體驗)在生成速度上,Seedance2.0生成一段10秒的視訊需要5分鐘左右。從視訊的畫面上來看,在提示詞沒有說如何運鏡的情況下,該模型自動在開頭加了一個漸進的運鏡,讓畫面劇情更加自然和流暢。在漸進的過程中,畫面中的人物、場景都沒有發生畸變,保持了一致性。Seedance 2.0也可以很準確地還原國漫風,我們上傳了一張國風動漫角色圖,要求Seedance2.0參考圖片,生成一段人物自述片段。▲國風參考圖(來源:Seedance2.0)Seedance 2.0生成的視訊就像是某個遊戲的過場CG動畫,視訊的畫風和人物特點都與素材圖片一致,隨風飄動的絲帶和花瓣邊緣輪廓清晰,運動軌跡合乎常理,人物的嘴型和台詞也可以對得上。但是,在人物情緒的表達上,視訊中人物的面部肌肉沒有明顯的變化,情緒表達不夠飽滿。▲國漫生成片段(來源:智東西體驗)最近,一個韓國AI小狗接受採訪的視訊非常火,我們將視訊截圖發給Seedance2.0,讓它將原圖中的小狗換成小貓。▲AI小狗視訊截圖(來源:小紅書)可以看到,Seedance2.0生成的視訊很完整地保留了參考素材的風格,給小貓穿上了睡衣,並且讓小貓雙手張開,並不是簡單地換頭,小三花貓沒有被睡衣覆蓋的肚子部分也還原了真實小貓崽肚子的質感。而且,在音訊上,Seedance2.0也精準地實現了提示詞中所說的25歲女記者和小孩的聲線。▲AI小貓生成片段(來源:智東西體驗)在X上,自媒體博主冰河用Lovart的Skill生成分鏡故事板,直接複製到Seedance2.0中,他說該模型所生成的視訊比他用ComfyUI做的還細緻。▲自媒體博主冰河製作視訊片段(來源:X)AIGC藝術家DynamicWang用Seedance2.0製作了一個模仿Nike品牌廣告風格的短片,短片中共出現了四位不同族裔的女性,每一位角色的身材和肌肉線條都很符合其所進行的運動的標準,且鏡頭角度變動後,角色的臉部特徵依舊保持一致。短片中的運鏡也十分自然,沒有拼接痕跡,慢動作、角度移動的位置都很準確,符合劇情需要。從第一位體操女孩流暢的翻轉跳躍可以看到,Seedance2.0直接攻破了“AI生成不了體操視訊”這個難題。拳擊女生和跑步女生的汗水以及游泳女生濺起的水花,都沒有了此前AI生成的“黏膩感”。在小雲雀App中,有不少使用者都上傳了自己用Seedance2.0生成的視訊片段。有李小龍對戰日本武士:▲使用者上傳案例(來源:小雲雀App)真人版七龍珠:▲使用者上傳案例(來源:小雲雀App)還有仙俠竹林對決:▲使用者案例(來源:小雲雀App)03.結語:Seedance2.0降低表達門檻但提高了對創作者的敘事能力要求從各路大神的體驗、官方案例以及智東西自己的體驗視訊看下來,Seedance2.0最突出的就是運鏡和剪輯能力以及人物和場景的一致性。但其在情感表達的細膩度、中文文字的呈現等方面仍有提升空間。從這一點看,或許Seedance2.0還不足以徹底改變影視界,但Seedance2.0的出現,無疑降低了專業表達的門檻,讓更多人有工具可以將想法可視化。同時,此類AI視訊製作模型也可能加劇內容市場的同質化競爭,並對創作者的原創性、審美和敘事能力提出更高要求。 (智東西)
OpenAI收緊Sora監管!
當地時間周一(10月20日),人工智慧(AI)研究公司OpenAI發佈聯合聲明稱,將與演員布萊恩·克蘭斯頓、美國演員工會(SAG-AFTRA)及其他表演者工會合作,防範其AI視訊生成應用Sora的深度偽造(Deepfake)內容。據美國演員工會在社交媒體平台X上發佈的資訊,在9月底Sora 2上線後,有使用者在平台上生成了未經授權、模仿克蘭斯頓聲音與形象的AI視訊,引發了這位《絕命毒師》主演的擔憂。克蘭斯頓在聲明中表示:“感謝OpenAI制定政策並完善防護機制,並希望他們以及所有從事這一領域的公司,能夠尊重我們管理個人聲音與形象複製權的職業權利。”除了美國演員工會之外,OpenAI還宣佈將與代表克蘭斯頓的聯合人才經紀公司(UTA)、經紀人協會(ATA)及創意藝術家經紀公司(CAA)展開合作,以進一步強化對未經授權AI生成內容的防護。此前,CAA和UTA曾公開批評OpenAI在Sora中使用受版權保護素材的做法,稱其對客戶及其智慧財產權構成威脅。上周,因Sora使用者生成對民權領袖馬丁·路德·金的不敬形象,OpenAI應馬丁·路德·金遺產委員會的要求,在Sora平台封禁了相關視訊。自9月30日Sora 2推出以來,OpenAI在版權與肖像使用政策方面持續調整。10月3日,OpenAI首席執行官薩姆·奧爾特曼更新了Sora的“退出(opt-out)政策”。該政策此前允許使用智慧財產權內容,除非版權方明確要求停用;新政策則賦予權利人“更精細的角色生成控制權”。在Sora推出時,平台就要求對個人聲音與肖像的使用需經授權同意(opt-in)。OpenAI隨後又進一步承諾稱,將迅速回應任何相關投訴。OpenAI還重申支援美國的《禁止偽造法案》,該法案旨在防止未經授權AI生成他人聲音或肖像。 (科創日報)
不止於Sora 2!商湯Seko再次定義“成片智能體”,AI視頻生成迎來殺手級應用
讓AI視頻生成拿來即用。AI影片的競爭焦點開始轉移——不再侷限於單一畫面效果的比拚,而是聚焦可用性與開箱即用的突破。9月底Sora 2的橫空出世便清晰傳遞出這一趨勢:其不僅以精彩紛呈的動態生成效果刷新行業認知,更通過能引入現實角色、提升物理模擬逼真度、整合創編傳播工具等的綜合性“成片智能體”,展現了向易用性、實用性發展的趨勢。這一行業趨勢逐漸明晰的當下,國產平台商湯Seko早已率先佈局,以實際行動重新定義AI視頻的應用邊界。下面的影片就直觀展示了Seko的成片能力,這一視頻從劇本、故事板、配音到後期均由Seko完成,並且精細到每一個細節都符合導演和編劇要求,畫面以及動畫效果也都拉到專業級。Seko用戶@聽白AIGC 生成了下面的視頻,將動漫形象與現實環境相結合且毫無違和感,使得整體畫面質感提升。還有下面的恐怖氛圍短片,Seko使用者@liuker、@不會畫畫的美術生生成的視頻中呈現了醫院場景,從陰森的空間佈局到冷冽的燈光風格,所有視覺元素全程線上、精準配合,成功營造出壓抑、驚悚的恐怖氛圍。作為國內首個創編一體的短片創作Agent平台,Seko使用者規模與作品數量的快速爆發增長證明了產品的價值。從工具到智能體、從畫面到成片,AI正從根本上降低內容生產的門檻、提升創作效率、拓展表達邊界。在這場由Sora2引領的變革中,國產平台商湯Seko是亦步亦趨的追隨者,還是另闢蹊徑的破局者?我們試圖拆解Sora 2與Seko,找到其在這場變革中搶佔先機的關鍵要素。01. 「成片智能體」風起:從技術炫技到應用為王回溯AI視頻產業的發展脈絡,早期產品多停留在技術驗證層面,往往會通過生成各類逼真、新奇的視頻內容來滿足用戶好奇心,如今隨著營銷、短劇、自媒體等領域的剛性需求爆發,其定位正逐漸向生產力工具轉移,而能否覆蓋從創意到成片的全流程,也成為衡量產品價值的核心標準。9月底爆火的Sora 2以及OpenAI伴隨其發布的Sora應用就清晰表明了這一趨勢。具體來看,在核心生成能力上,Sora 2實現了全維度的效能提升。物理模擬層面,其優化動力學與材質還原的可信度,能精準呈現對象體積、遮擋關係與光照互動,例如模擬液體潑灑時的流動軌跡、織物飄動的重力反饋均更貼近真實物理邏輯;音頻能力實現了音畫一體化生成,環境音、動作音效可隨性的畫面自動匹配;提示詞:吉卜力工作室動畫風格,畫面中一個男孩和他的狗跑上長滿青草的風景優美的山坡,頭頂是絕美的雲朵,遠處背景中還能眺望到一個村莊(in the style of a studio ghibli anime, a boy and his dog run up arassy scenic mount y接著是產品形態方面,OpenAI伴隨Sora 2推出的獨立Sora App社交平台,透過內置的Cameo(角色引入)功能,用戶可建立高度逼真的個人數字分身,無縫植入任意Sora 2的生成場景,還能授權好友使用自己的形象實現多人同框創作。相較於上一代產品,Sora 2正向著更符合使用者實際創作需求的工具轉型。但值得注意的是,Sora 2的生成本質上仍是「黑盒式」輸出,因為用戶輸入指令後需等待系統完整輸出,無法對中間環節進行干預調整,即便使用千字級的詳細提示詞,也可能出現與預期偏差的生成結果。因此在實際應用場景,這對追求精準表達的商業創作而言,無疑意味著不可預測的時間損耗與修改成本。反觀國內,商湯科技今年8月推出的Seko就在成片智能體的基礎上,實現了「可控式閉環」。Seko可以做到自動劇本拆解、故事板產生、角色一致性控制等,來產生高品質AI視頻,與Sora 2在成片智能體核心能力上實現對標。下面Seko使用者@豆芽AI筆記本產生的視頻中主體角色整體一致,畫面跟隨人物移動時也沒有出現偏差。與Sora 2不同的是,Seko支援即時可編輯,非一次輸入、一次輸出,甚至可對分鏡畫佈局部修改,消除、重繪、元素加入等,讓使用者透過精細化編輯實現「所見即所得」。▲Seko故事板畫佈局部修改功能儘管當下AI視頻發展距離規模化應用還有一定距離,但當下我們可以確定的是,其行業競爭正在從單一效果比拚轉向全鏈路價值競爭,也就是“成片智能體”在AI視頻工具中逐漸成為共識。02. 解碼「成片智能體」概念讓AI視頻開箱即用的關鍵以「成片智能體」應具備的能力為標準,我們看到Sora 2和Seko的部分能力設定高度趨同,都朝著讓AI視頻生成開箱即用視頻、零門檻出成片的目標進階。需要注意的是,即便二者在降低創作難度、覆蓋全流程需求等方向上高度趨同,但實現路徑呈現鮮明差異,Sora 2強調的是端到端直接輸出,Seko則看重生成過程中各環節進行可控性編輯。先來具體看下兩大平台的相似與不同之處。首先,降低使用門檻的前提是,讓AI能聽懂使用者的日常表達,減少對專業工具的依賴。Sora 2和Seko都可以理解使用者的日常用語,不需要更專業的術語即可產生相應的視頻內容,打破AI視頻創作對專業知識的依賴。在實測體驗時,當智東西輸入「小羊介紹新疆伊犁的美麗景色,一隻擬人化的小羊羔,超寫實風格」的提示詞,其就會生成策劃摘要、美術風格、角色主體、場景概念、音樂風格、故事板劇本。另外眾所周知影片的創作需要不同的工具進行音畫比配、實體模擬等,Seko將復雜技術環節全部封裝為後台自動流程,使用者無需手動調試參數,更無需借助剪輯、配音等第三方工具,就可以實現輸入想法就能得到​​視頻的體驗。Seko近日上線的新功能還支援一鍵製作多人對口型視頻,基於SekoTalk這個商湯自研的圖生視頻對口型演算法,在音樂MV、劇情視頻、廣告等領域都可以應用。在下面的影片中,它支援中英文等多種語言、多人對口型,包括輪流說話或同時說話的情況,即使是語速超快的說唱也不會出現偏差。其次是端到端直接輸出與極致的可編輯性,這也是Sora 2和Seko兩大成片智能體最核心的區別。Sora 2和Seko都可以覆蓋創作的全鏈路,其支援多模態輸入,使用者能透過文字描述建構場景、上傳參考圖定義角色外觀,可一次完成從創意拆解、理解複雜指令到成片輸出的端到端貫通。值得一提的是,這次Sora應用程式新增的Cameo與Seko的主體功能類似,都是透過產生統一的角色,保證後續生成內容的主體穩定、一致。▲Sora 2的Cameo功能(左)、Seko的主體功能(右)在此之上,Seko還進一步將生成內容進行了細化拆解,打造了「先靜後動」流程,將創作分為分鏡確認、細節修改、視頻生成幾個階段,具體來說就是,平台先根據用戶創意生成靜態分鏡序列,經用戶逐幀檢查畫面內容後,可以直接通過自然語言指令重繪角色、調整台詞或鏡頭角度,最後都可以確認鏡頭,最後都可以確認視頻。為了進一步確保成片的可控性,Seko還具備故事板靜態預覽、分鏡畫佈局部修改等功能,允許使用者在每個環節,對生成內容進行修改,如直接要求“把圖中的小羊換成牧羊犬”,系統能精準完成修改。Seko也支援一鍵修改背景,如要求「更換背景為咖啡廳」等。▲Seko局部修改功能當使用者確認了故事板的主體、影片內容、文字內容,就可以在右上方點選一鍵轉視頻。相較於Sora 2的一鍵成片,Seko的成片方式給了使用者更大的自由創作空間。最後是成片品質方面,相較於早期的工具,Sora 2、Seko在視頻生成內容的鏡頭穿幫、音畫不同步等問題上,已經基本實現了超長分鏡的穩定輸出。在此基礎上,Seko平台還更進一步,整合了商湯日日新、即夢、可靈、海螺、Veo等多款業界主流生圖模型,使用者基於該平台能精準控制多角色、多場景的複雜劇本輸出,確保角色形象、光線風格、動作邏輯全程穩定。在下面Seko使用者@不會畫畫的美術生生成的影片中,Seko將背景音樂、鏡頭轉換等諸多設定都與劇本內容相呼應。這些技術突破共同指向,AI視頻生成正朝著「成片智能體」進化,其核心是透過極簡互動、全流程貫通與高品質輸出降低創作門檻。商湯科技的Seko在此基礎上基於故事板預覽、可控式流程等關鍵能力,在視頻生成的可控性與商業可行性兩大關鍵維度上率先落地,讓「成片智能體」真正從技術概念變為觸手可及的生產力工具。03. 從不可控到可落地:Seko重構AI視頻商業化價值邏輯Sora 2和Seko的發展讓我們看到了AI視頻商業化落地的潛力,但當我們將視野放大到整個生成式AI行業會發現,想要讓AI視頻生成真正實現拿來即用,遠比圖文生成複雜得多。影片創作需同步處理畫面渲染的時序邏輯、音訊合成的情緒適配、物理模擬的真實回饋等多重難題,任何環節的斷層都會讓產生的影片出現偏差。正因為這種複雜性,Sora 2與商湯Seko在「成片智能體」的定位上,也呈現出了差異化的思路,前者聚焦從輸入到輸出的高品質端到端交付,後者則在保證成片質量的基礎上,強化了全流程創作的自主、可編輯與可控性。在下面Seko使用者@林龍生成的影片中,伴隨著鏡頭的變化將拯救公主的故事進行了完整呈現,還融入了逼真的特效。如同前面所提到的,創作可控性在AI視頻生成中至關重要,這也是Seko相比Sora 2等其他工具的顯著優勢,其核心可概括為創意可控、風格可控、成本可控。創意可控基本貫穿了前期使用者創作的全流程。使用者輸入核心創意後可進入編輯模式,對畫面細節不滿意可直接修改提示詞重繪單幀分鏡,覺得台詞生硬能逐句調整文案並同步更新配音,想優化敘事節奏可直接增減分鏡或調整鏡頭結構。這種先確認靜態效果、再產生動態視訊的設計,可以幫助使用者在早期修正創意偏差。其次是風格可控,Sora 2的模型體系相對單一,Seko採用了多模型整合和智慧匹配策略,整合了全行業主流生成模型,支援使用者自主選擇相應模型。最後是成本,Sora 2雖能產生高品質畫面,但其千卡級算力消耗帶來的隱性成本,讓中小型商家和個人創作者難以負擔。根據實際使用者回饋,Seko已將單分鐘動畫成本從傳統方式的數萬元降至千元等級,降幅超99.5%以上,讓中小企業和個人創作者也能負擔專業級製作。另外還要注意的是,Sora 2目前仍採用邀請制,並沒有免費向大眾開放,導致大量潛在使用者無法直觀體驗。再加上用戶紛紛在社群平台上傳Sora 2產生的短影片,涉及諸多熱門影視節目角色,使得其在版權方面的監管被廣泛質疑。目前,Seko已經全面向用戶開放,其上線1個月就擁有超10萬名創作者,生成視頻內容超50萬條。這些真實的使用者案例和資料,是Seko開箱即用潛力最有力的證明,其讓AI視頻創作變為可預期、可調整、可落地的過程,這也成為其區別於同類產品的核心競爭力。04. 結語:AI視頻競爭回歸實用價值Seko憑可控+普惠領跑當下AI視頻產業的發展意味著,其競爭正在回歸到價值本身,即能否以更低門檻、更可控過程和更低成本為使用者交付可用成果。Sora 2與商湯Seko共同指向的“成片智能體”,正是破解視頻生成普及難題的關鍵。商湯Seko透過創作可控性和商業普惠性,正在將這一藍圖變為觸手可及的商業現實。這條本土超越之路,或許正是AI影片普及的關鍵路徑。此外,Seko還有一大獨特優勢是集合多種大模型,未來或許也會接入Sora 2模型的能力,為使用者提供1+1>2的更優成片效果。 (智東西)