#視訊生成
中國AI視訊雙雄並起:Seedance 2.0與Vidu Q3組團席捲全球
爆紅社交平台、登頂全球評測,中國AI視訊模型集體破圈。在AI視訊創作領域,Seedance 2.0的爆火不是偶然。這一次真正“破圈”,很大程度上源於它所具備的“導演思維”——劇本驅動、分鏡清晰、節奏精準。它讓人們意識到,一個好的AI視訊更需要創意調度。而過去,創作者在AI視訊中最難掌握的兩個要素,恰恰就是理解故事結構與鏡頭語言。與此同時,另一款國產視訊生成模型生數科技的Vidu Q3,也在創作者社群中走紅,並剛剛登頂全球權威AI評測平台Artificial Analysis,成為全球排名第一的視訊生成模型。Vidu Q3強調“為劇而生”,它將畫面、聲音與長時長合為一體,一次生成即可輸出16秒的完整敘事段落,並支援多角色、多語種對話,具備強烈的“導演感”與“表演張力”。當行業熱議Seedance 2.0的絲滑節奏與真實感時,Vidu所代表的則是另一種強勢崛起——可控的內容表達、紮實的技術底盤以及高完成度的成片落地。01. 同樣是爆款視訊製造機Vidu Q3頗具表演張力AI生成視訊越來越真實,也越來越“能演”。情緒遞進是否自然、人物神情是否真實,成為評判AI視訊質感的重要標準之一。此次對比中,Vidu Q3在“表演感”上的表現,展現了另一種完成度。提示詞:現代高層辦公室,冷灰色調搭配落地窗的自然光線。女主穿著黑色西裝,手肘撐在辦公桌托腮凝視鏡頭,眼神冷靜且有力量。鏡頭從正面鏡頭,切換到側面鏡頭,捕捉她手指輕敲桌面的細節,她皺起眉頭,有點生氣,中文開口說道:“這就是這個星期的成果麼?我不滿意,重新做吧。”背景加入鍵盤敲擊聲與窗外城市車流的環境音,營造專業且略帶壓迫感的職場氛圍,無背景音樂。參考圖:Seedance 2.0與Vidu Q3效果:Vidu Q3生成的人物表情細節表現出較高穩定性,尤其在眼神、嘴角與眉弓等關鍵部位的控制上較為自然。當人物面臨情緒轉折時,能呈現出接近真人演員的表情變化,而非單一貼圖式的處理方式。A與此同時,Seedance 2.0與Vidu Q3的情緒表達具備起伏與節奏感,能夠與劇情節點同步推進,使畫面更具張力與“表演感”。無論是Seedance 2.0所展現的鏡頭感與節奏感,還是Vidu Q3在人設與情緒上的延展,都在共同拓展AI視訊“可看性”的邊界,補足了當前主流AI視訊模型在人物演繹方面的一大空白。02. 視聽一體的沉浸感更接近可用成片音畫一致性也是成片質感的關鍵參考因素。我們嘗試用Vidu Q3復刻了Seedance 2.0所生成的爆款視訊,Vidu Q3的效果與Seedance 2.0相近,在聲音與畫面協同方面展現出極高完成度。Seedance 2.0效果:Vidu Q3效果:從兩款模型的生成效果可見,其環境音、動作聲均與畫面節奏高度貼合,音效能夠配合鏡頭同步表達情緒變化。就比如在“怪獸大戰貓咪”這類打鬥場景中,打擊聲和背景音樂與角色動作完全同步,環境音與畫面節奏貼合得很好,整體氛圍被瞬間拉滿。無論是Seedance 2.0還是Vidu Q3,整體生成結果都具備很強的沉浸感,無明顯音畫錯位或情緒斷裂,生成後無需額外“補聲”處理,即可作為可用片段使用。在此番對比下,Vidu Q3與Seedance 2.0在視聽協同方面的穩定性與一致性上平分秋色,其生成內容均接近“直接可投放”水準,特別適用於短劇、廣告、劇情視訊等需要聲畫並重的創作場景。03. 開頭抓人,結尾帶情緒畫面爆發力適配商業化節奏在短內容環境中,一條視訊是否“抓人”,往往由首尾幾秒決定。本輪對比測試中,兩款模型在關鍵畫面節點均表現出色,尤其是在開場的視覺衝擊力與結尾的情緒收束方面。提示詞:電影級特效風格,夜晚都市環境,中景拍攝。一名身穿西裝的男子站立不動,神情冷靜;下一瞬間黑色黏稠液體從頸部與肩部迅速蔓延,沿身體流動、翻湧、包裹全身,伴隨強烈閃光,西裝被吞噬並重組為毒液風格怪獸形態,肌肉誇張、表面液態反射明顯。鏡頭輕微震動並快速推近,強化變身衝擊力。音訊:低頻能量轟鳴起始 → 黏液流動音效(濕潤、拉絲感)→ 變身完成瞬間加入強烈衝擊音與閃光爆音;無背景音樂、無人聲,對白完全缺失,所有聲音集中服務於變身過程,營造震撼、黑暗、危險的氛圍。參考圖:以“毒液變身”這一高強度特效場景為例,Vidu Q3的開場首幀具備強烈的視覺記憶點,如面部特寫、液體包裹動作與爆發性變身效果,能夠迅速吸引使用者注意。而在劇情推進結束時,其收尾處理較為自然,畫面具有一定的定格感,這類特徵便適用於短劇、廣告等留存導向內容。與之對應,Seedance 2.0則在鏡頭語言與節奏控制上表現穩定,變身過程中的動作銜接與閃光爆點處理流暢,在視覺與節奏之間拿捏得當,也展現出極強的大片質感。再來看“雪王大戰奧特曼”這一打鬥場景。Seedance 2.0在打擊感上的表現更加直接,動作反饋清晰、節奏緊湊,呈現出“拳拳到肉”的真實衝擊力。Vidu Q3則在特效表現上更為突出,“電光火石”的能量感與視覺張力更強,整體畫面更具影視感。就對內容“起承轉合”的掌控能力而言,這兩款模型不僅都適合內容生產,還可直接用於商用傳播。在以短影片和片段化內容為主的平台生態中,這種“自帶爆點”的生成方式將極大提升效率。04. 從節奏調度到風格控制創作可控性正在重塑AI視訊工具AI視訊是否能持續復用、風格是否統一、鏡頭是否可控,是關鍵難題。從這一層面看,兩款模型代表了創作路徑的不同側重。在節奏調度方面,Seedance 2.0在李小龍風格動作片這類快節奏場景中,鏡頭切換自然、動作銜接流暢,具備很強的“剪輯感”,很適合強調動感、爽感的內容創作。相較之下,Vidu Q3在鏡頭穩定性上表現較為均衡。在風格控制能力上,Vidu Q3支援特效參數設定與多參考素材輸入,創作者可細緻調節光效、鏡頭節奏、角色穩定性等維度,可控影響最終的生成內容。兩種路徑的分化,本質上是效率與風格的抉擇,也為不同階段、不同類型的創作者提供了工具層面的適配方案。一邊是絲滑節奏與高上手效率,一邊是多參控制與風格一致性,兩種創作思路均圍繞“可控性”這一核心能力進行各自演進,共同推動AI視訊從生成工具進化為創作工具。05. 中國雙雄並起,國產AI視訊模型正攜手走上全球第一梯隊在生成視訊這條賽道上,中國模型正在超越國際水準。Seedance 2.0和Vidu Q3分別代表了創意調度與高水準輸出的兩個高點,也代表了國產模型從技術追趕到能力破圈的階段性躍遷。從性能角度看,據全球權威評測平台Artificial Analysis資料顯示,Vidu在商業內容生成級模型中目前排名全球第一,其生成速度比OpenAI的Sora 2快10倍,相較Google Veo 3 Fast和Grok-imagine-video也有2倍優勢。生數科技在2025年12月開放原始碼的TurboDiffusion框架,也將生成效率提升至單張RTX 5090顯示卡1.9秒生成5秒視訊,效率相比傳統擴散路徑提升100-200倍。相比海外模型,Vidu和Seedance走出了一條更加面向成片落地的道路,強化結構控制與多角色協同,在短劇、廣告、劇情類內容中更具適用性,國產AI視訊模型正攜手走上全球第一梯隊。06. 結語:一登榜首,一爆火出圈國產AI視訊模型正在形成集體突破從登頂全球權威榜單的Vidu Q3,到在海內外爆火的Seedance 2.0,無論是生成速度、結構控制、情緒表現,還是風格自由度,國產AI視訊模型正在多個核心維度上持續接近甚至超越海外同類產品,逐步站上全球第一梯隊。它們不僅證明了中國模型在技術能力上的躍升,也為AI視訊在商業化與創作生態中的深度落地打開了想像空間。國產AI視訊的全球登頂,或許只是一個更大變局的起點。 (智東西)
字節跳動,又放了一個大招
臨近春節,字節跳動新一代AI視訊生成模型Seedance 2.0迅速出圈。遊戲科學CEO馮驥甚至感慨它是當前地表最強的視訊生成模型,沒有之一。然而,在驚豔業界的同時,Seedance 2.0也引發了對深度偽造(Deepfake)濫用和虛假視訊氾濫的廣泛擔憂。2026年開年,朋友圈被字節跳動旗下視訊生成模型Seedance 2.0刷屏。“董宇輝功夫對戰成龍”“滅霸對戰中國神話人物”等AI視訊給人一種前所未有的“炸裂感”。有使用者測評之後坦言,“功能太強大,真被嚇壞了”。在一片驚嘆聲中,資本市場的情緒也被點燃。2月10日,傳媒類股集體走強,不少相關公司直接漲停。這並非一次簡單的話題炒作。作為2026年第一個出圈的視訊大模型,Seedance 2.0的橫空出世,不僅正在重塑AI視訊創作的行業格局,也迅速撬動了產業鏈上下游的想像空間。不少業內人士感嘆,視訊領域的“DeepSeek時刻”,終於來了。Seedance 2.0有多厲害?2月7日,字節跳動低調上線其新一代AI視訊生成模型Seedance 2.0,並在即夢、豆包、小雲雀等旗下產品開啟小範圍內測。目前僅向即夢會員有限次開放,非會員僅能獲得少量免費試用機會。儘管官方尚未正式官宣,但其展現出的“工業級”生產力讓行業劇震。Seedance 2.0之所以能快速出圈,核心原因在於它擺脫了之前產品“技術炫技”的套路,成為一個高度貼近現實應用場景的產品。該模型不僅支援文生視訊、圖生視訊,更具備強大的“多模態參考”能力,可同時上傳圖片、視訊、音訊等最多12個檔案。使用者只需輸入一句自然語言描述,或上傳一張靜態圖片,就能自動生成具備多鏡頭切換、連貫敘事、同步音效的原生1080p電影級視訊,部分場景可支援2K解析度。更重要的是,其生成的畫面在清晰度、色彩還原、景深與動態模糊等方面,已完全貼合商用級創作標準,且物理引擎升級後,流體、布料、人體動作呈現更符合物理規律,避免畫面失真。影視颶風創始人潘天鴻(Tim)第一時間對Seedance 2.0進行了實測。他發現,該模型在大範圍運動畫面、分鏡切換、音畫匹配等方面表現突出,其中分鏡設計具備“明顯的角度切換”,能夠“像真人導演一樣,不斷改變攝影機的位置”。真正拉開差距的是Seedance 2.0對“生成+編輯”流程的重構。不同於以往“生成即定稿”的AI視訊模型,Seedance 2.0允許使用者在生成後直接對局部片段進行修改,無需借助第三方軟體,大幅降低廢片率,顯著提升創作效率。與此同時,它還系統性地解決了困擾AI視訊領域已久的三大痛點:嘴型與音訊不同步、角色面部畸變、長視訊內容穩定性不足。實測顯示,其角色對話口型誤差已可控制在0.1秒以內,足以支撐短劇、廣告、遊戲CG等商用場景。隨著更多使用者的實測視訊在社交平台擴散,行業評價迅速升溫。2月9日晚,國產3A遊戲《黑神話:悟空》製作人、遊戲科學CEO馮驥在微博直言, Seedance 2.0是“當前地表最強的視訊生成模型,沒有之一”,並感慨“AIGC的童年時代,結束了”。馮驥還感到慶幸,“至少今天的Seedance 2.0,來自中國”。多家券商也在研報中對Seedance 2.0給出積極評價。開源證券指出,Seedance 2.0的驚豔,在於自運鏡和分運鏡、全方位多模態思考、音畫同步生成、多鏡頭敘事能力等幾個關鍵能力上實現突破,給使用者提供“導演級”的控制精度,或將成為AI影視的“奇點”時刻。會帶來那些改變?Seedance 2.0的爆火,並不僅是一款科技產品的走紅,更被業內視為一次對視訊創作、傳媒影視等行業底層邏輯的強烈衝擊。首先是Seedance 2.0抹平了專業技術鴻溝,使“高品質視訊”不再是昂貴團隊的專利。電商廣告、產品預拍攝等對成本敏感的領域,正經歷從靜態圖向視訊態的全面轉化。其次是生產流程的系統性重構。對於傳媒、影視、短劇等行業而言,Seedance 2.0已開始被用於影視預演、廣告提案、IP可視化等環節。在短劇領域,“一鍵小說轉短劇”成為現實,在漫劇賽道,內容生產甚至可以實現24小時不間斷上線。中文線上已通過接入Seedance 2.0技術,在春節檔上線多部AI短劇,累計播放量突破5億,IP變現效率明顯提升。馮驥直言,一般性視訊內容的製作成本將逐步趨近算力的邊際成本,內容領域必將迎來史無前例的 “通貨膨脹”,傳統的組織結構與製作流程會被徹底重構。最後是IP價值的再啟動與新賽道的打開。Seedance 2.0使得網文、圖書、經典影視IP能夠被更低成本、更高頻率地轉化為視訊內容。例如,上海電影借助Seedance 2.0,將“葫蘆娃”“黑貓警長”等經典IP轉化為4K續作短片,上線三日播放量破億,探索出經典IP二次變現的新路徑。對讀客文化、掌閱科技等IP儲備大戶來說,這無異於掌握了快速跨入視訊賽道的“入場券”。中信建投證券在研報中指出,Seedance 2.0有望與字節跳動旗下豆包、Seedream等模型協同,形成全模態內容矩陣,加速AI視訊商業化落地,推動傳媒行業進入新的發展階段。不過,Seedance 2.0所暴露出的風險,同樣引發了專業人士的集中討論,其中隱私保護、版權歸屬與內容可信度成為爭議焦點。影視颶風創始人潘天鴻(Tim)在測評時,多次用“恐怖”一詞形容自己的體驗。他發現,僅上傳自己的人臉照片,系統便可生成與其本人高度相似的聲音。在上傳一棟建築的正面照片後,AI運鏡竟能自動切換至建築背面,背面景象與現實幾乎一致。“它知道我背後的東西是什麼,即便我們沒有告訴它。 ”他詫異道。由此,他推測Seedance 2.0可能在訓練過程中大量使用了其團隊過往的視訊素材,而他本人並未收到明確授權或獲得報酬。儘管平台使用者協議中可能存在相關條款,但這種“隱性授權”模式,仍引發了行業對版權邊界的廣泛討論。馮驥在肯定技術突破的同時,也直言自己最擔憂的是“假視訊氾濫與信任危機”。在他看來,逼真的假視訊將變得毫無門檻,現有的智慧財產權與審查體系,會面臨空前衝擊。因此,馮驥鄭重建議:“請大家盡快提醒父母與不熟悉AI的親友,未來一切缺乏官方權威管道背書的視訊內容(尤其是包含個人形象與聲音的)都可能是偽造的。請務必通過多管道交叉確認,避免上當。”使用者的擔憂已在產品端得到反饋。2月9日,即夢平台緊急發佈通知,暫不支援輸入真人圖片或視訊作為主體參考。針對上述爭議,業內一些專家指出,基於公開資料訓練模型是全球AI行業的通行做法,但視訊與聲音的高辨識度,使得資料使用邊界問題被急劇放大。如何在技術進步與隱私保護之間建立新的平衡,將成為2026年全球監管者繞不開的課題。總體而言,Seedance 2.0點燃的,或許不只是一個市場概念,而是整個行業的重構周期。 (財經天下WEEKLY)
海外推特已誇爆,馮驥都嚇一跳,“慶幸Seedance是中國的AI”
“學了7年數字電影製作,現在感覺90%都白學了。”在社交媒體X上,AI影視創意內容領域最為活躍的創作者之一“el.cine”,突然哭笑不得地爆發出了一陣哀嚎。原因無他,在嘗鮮字節跳動新一代AI視訊生成模型Seedance 2.0後,他徹底被震撼了。這款於今年2月低調上線的模型,官網將其定位為“可導演的電影級全流程生成引擎”。它能理解複雜的自然語言指令,將文字或圖像直接轉化為電影級水準的視訊內容,區別於早期AI視訊工具僅能生成碎片化片段的侷限。Seedance 2.0採用雙分支擴散變換器架構,可同步生成視訊與音訊,只需輸入提示詞或上傳參考圖,就能在60秒內產出帶完整原生音軌的多鏡頭視訊,大幅降低專業創作的門檻與成本。其最具突破性的能力,在於“單指令生成連貫多場景”。AI可自動解析敘事邏輯,生成環環相扣的鏡頭序列,並在角色、光影、風格與氛圍上保持高度統一,實現近乎“零後期”的成片效果。這種跨鏡頭的敘事一致性也被業界視為突破性創新。官方介紹稱,該模型非常適合創作從開篇到高潮的完整故事線,保證專業級的敘事流暢度。儘管上線低調,但上線僅2日,Seedance 2.0便在海外輿論場引發轟動。當年蘇聯率先發射人造衛星“Sputnik”,在英語世界造就了“斯普特尼克時刻”這個詞組;而2026年開年,世界就迎來了“Seedance時刻”。X 平台上,不少使用者稱讚其生成效果媲美好萊塢大片,相關話題迅速沖上熱門,多條演示影片播放量破百萬。el.cine用它製作的第一條短片便引爆關注:畫面中,一名男子在人群中狂奔,猛地撞翻路邊水果攤,橙子四散飛落。在一段極具張力的慢鏡頭之後,男子掙紮起身,繼續被四名警察追逐。網友有點晃神:等會兒,從那兒開始是AI做的?“我甚至都不確定這是真的還是假的。”運鏡、光影、人物表情、鏡頭語言近乎無懈可擊。人類大腦正是依靠這種感知層面的高度統一來判斷真實,而這段視訊幾乎“騙”過了所有人的眼睛。“99%逼真。要是你沒說這是AI,我都要去查演員了。”還有網友感嘆道,“如果Seedance 2.0能做到在實際生產中穩定、低成本、可預期地運行,那麼一整套創意工作流程都將被徹底改寫。”這則視訊更讓許多專業人士嘖嘖稱奇。美國AI訓練資料初創公司Parsewave的聯合創始人在觀看後驚嘆:“我太驚訝了,蘋果和橙子掉落在地上的效果看起來如此逼真……我對AI視訊向來極其挑剔,但這個片段,我真的挑不出任何毛病。”在Mac生產力社區小有名氣的小型獨立開發者dashpane.pro前創始人更是直言:“中美AI視訊技術的差距已經大到有些難堪。中國這些模型的水平,看起來比美國所有公開可用的同類技術領先了整整兩代。”在隨後幾天裡,el.cine繼續發佈了多條Seedance 2.0創作視訊,全面展示其能力。比如用漫畫分鏡鏡頭直接生成動作電影場景。或是僅憑一個文字指令,就能生成一個多鏡頭武打場景。甄子丹看了都得迷糊:我拍過這部電影嗎?無論是拳腳交鋒、刀光劍影;還是戰火紛飛、硝煙瀰漫;乃至天馬行空的科幻巨製,都能輕鬆實現。el.cine不禁苦笑:現在還有誰會說“一鍵生成電影”是做不到的?網友也有同感,“過去一部好萊塢電影要耗資數百萬美元,如今,一個只要付得起電費的人,就能完成同樣的事。”“老天鵝,這完全是重新定義了視覺敘事。”作為導演,el.cine坦言,Seedance 2.0是目前唯一讓他產生強烈危機感的AI模型。“毫不誇張地說,電影行業裡的每一份工作都面臨被顛覆。你只要上傳一個劇本,它就能直接生成完整場景,不只是零散片段,還自帶特效、配音、音效、配樂,甚至連剪輯都完成得十分出色。我們可能連剪輯師都不再需要。”他感慨:“這更像是傳統電影行業在無聲中走向終點,同時,一個未知的全新時代正在開啟。”在遊戲科學CEO馮驥看來,Seedance 2.0確實如其所言,是一個“殺死比賽”的存在。他直接給出了“當前地表最強的視訊生成模型”的超高評價。“AI理解多模態資訊(文、畫、影、音)並整合的能力完成了一次飛躍,令人驚嘆。”馮驥直言,“我很慶幸,至少今天的Seedance2.0,來自中國。”當被評論區網友問及未來AI若能做出《黑神話:悟空》等級的作品時,馮驥幽默回應:“那我們可能將會變成新時代的非遺手工作坊了。”面對又一輪來自中國AI的強勢衝擊,有人憂心傳統影視行業或將就此落幕,“好萊塢完蛋了”的論調此起彼伏;但也有人從中看見,一個更回歸創作本質的新時代正在到來。“我們終於回到了拼創意的時代。AI視訊模型已經強大到,靠廉價特效和單純獵奇再也打動不了人了。你必須講好一個真正讓人願意追隨的故事——而這,恰恰是最難也最珍貴的事。” (觀察者網)
Seedance 2.0著實恐怖了些
這個周末,字節跳動的新視訊生成模型在全網被炒得沸沸揚揚。“殺死比賽”、“效果爆炸”等AI時代已經被用爛了的詞瞬間又飄得滿屏都是。有人說,字節的Seedance 2.0可能會是繼Google的Veo 3和OpenAI的Sora 2之後的又一款革命性、里程碑式的AI視訊生成產品。正當我懷疑這些司空見慣的說法,是不是年前AI企業引流的又一次概念炒作時,知名B站UP主“影視颶風”凌晨一點發佈的一條視訊給出了一個確切的答案:Seedance 2.0的能力強到有些恐怖。01 強者,無需多言先來看看官方文件中給出的一些視訊demo:提示詞:男人@圖片1下班後疲憊的走在走廊,腳步變緩,最後停在家門口,臉部特寫鏡頭,男人深呼吸,調整情緒,收起了負面情緒,變得輕鬆,然後特寫翻找出鑰匙,插入門鎖,進入家裡後,他的小女兒和一隻寵物狗,歡快的跑過來迎接擁抱,室內非常的溫馨,全程自然對話。我對視訊和電影創作並無深刻理解,幾乎完全無法分辨這到底是AI的生成還是人類的創作。生成一些萌寵的動畫短片也是不在話下:提示詞:在“貓狗吐槽間”裡的一段吐槽對話,要求情感豐沛,符合脫口秀表演:喵醬(貓主持,舔毛翻眼):"家人們誰懂啊,我身邊這位,每天除了搖尾巴、拆沙發,就只會用那種“我超乖求摸摸”的眼神騙人類零食,明明拆家的時候比誰都凶,還好意思叫旺仔,我看叫“旺拆”還差不多哈哈哈“旺仔(狗主持,歪頭晃尾巴):"你還好意思說我?你每天睡18個小時,醒了就蹭人類腿要罐頭,掉毛掉得人類黑衣服上全是你的毛,人家掃完地,你轉身又在沙發上滾一圈,還好意思裝高冷貴族?"除此之外,“影視颶風”發佈的視訊中還展示了蜜雪冰城的雪人大戰外企咖啡店機器人、奧特曼打怪獸、功夫高手以一敵多、女運動員長跑和拳擊的商業短片等場景,伴隨著流暢的視覺效果和毫無破綻的多角度運鏡。發佈僅僅兩天,就已經讓各大專業影評人讚不絕口、讓普通使用者忘記了AI視訊生成的邊界。在字節發佈的Seedance 2.0文件中,研究團隊用很克制的語言描述了驚人的技術突破:物理規律更合理、動作更流暢、多模態參考能力支援文字、圖片、音訊和視訊的自由組合。針對以往視訊生成的難題,Seedance 2.0也做了針對性的最佳化:使用者可以通過上傳參考視訊實現高難可控的運鏡和精準的動作復刻,在一致性提升的基礎上實現視訊延長、音樂卡點、多語言配音、創意劇情補全等使用功能。若是從眼光將3D世界轉向2D動畫,Seedance 2.0則能給出更多驚喜:它能將漫畫分鏡自動轉變為動畫,能識別2D角色的眼睛、頭髮、服飾為獨立可動的圖層,避免早期AI將平面圖像誤判為偽3D的問題。一時間,AI圈沸騰了:民用級視訊生成即將跨越臨界點,技術執行問題已經被解決,擺在人們面前的已經是創作決策問題。不過,技術的高光時刻,背後往往伴隨著陰影。02 令人不安的“巧合”見識過Seedance 2.0的強大後,“影視颶風”視訊的後半段卻給出了一個奇怪的案例:出鏡者Tim將自己的臉部照片和提示詞一併上傳給模型,模型自然返回了一段以他為主角的AI科普視訊。可是,視訊中出現的不僅有他的形象,還有和他幾乎一樣的聲音。而在一段實景視訊中,背景中的建築更是與他的公司大樓極其相似。更詭異的是,評論區裡還有一位測試者,同樣只提供了臉部照片並要求模型生成夜跑場景。結果畫面中的人物,穿著這位測試者上周剛買的跑鞋,連顏色和鞋款版型都分毫不差,儘管他沒在提示詞中透露任何相關資訊。作為技術愛好者,我堅定認為這不是什麼“靈異現象”。於是,我馬上去仔細讀了一遍字節發佈的文件,官方的解釋是這樣的:模型展現出了此類能力可歸因於“多模態參考”和“一致性提升”。“多模態參考”指模型能夠同時解析圖像、音訊等異構資料,實現跨模態特徵對齊。“一致性提升”則依賴對海量視訊中人物、物體、場景共現規律的統計學習。從純理論角度上來說,模型能夠生成與Tim和那位測試者極其相像的視訊並非不可能,因為它在問世之前已經見過足夠多“人臉+聲音+服飾+環境”的組合樣本。不過,理論層面上的合理恐怕無法消解個人體驗的不適。如果AI真的能在毫無明確提示的情況下猜中跑鞋,則必然是獲取到了購買記錄等相關資訊;能夠準確模擬聲音和建築,則證明它已經多次欣賞過Tim拍攝的相關視訊。這種精準雖然令人瞠目結舌,但也早已超越統計機率的舒適區間,帶給人們一個不安的猜想:我們的生活,是否早已成為訓練資料中的一部分?答案是肯定的。因為抖音的使用者服務協議中早已寫明:“全球範圍內、免費、非獨家、可多層次再許可的權利”這個表述,或多或少體現出了一定的模糊性。我們無從得知這裡面是否包括AI模型的自動化訓練,但可以確信的是,人們的生活切片正在被用於建構“複製自己”的生成模型。評論區裡充斥著不滿的呼聲:“誰還敢在社交平台分享生活?”這並非過度恐慌,而是人們潛意識中資料主權意識開始逐漸覺醒。我們早已習慣技術帶來的便利,卻總是無視資料控制權的悄然流失。03 創作的末路:創意被演算法稀釋Seedance 2.0突如其來的技術衝擊,受到影響的可遠遠不止人們的日常生活。由此變得支離破碎的,還有創作者的精神世界。短短9分鐘的視訊,評論區卻體現出人生百態。一位自由畫師寫下留言:“我被迫使用AI工作流進行創作,卻絲毫感受不到任何快樂,因為我只是在重複生圖、拼接、再生圖的流程。在我的認知中,它根本不是我的作品,因為我沒有參與任何細節的推導。”這位畫師懷念的不僅是繪畫技術本身,更是人們參與藝術創作過程時身臨其境的感受。每一處細節的反覆推敲和修改、委託人收到作品時表現出的認同和喜愛、自我價值的實現,這些充分體現藝術創作內在價值的時刻,不該由“提示詞→生成→篩選”的流程所替換。而作為程式設計師,我也深有體會。剛上大學接觸專業課的那段時間,一個課程設計會讓全班大部分同學焦頭爛額。從資料結構,到運行邏輯,再到UI介面設計,初出茅廬的新生們少則幾周,多則一個月,才能完成一個基礎功能完備,介面談不上多美觀的小應用。那種運行上百遍,最後一次終於不報錯成功運行的釋懷感,我已經很久沒有感受過了,因為這些任務在AI眼裡,都是僅需幾分鐘即可完成的東西。科技進步利多了人類,但也讓以前需要經年累月積累的專業壁壘加速瓦解。無論是那個行業的從業者,看到自己辛苦學了多年的知識和技術被輕輕鬆鬆實現和超越,都難免因為“努力貶值”而感到失落。更深層的憂慮來自於行業結構的極端化。米哈游創始人蔡浩宇曾經給出過一個有點誇張的預言:AI時代,遊戲創作將只屬於兩類人——0.0001%的頂級專業團隊能創造出前所未有的遊戲作品,99%的業餘愛好者可以根據自己的喜好自由創作遊戲。其餘的開發者,建議轉行。這個預言能否成真並不重要,但Seedance 2.0的創作能力與之描述的如出一轍。當AI能夠輕鬆復刻電影等級的運鏡和情緒演繹,創作就會被演算法系統性地結構,而不再是人類獨有的優勢。強大的工具已經發到了每個人的手上,但面對“費半天勁做出來的東西還不如AI”的質問時,我卻不知道該如何回答。04 從“技術改變生活”到“生活改變技術”開篇那句“技術執行問題已經被解決,擺在人們面前的已經是創作決策問題”,至此得以解釋。人們已經無需擔心“AI能不能做出視訊”,只需要判斷“那條AI生成的視訊更好”,再把選擇反饋給AI,即可完成多模態資料的流動閉環。在無數次循環往復中,AI不僅僅能生成內容,還將學會定義何為“優質創意”、篩選出適合指定風格視訊的使用者。如此一來,人類就從創作的主體變成了被演算法評估的客體。我很認同評論區的一句話:當AI能夠輕鬆實現所有人的“創意”,甚至是復刻人類自己,創意就會失去價值,個體將反過來變成AI挑選的對象。技術不再服務於人,而是重構人的價值觀,這種虛無感實在有些令人不寒而慄。Seedance 2.0的發佈實則是AIGC技術從工具向價值的一次越界嘗試。它不再侷限於按部就班地執行使用者指令,而是開始試圖理解和復現人類創作中難以用言語精準表達的特質,像是情緒的變化、風格的延續或是跨模態的隱喻關聯。這種能力的躍遷值得所有人肯定,但也請不要忘記,躍遷所需要的能量正是來自於我們日常生活中的點點滴滴。“技術改變生活”,這是一句數字時代以來流傳了很久的樂觀敘事。但Seedance 2.0的技術演進似乎在暗示:生活正在以我們難以察覺的方式改變著技術。面容、聲音、消費記錄和社交痕跡都開始成為演算法的養料,但資料主權意識和制度保障尚未完全建立。技術並無善惡之分,但資料的流向決定了權力的歸屬。人類是否還有自己資料的最終解釋權,取決於AI時代“創作”這個詞的定義:它可以是演算法對生活的精準復刻,也可以是人類意志的無限延伸。Seedance 2.0正在讓所有人都直面一個根本問題:是否願意用生活的全部細節,來交換技術的無限便利?對如此強大的視訊生成能力,我們似乎沒有拒絕使用的理由。而面對如此快速的技術演進,不知道我們是否還能有拒絕使用的權利。 (錦緞)
“強到可怕!”字節Seedance2.0灰度測試爆火,黑悟空老闆:AIGC的童年結束了
全模態素材都能參考,鏡頭切回來還保持原樣。智東西2月9日報導,2月7日,字節跳動AI視訊生成模型Seedance2.0開啟灰度測試,該模型支援文字、圖片、視訊、音訊素材輸入,可以完成自分鏡和自運鏡,鏡頭移動後人物特徵能夠保持一致。字節Seedance團隊釋放出的飛書文件中介紹到,Seedance2.0可精準還原參考圖的畫面構圖、角色細節,可以復刻參考視訊的鏡頭語言、複雜的動作節奏和創意特效。其所生成的視訊支援平滑延長與銜接,可按使用者提示生成連續鏡頭。Seedance2.0的編輯能力同步增強,支援對已有視訊進行角色更替、刪減、增加。▲女士優雅地曬衣服(來源:Seedance官方)在海外社交平台X上,Seedance2.0的討論熱度居高不下。一位學習了7年數字電影製作的網友在體驗後說,這個模型(Seedance2.0)是唯一一個讓他感到害怕的模型,電影行業的所有崗位幾乎都要消失了。90%他所學習到的技能,Seedance2.0都能實現。▲數字電影製作學習者評論(來源:X)產品設計師、使用者體驗(UX/UI)設計師Linus Ekenstam看完Seedance2.0的案例後說:“它會讓網際網路崩潰,百分之百。 ”▲產品設計師評價(來源:X)遊戲科學創始人兼CEO、《黑神話·悟空》製作人馮驥在體驗了Seedance2.0後還專門發了微博,稱讚該模型為“當前地表最強的視訊生成模型。”並且很慶幸今天的Seedance2.0來自中國。但他也從其中看出了假視訊氾濫與信任危機,因為“逼真的視訊將變得毫無門檻。”▲馮驥微博(來源:新浪微博)但是Seedance2.0也並不完美,在字節Seedance團隊發出的飛書文件《Seedance2.0使用手冊》中,有使用者在評論區中反映,使用同樣的提示詞和素材,生成的視訊在精細化控制上卻不太行。▲飛書文件使用者評論(來源:飛書)並且在一個官方案例中,Seedance2.0生成視訊的中文字幕還是會出現老生常談的中文亂碼情況。▲官方案例錯誤(來源:飛書)這個模型真的有一眾網友說得這麼“恐怖”嗎?智東西第一時間體驗了Seedance2.0,Seedance2.0所生成的視訊畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解加入運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。體驗地址:https://jimeng.jianying.com/ai-tool/home01.能自動加入運鏡全模態素材均可參考2025年12月16日,Seedance1.5 pro模型發佈,在音視訊聯合生成、音畫同步、多語言、運鏡以及語言理解方面進行了提升。Seedance2.0預計在明天正式發佈,目前在即夢AI官網可以充值會員付費體驗,在小雲雀App中則有三次免費體驗機會。Seedance2.0支援文字、圖片、視訊和音訊作為參考素材輸入。使用者可以同時給它最多9張圖片、3段視訊和3段音訊作為參考,指定動作、運鏡、人物、場景、特效、聲效等,Seedance2.0就可以根據參考材料和提示詞要求,合成視訊。但為了保護隱私,Seedance2.0目前暫不支援上傳包含寫實真人臉部的圖片素材。Seedance2.0可精準還原參考圖的畫面構圖、角色細節,還支援鏡頭語言、複雜的動作節奏、創意特效的復刻。其所生成的視訊支援平滑延長與銜接,可按使用者提示生成連續鏡頭。Seedance2.0的編輯能力也同步增強,支援對已有視訊進行角色更替、刪減、增加。如果沒有參考素材也沒關係,只需要一段簡單的提示詞,該模型就可以根據所描述的情節自動規劃分鏡以及運鏡,還能在劇情需要的地方實現慢動作、鏡頭搖晃等效果。在一致性上,Seedance2.0在生成視訊的同時就可以生成匹配的音效和配樂,並且支援口型同步和情緒匹配。Seedance2.0所生成視訊中的角色和場景還可以在多個鏡頭之間保持一致性,使用者可以用該模型生成一段包含多個鏡頭切換的完整片段。02.體驗:人物場景一致性高汗水灑落可以“以假亂真”智東西上手體驗了Seedance2.0模型,主要考察模型的自運鏡、角色場景一致性和角色替換方面的能力。Seedance2.0所生成的視訊畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解加入運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。首先,我們輸入提示詞:特寫,焦距50mm,扎馬尾的女生坐在窗邊,微笑時有梨渦,在咖啡廳的桌面上的筆記本上寫著什麼,偶爾有思考的停頓,背景虛化呈現,咖啡館的木質桌沿,柔光打在面部,突出輕鬆的氛圍,咖啡廳中放著鋼琴曲。Seedance2.0生成的視訊如下:▲咖啡廳女孩生成片段(來源:智東西體驗)在生成速度上,Seedance2.0生成一段10秒的視訊需要5分鐘左右。從視訊的畫面上來看,在提示詞沒有說如何運鏡的情況下,該模型自動在開頭加了一個漸進的運鏡,讓畫面劇情更加自然和流暢。在漸進的過程中,畫面中的人物、場景都沒有發生畸變,保持了一致性。Seedance 2.0也可以很準確地還原國漫風,我們上傳了一張國風動漫角色圖,要求Seedance2.0參考圖片,生成一段人物自述片段。▲國風參考圖(來源:Seedance2.0)Seedance 2.0生成的視訊就像是某個遊戲的過場CG動畫,視訊的畫風和人物特點都與素材圖片一致,隨風飄動的絲帶和花瓣邊緣輪廓清晰,運動軌跡合乎常理,人物的嘴型和台詞也可以對得上。但是,在人物情緒的表達上,視訊中人物的面部肌肉沒有明顯的變化,情緒表達不夠飽滿。▲國漫生成片段(來源:智東西體驗)最近,一個韓國AI小狗接受採訪的視訊非常火,我們將視訊截圖發給Seedance2.0,讓它將原圖中的小狗換成小貓。▲AI小狗視訊截圖(來源:小紅書)可以看到,Seedance2.0生成的視訊很完整地保留了參考素材的風格,給小貓穿上了睡衣,並且讓小貓雙手張開,並不是簡單地換頭,小三花貓沒有被睡衣覆蓋的肚子部分也還原了真實小貓崽肚子的質感。而且,在音訊上,Seedance2.0也精準地實現了提示詞中所說的25歲女記者和小孩的聲線。▲AI小貓生成片段(來源:智東西體驗)在X上,自媒體博主冰河用Lovart的Skill生成分鏡故事板,直接複製到Seedance2.0中,他說該模型所生成的視訊比他用ComfyUI做的還細緻。▲自媒體博主冰河製作視訊片段(來源:X)AIGC藝術家DynamicWang用Seedance2.0製作了一個模仿Nike品牌廣告風格的短片,短片中共出現了四位不同族裔的女性,每一位角色的身材和肌肉線條都很符合其所進行的運動的標準,且鏡頭角度變動後,角色的臉部特徵依舊保持一致。短片中的運鏡也十分自然,沒有拼接痕跡,慢動作、角度移動的位置都很準確,符合劇情需要。從第一位體操女孩流暢的翻轉跳躍可以看到,Seedance2.0直接攻破了“AI生成不了體操視訊”這個難題。拳擊女生和跑步女生的汗水以及游泳女生濺起的水花,都沒有了此前AI生成的“黏膩感”。在小雲雀App中,有不少使用者都上傳了自己用Seedance2.0生成的視訊片段。有李小龍對戰日本武士:▲使用者上傳案例(來源:小雲雀App)真人版七龍珠:▲使用者上傳案例(來源:小雲雀App)還有仙俠竹林對決:▲使用者案例(來源:小雲雀App)03.結語:Seedance2.0降低表達門檻但提高了對創作者的敘事能力要求從各路大神的體驗、官方案例以及智東西自己的體驗視訊看下來,Seedance2.0最突出的就是運鏡和剪輯能力以及人物和場景的一致性。但其在情感表達的細膩度、中文文字的呈現等方面仍有提升空間。從這一點看,或許Seedance2.0還不足以徹底改變影視界,但Seedance2.0的出現,無疑降低了專業表達的門檻,讓更多人有工具可以將想法可視化。同時,此類AI視訊製作模型也可能加劇內容市場的同質化競爭,並對創作者的原創性、審美和敘事能力提出更高要求。 (智東西)
字節又一款AI產品火了!
近日,一款名為Seedance2.0的AI視訊生成模型再度刷屏海內外網際網路。根據官方資料,Seedance2.0由字節跳動推出,可根據文字或圖像建立電影級視訊。它採用雙分支擴散變換器架構,可同時生成視訊和音訊。只需編寫詳細的提示或上傳一張圖片,Seedance 2.0 即可在60秒內生成帶有原生音訊的多鏡頭序列視訊。值得一提的是,這款模型獨有的多鏡頭敘事功能,能夠根據單個提示自動生成多個相互關聯的場景。AI會自動保持所有場景切換中角色、視覺風格和氛圍的一致性,無需手動編輯。官方聲稱:“非常適合建立從開頭到高潮的完整敘事序列,並確保專業級的連貫性。”於是一經發佈,大量使用者紛紛主動嘗試Seedance2.0,類似下圖效果:圖源:影視颶風與此同時,知名科普博主影視颶風的一則評測視訊再度加速Seedance2.0“出圈”。測評結果顯示,該模型在視訊的大範圍的運動、分鏡、音畫匹配等方面均有可圈可點之處。比如分鏡上具有“明顯的角度切換”,能夠“像真人導演一樣,不斷改變攝影機的位置”。此外,數家券商在研報中為Seedance2.0給出好評。如開源證券表示,字節AI視訊模型Seedance2.0驚豔,在自運鏡和分運鏡、全方位多模態思考、音畫同步生成、多鏡頭敘事能力等幾個關鍵能力上實現突破,給使用者提供“導演級”的控制精度,或為AI影視的“奇點”時刻。當然,AI生成視訊早已不是什麼新鮮事。就在上個月,快手旗下AI視訊生成模型可靈(Kling)也一度爆火海外,其“Motion Control”功能生成的視訊擁有極高傳播潛力,一度使APP登上韓國、新加坡等地的圖形和設計類應用下載榜單首位,並推動其在美國地區流水收入不斷增長。對於其他AI視訊模型,Seedance2.0官方總結稱,其生成2K視訊的速度比Kling等競爭對手快30%。Sora側重於物理真實感,Kling側重於運動控制,而Seedance 2.0則專注於製作具有原生音訊的連貫多場景序列。東方證券指出,隨著各家最新模型發佈,國內供給側的技術天花板進一步提升,視訊生成賽道進入類25年LLM模型的競爭狀態,各家在基礎能力均達到較高水準的前提下,後續各家差異化或在於具體落地場景。視訊生成進入精準可控“儀表盤時代”,門檻降低帶動B/C雙端使用者擴容。投資層面上,上述機構表示,Seedance2.0有望在AI漫劇、AI短劇等短內容方面率先得到廣泛應用,進一步推動漫劇/短劇製作大幅降本提效和產能供給釋放,擁有IP儲備、平台流量優勢的公司或充分受益。此外,應重視垂類多模態AI應用機會,看好技術突破、成本最佳化帶來產業趨勢加速發展,帶動使用者增長、付費滲透和商業化再上台階。尤其關注有多模態AI應用出海佈局的公司,起量速率或更快。 (財聯社AI daily)
迪士尼10億美金聯姻OpenAI,一個IP+AI的資本遊戲
迪士尼剛宣佈給OpenAI砸下10億美金搞‘世紀聯姻’,反手就逼著Google把AI生成的米老鼠、死侍全部下架!一邊當最大的金主,一邊舉最狠的屠刀。本期視訊給大家從資本、版權、行業生態幾個角度詳細拆解這位全球娛樂巨頭到底在下什麼大棋?近日,迪士尼宣佈把自家200多個角色IP開放給Sora做視訊生成,同時宣佈對OpenAI投資10億美元,雙方正式達成深度戰略合作夥伴關係及內容授權協議。幾乎在同一時間,迪士尼法務部向Google發出了版權警告,要求其旗下YouTube及相關平台立即下架利用AI生成的,包含米老鼠、死侍、鋼鐵人等經典IP形象的視訊內容。Google迅速響應,數小時內下架了相關違規內容並封禁了部分帳號。迪士尼對OpenAI和Google的一系列動作,這兩天在AI圈可是太過戲劇性了。回顧過去兩年,迪士尼對AI的態度經歷了過山車般的轉變。曾經我們的視訊也提過迪士尼、環球、華納三巨頭起訴MiniMax,對Midjourney、Mata、Character.AI同樣是重拳出擊,毫不留情。如今迪士尼對OpenAI的投資,看起來就像是迪士尼終於成熟長大了,打不過就加入,買下它並制定規則。傳統內容巨頭不再將AI視為“掠奪者”,而是將其定義為一種需要被資本馴化的生產力工具。為什麼迪士尼和OpenAI的合作是10億美元股權投資,而不是簡單的付費授權呢?其實背後隱藏著雙方對未來的深度算計。這場交易其實是各取所需的雙贏。通過持有OpenAI的股權,迪士尼獲得了一張進入AI核心圈的門票。作為OpenAI的股東之一,迪士尼自然獲得了技術優先權,將廣泛使用ChatGPT和其他AI工具在內容和產品開發等場景中。這項合作讓迪士尼能夠進入社交平台快速增長的使用者生成短影片領域。迪士尼CEO艾格在交易公佈後對媒體稱,與OpenAI達成的授權合作旨在“為迪士尼打開新的數字娛樂空間並吸引更多年輕使用者”。市場對這一交易的回應是積極的,迪士尼股價迎來了一波持續上漲。對於OpenAI而言,10億美元讓它獲得了迪士尼的估值背書,並且成為了版權“正規軍”。不僅獲得了迪士尼高品質、無版權爭議的資料,而且迪士尼龐大的產業鏈為OpenAI的技術提供了最頂級的落地場景。這次合作給AI版權之爭這個老生常談的話題,帶來了新的解法。此前,AI公司用網際網路資料訓練模型屬於資料合規的模糊地帶。迪士尼通過這筆交易打開了一個新的樣式:高品質的訓練資料是資產,必須付費。迪士尼要求Google下架AI生成內容,也釋放了一個明確的訊號:只有經過授權的AI生成內容才是合規的。一位是全球IP巨頭,一位是AI頭號玩家,10億美元合作,為全球確立了“IP+AI”的新型模式,對國內AI公司和內容公司來說,是壓力還是機會呢?未來,AI公司獲取高品質IP資料的成本被抬升,優質IP內容公司也必須主動尋求商業化的授權合作,同時將使用者二創納入商業版圖。AI時代的內容擴展,將在版權規則下進行。好萊塢AI時代的正式到來,同時新問題也來了,未來IP+AI的收入分成如何劃分?AI生成不當內容的責任如何判定?粉絲作品的版權歸誰? (競爭秩序場)