#Seedance
Seedance 2.0 小白速成指南:看完這篇,你也能做出大片既視感
你們有沒有發現,最近刷短影片、看朋友圈,總能看到一些"媽呀,這個視訊也太專業了"的作品?原來都是用即夢 Seedance 2.0 做的!但問題來了——為什麼別人用它做出來的視訊就像好萊塢大片,你用它生成的視訊就像... 嗯,"非常努力的AI"呢?😅秘密就一個字:專業術語!不過別怕,我不是要讓你去電影學院讀3年書。今天我就把這些影視"黑話"全部翻譯成"人話",讓你5分鐘搞懂核心邏輯,之後用 Seedance 2.0 出片直接起飛!廢話不多說,咱們開始~第一部分:鏡頭基礎課(2分鐘速成)1️⃣ 鏡頭運動都有啥?你有沒有想過,為什麼有的視訊看起來很"生動",有的就很"死板"?秘訣就在鏡頭怎麼動!(1)平移鏡頭= 攝影機左右移動(想像你轉身看風景)效果:寬闊感、展示全景適合:展示場景、環境介紹(2)推拉鏡頭= 攝影機前後移動(想像你向某個東西走去或走開)效果:代入感、戲劇張力適合:製造懸念、聚焦重點對象(3)跟拍鏡頭= 攝影機跟著主體移動(想像你在跟著一個人走路)效果:動感、代入感超強適合:運動場景、人物跟蹤提示:用 Seedance 2.0 描述時,直接說"運鏡向左""推鏡靠近"就行,AI會理解!2️⃣ 分鏡與景別(為何別人視訊看起來專業?)這就像拍照時的"遠中近"組合!小貼士:好的視訊會在這三個景別之間切換,就像在講故事一樣——先告訴你"在那兒",再展示"在幹啥",最後強調"有多重要"。在 Seedance 2.0 里,你可以這樣寫:"開場全景,遠景展示壯闊的山景" "切到主人公的中景,做出驚訝的表情" "特寫他眼睛裡的淚光"看,這樣一描述,是不是自動有電影既視感?✨3️⃣ 光影與色調(氛圍大師)這是最"神奇"的部分——同一個場景,光影和色調能把它從"溫馨"變成"詭異"。(1)暖色調= 橙色、黃色、紅色系感覺:溫暖、親切、充滿希望適合:日出、聚餐、溫情場景(2)冷色調= 藍色、紫色、綠色系感覺:神秘、冷靜、有距離感適合:夜景、科幻、懸疑場景(3)高光影= 明暗對比強烈感覺:戲劇化、有張力適合:懸念、對比、衝突場景(4)柔和光= 光線很均勻感覺:舒適、夢幻、溫柔適合:愛情、治癒、日常場景秘籍:想讓視訊看起來"大片范兒"?在 Seedance 2.0 提示詞裡加上色調要求就行: "暖色調日出,金色光線灑在主人公臉上" "冷色調夜景,藍紫色調,高對比光影"第二部分:Seedance 2.0 獨家玩法(核心乾貨)4️⃣ 音畫同步秘訣(這是Seedance的絕活!)為什麼 Seedance 2.0 這麼火?因為它能把音樂和畫面完美同步!這不是什麼新鮮概念,但它做得特別好。想像一下:音樂高潮時,畫面裡的人物做出爆發的動作音樂轉折時,鏡頭切換到另一個場景鼓聲落點時,演員的動作精準hit這就叫"音畫同步",也是為什麼用 Seedance 做的視訊看起來那麼"專業"的原因!怎麼用?選好配樂= 挑一首你喜歡的歌或背景音樂標記節奏點= 想像在那裡要有"視覺衝擊"在提示詞裡體現= "隨著鼓聲,鏡頭快速推進""音樂柔和時,緩緩推拉鏡頭"實戰例子:"BGM是《Unstoppable》,整個視訊跟著音樂的節奏,低音處鏡頭穩定緩行,高潮處做快速運鏡和轉場,音樂落點時演員做出決定性的動作"你看,這樣一描述,Seedance 2.0 就能理解你想要的"節奏感"了!5️⃣ 多模態參考大法(這是秘密武器!)什麼叫"多模態參考"?就是你可以給 AI 看圖片、視訊、音訊來示範你想要的效果。三種參考方式:📸圖片參考= 給 AI 看參考截圖 "這是我的參考畫風:[上傳電影截圖]"用處:統一視覺風格、色調、光影🎬視訊參考= 給 AI 看參考視訊片段 "我想要這種運鏡方式:[上傳參考視訊]"用處:展示鏡頭運動、節奏感、轉場手法🎵音訊參考= 給 AI 聽參考音樂 "用這首歌的節奏感:[上傳音樂]"用處:確保音樂風格和節奏匹配一致性控制:@引用機制= 在提示詞中引用之前生成的視訊 "@上一個視訊的第3秒開始的鏡頭"用處:保持系列視訊的連貫性和一致性一致性控制= 讓多個鏡頭裡的人物、場景保持統一 "用之前生成的主角形象,確保衣服、表情風格一致"用處:製作系列視訊、連貫敘事小秘密:這個功能是 Seedance 2.0 最強大的地方!你用得越細緻,出來的視訊就越"量身定製"。6️⃣ 提示詞黃金公式(這是我的獨家套路)好提示詞 = 專業出片的一半!動作類視訊怎麼描述:場景交代 + 人物動作 + 鏡頭運動 + 節奏感例:在健身房,主人公做伏地挺身,鏡頭跟拍側面,隨著勁爆背景音樂的節奏加快速度,最後特寫他堅定的表情場景類視訊怎麼描述:地點設定 + 光影氛圍 + 鏡頭移動 + 細節描寫例:古鎮石板街,夕陽西下灑金色光線,攝影機緩緩推進,展示路邊的紅燈籠、古建築、行人剪影情感類視訊怎麼描述:角色情緒 + 環境氣氛 + 視覺表現 + 轉場方式例:女孩看到驚喜禮物,眼眶泛淚,冷色調的室內突然切到暖色調的燭光晚餐,音樂從悲傷轉為歡快通用範本(我最常用): "[時間/地點設定],[人物/主體]在[做什麼],[鏡頭怎麼運動],[光影色調],[背景音樂或音效],[情感基調],[轉場方式]"舉栗子: "清晨的咖啡館,少女坐在靠窗位置整理筆記,攝影機做緩慢的圓形運鏡,暖色調晨光透過玻璃灑下,背景是舒緩的鋼琴樂,整體溫柔治癒,最後切到咖啡倒入杯子的特寫"是不是超具體?Seedance 2.0 就吃這套!第三部分:從入門到"大片"(進階技巧)7️⃣ 高級創作技巧(這是我的真傳家寶)一鏡到底的魔法"一鏡到底"就是整個視訊看起來像一個長鏡頭拍攝下來的,沒有剪輯感。怎麼做? 畫面中的人物/物體要連貫運動 鏡頭轉向、推拉、平移都要"自然接力" 背景音樂要持續,沒有硬切在 Seedance 2.0 里的秘訣:"整個視訊要有一鏡到底的感覺,演員在房間裡走動,攝影機跟隨,經過門、走廊、樓梯,最後推進到窗邊,鏡頭始終流暢,沒有卡頓感"多鏡頭敘事的魅力如果說"一鏡到底"是馬拉松,"多鏡頭敘事"就是跑步接力賽——你可以在不同場景、不同角度間快速切換,營造節奏感!好處: 製造懸念(切到反應鏡頭) 加快節奏(快速剪輯) 展示細節(特寫 → 全景 → 特寫)範本:"開場全景展示豪宅,切到主人公走進房間的中景,再切到他發現禮物時的特寫臉部表情,最後遠景展示整個驚喜派對現場"特效與轉場的組合技轉場不只是"黑屏切換",還可以這樣玩:淡出/淡入= 畫面慢慢消失/出現(溫柔感)推拉轉場= 新畫面推開舊畫面(節奏感)閃白轉場= 閃一下白屏(衝擊感)對象遮擋轉場= 人物擋住鏡頭,背後切換場景(電影感)栗子:"第一幕的演員揮手,他的手臂遮住鏡頭,轉場後露出他在完全不同的場景中,手勢保持連貫"這招叫"匹配切割",超專業!8️⃣ 我踩過的坑 & 解決方案(避坑指南)坑1:音畫不同步❌錯誤做法:"加個背景音樂吧" → 結果音樂和視訊時長不搭✅正確做法:先確定音樂時長和BPM(節拍),再在提示詞中明確標註節奏點坑2:人物忽胖忽瘦❌錯誤做法:多次生成不同部分,結果同一個人物風格變了✅正確做法:用"一致性控制"功能,@引用之前的人物生成,或在提示詞裡詳細描述人物特徵坑3:色調突變❌錯誤做法:暖色調場景突然切到冷色調,顯得很生硬✅正確做法:要麼保持統一色調,要麼在"轉場前"留個"色調過渡鏡頭"(比如燈滅了,然後切到新場景)坑4:鏡頭運動過快/過慢❌錯誤做法:"攝影機運動"太含糊✅正確做法:具體描述,比如"緩緩推進(3秒內推進1米左右)""快速推鏡(1秒內靠近主體)"坑5:提示詞太長導致AI 遺忘關鍵資訊❌錯誤做法:寫成一整段文章,重點不突出✅正確做法:用換行、重點加粗,讓AI好理解:場景:早晨的辦公室 人物:職場女性,深藍色OL服動作:整理檔案、喝咖啡、看電腦 鏡頭:推拉+跟拍結合色調:冷色調,大量冷光 節奏:隨著背景音樂加快結尾彩蛋 🎉好了各位,我的 Seedance 2.0 "黑話翻譯大全"就到這兒了!✨現在你已經掌握了:✅ 鏡頭運動的邏輯(為何別人的視訊動起來就是好看)✅ 景別搭配的秘訣(全景→中景→特寫的故事感)✅ 光影色調的"氣氛營造法"✅ Seedance 2.0 的音畫同步原理✅ 多模態參考怎麼用(這是最強武器!)✅ 提示詞的黃金公式✅ 一鏡到底、多鏡頭敘事、轉場技巧✅ 我踩過的8個大坑和避坑方案 (xiao阿娜的妙妙屋)
Seedance春節殺瘋後,開年概念股卻跌停
春節大模型再次上演“閃電戰”2026年春節前夕的中國網際網路,再次迎來了一個意想不到的燃點。它並非精心策劃的晚會,也不是數字紅包雨,而是一款悄然上線的AI模型——字節跳動旗下的視訊生成工具Seedance 2.0。當大多數人已沉浸在年貨採辦與返鄉歸途中時,一個線上文件連結開始在技術圈內流轉。文件標題末尾的“Kill the game”更像是一句技術極客的輕鬆自嘲,而非宣戰檄文。然而,爆炸正是從這一刻開始。數小時內,排隊等待生成的使用者序列便成為新的社交貨幣,截圖裡“當前排隊超1000位”、“預計等待8小時”的字樣,記錄著一次全民參與的熱情奔湧。網路上迅速湧出各式視訊:憨態可掬的“迪迦奧特曼大戰奶龍”,天馬行空的“小孩隔扣NBA巨星詹姆斯”,乃至對經典影視結局的顛覆性改寫……Seedance 2.0以一己之力,將AI視訊生成的集體狂歡,變成了這個春節最硬核的全民活動。《黑神話:悟空》之父、遊戲科學創始人馮驥在社交平台上直言:“AIGC的童年時代結束了。”知名科技博主“影視颶風”Tim則在深度評測中連用六個“恐怖”來形容其效果。當AI不僅能生成畫面,更能理解鏡頭語言、敘事節奏,並保持角色、光影、風格的高度一致性時,它所挑戰的,已是百年來構築的影視工業流程本身。2025年春節前DeepSeek發佈R1模型後,阿里巴巴工程師就曾取消假期,在春節期間奮起直追,最終推出了通義千問系列模型。阿里前董事長蔡崇信後來的坦言,道盡了行業的集體焦慮,是在看到競爭對手的突破後,才意識到自身已然落後。如今,歷史似乎正在重演,只是觸發點變成了Seedance 2.0。Seedance 2.0引發的狂飆與真相技術的突破最先在資本市場的計價表上得到快速而劇烈的反應。Seedance 2.0的出現,為市場提供了一個重新評估AI產業價值、尤其是下游應用前景的清晰坐標系。A股市場率先上演概念狂歡。2月9日,春節前最後一個交易日,Seedance 2.0內測引發的想像,直接點燃了短劇、影視傳媒、算力等類股。捷成股份、海看股份、引力傳媒、完美世界、橫店影視等十餘隻個股集體漲停。產業鏈的聯動效應同步顯現。市場資金敏銳地流向算力基礎設施這條“賣水人”賽道。大位科技、光環新網等AIDC(AI資料中心)服務商,寒武紀、海光資訊等國產算力晶片公司,以及浪潮資訊、中科曙光等伺服器廠商均收穫顯著漲幅。摩根大通的預測為這股熱情提供了宏觀註腳,其預計從2025年到2030年,中國AI推理的token消耗量將以約330%的年複合增長率激增,規模擴大370倍。而字節跳動2025年超1500億元、其中約900億用於AI算力的資本開支預算,更是產業需求的確鑿訊號。無論是模型訓練還是使用者生成,海量token消耗的終點,都是對算力資源的持續飢渴。但市場邏輯真的有這麼容易跑通嗎?摩根大通和機構的預測更多是長期邏輯,告訴我們明天一定會到來,但怎麼到來?他們也不清楚。如果說暴漲就代表正確的話,那麼2月24日開年第一個交易日,Seedance2.0概念股不少跌幅在10%左右甚至跌停,又該如何解釋呢?資本市場的短期狂熱更多是資金交易邏輯,反過來拿資本市場證明“Seedance2.0已成”就屬於本末倒置。這引發了關於深度偽造、隱私侵犯和信任危機的巨大擔憂。模型在未經任何授權的情況下“腦補”並復刻了個人生物特徵。字節跳動迅速做出反應,緊急暫停了以真人圖片或視訊作為參考主體的功能。馮驥等業內人士表達了對假視訊氾濫的深切憂慮。Seedance2.0能夠憑藉照片生成本人聲音,形成了全網級熱點事件,這已經是事實。我們現在要焦慮的,除了利用AI可以“深度偽造他人資訊”所帶來的社會安全和信任問題,還有Seedance2.0真的有那麼強嗎?該怎麼樣用起來。從測評社區的共識來看,Seedance 2.0最被反覆強調的其實是“更容易復現一個你想要的結果”,而非單次生成的視覺驚豔程度。多模態參考的引入,使得它在商業與製作場景中顯得格外務實——使用者可以指定風格、人物、動作甚至節奏,而不是一次次靠提示詞試錯。其與快手最新的Kling 3.0偏向“電影感輸出”的方向形成了微妙差異:Kling更強調鏡頭運動與觀感完成度,而Seedance更偏向生成結果是否可預測、可復用。但Seedance2.0只是相對可復用性強一些,它仍然具備當前眾多視訊模型的問題,上傳數量受限制,具體細節仍然受限,生成結果仍有盲盒性,這會帶來使用成本的飆升。年初為了搶熱度上頭去沖2599元會員的人,已經開始後悔申請退款了。具體來看,素材數量/大小卡死:圖片≤9 張、單圖<30MB;音訊≤3 個、總時長≤15 秒;所有素材總數≤12 個,多素材創作極受限。更糟糕的是無手動控制:景深、運鏡、轉場、節奏全由演算法預設,無法自訂,鏡頭語言僵化。生成速度遠慢於宣傳:官方稱 “60秒出2K”,實測基礎會員,10秒視訊要20多分鐘,排隊+稽核嚴重拖慢節奏。效果不穩定:語音錯亂、字幕亂碼(最常見)、畫面細節崩壞、物理邏輯偏差,同樣的提示詞效果時好時壞。現在看到的許多炫酷的AI影片,實際上是專業影視公司,按專業的手繪分鏡,專業的真人配音,專業的後期調色,專業的字幕,專業的標題設計創作出來的,AI生成只是其中的一小環。目前來說包括Seedance2.0在內的AI生成,還很難用來拍真正的長視訊。但比較適合用來做15秒的廣告片。或者3-5分鐘的企業宣傳片。Seedance2.0真正的價值是,讓原本要花10萬元才能買到的創意,現在幾百元就能實現了。而且Seedance也面臨OpenAI同樣的侵權壓力,這種壓力顯然是不能無視的。在2月14日,派拉蒙旗下的天舞傳媒也正式向字節傳送了通知函,並控訴列舉了《南方公園》、《星際迷航》、《海綿寶寶》、《教父》、《愛探險的朵拉》、《最後的氣宗》、《忍者神龜》等作品被侵權。目前,迪士尼已經與OpenAI達成了一項高達十億美元的商業合作。一份為期三年的資料授權許可協議,讓OpenAI在其Sora工具中可合法呼叫經典角色的資料。背後邏輯也很簡單,要麼花錢買IP資料,要麼承擔訴訟風險,而字節顯然也逃不過。面對強烈抵制浪潮,字節在除夕日,在美國媒體上做出了合規承諾,表示公司尊重智慧財產權,正在採取措施加強現有的保護機制。作為初步應對措施,字節官方此前已暫停了Seedance 2.0使用者上傳真人圖片的功能。總之,Seedance 2.0本身尚處內測,具體商業化路徑、對現有影視工業的真實替代曲線以及最終的盈利模型均未清晰。當最初的情緒衝擊波過去,資本市場終將回歸理性,對於個人創作者來說,要做的是抓住每一次細小的技術紅利,逐漸形成技術複利,領先大部分同行。寫在最後Seedance 2.0並不完美,但AI對大部分行業的衝擊是真實且長期的。當AI能以分鐘為單位生成過去需要數十人、數月工時的專業級視訊時,它對創意產業就業結構的衝擊將是顛覆性的。從分鏡師、動畫師、後期合成,到部分導演、攝影的工作範疇,都可能被重新定義甚至大幅壓縮。影視颶風Tim所說的“傳統影視流程進入被沖走的倒計時”,對行業而言是警世恆言,對無數以此為生的個體而言,則可能是職業生涯的劇烈顛簸乃至斷崖。技術進步帶來的整體福祉提升,往往伴隨著局部的陣痛與代價,如何讓被“最佳化”的勞動力平穩過渡、在新的價值鏈條中找到位置,是一個遠比提升模型參數更複雜的社會命題。 (首席商業評論)
AI 爆款視訊製作復盤:全網2500萬曝光、Cursor+Seedance,我如何做的?
在視訊/音訊/文字內容生成技術越來越強的當下,AI時代的內容創作者要如何更好利用AI?創作者和工具之間的關係會如何發展?Medeo 產品負責人晨然在這篇文章裡拆解了自己用Seedance 2.0 製作爆款視訊的全流程,很有參考意義。2月12號,我發了一條用 AI 做的《怪奇物語》終局之戰的視訊。然後它爆了。僅黑叉平台一個管道,92 條相關推文的總瀏覽量就達到了 1914 萬。總點贊 52 萬,轉發 4.9 萬,回覆 5000+。其中我的原帖只佔了 234 萬瀏覽,剩下 1680 萬全是別人搬運和討論帶來的。最大的搬運者是巴西博主 @nerdemcartaz,他一條轉發就拿了 492 萬瀏覽——比我原帖還多一倍。我的視訊被全球至少 6 種語言的人搬運:英語、葡萄牙語、土耳其語、中文、日語、西班牙語。Ins 上至少 12 個帳號搬運,估算曝光 500-1000 萬。TT 估算 100 萬+。油管也有大量傳播。最讓我詫異的是——好萊塢頂級媒體 Deadline 寫了專題報導,Cosmic Book News 也做了報導,專門提到了我的視訊,原文說 "one post has more than 2M views"。全網總曝光保守估計:2500 萬+。我一個人做的 AI 視訊,全球拿了 2500 萬曝光,還上了好萊塢的新聞。01 先有了爆款方法論,我才有了爆款視訊但最離譜的不是這個資料——而是這件事發生的時間線。故事要從兩天前說起。2月10號,我在給 Medeo 的同事們寫了一篇文章,叫如何提升網感,做出百萬播放量的視訊?那篇文章裡,我認真分析了爆款的底層邏輯。我寫道:內容要的就是稀缺。任何內容都必須滿足稀缺這個屬性。我總結了社交媒體上的各種稀缺性類型——虛構昂貴的電影場景、IP 混搭的同人二創、高動態的超越人類體驗的內容、風格反差……我還說了,一個好的爆款內容,需要同時滿足好幾個維度:對於稀缺性的精準設計對於某個"梗"的深刻理解對於情緒共鳴點的放大指令碼階段,基本上就能預判出內容是否具備爆款潛力。寫這些的時候,我信心滿滿。方法論已經想得很清楚了,每一個點我都分析得頭頭是道。但是——寫那篇文章的時候,我自己其實還沒做出過爆款。文章裡我放了好多自己做的實驗視訊:如來佛祖玩 VR 壓孫悟空、Taylor Swift 和 Blackpink 在舞台上互扯頭花、寂靜嶺風格的逃跑視訊……每一個我都覺得不夠好。我給自己的評價是:笑點不夠密梗不夠多資訊密度太低反轉力度不夠那篇文章的最後一句話,我寫的是:"我還在摸索中。"就很真實對吧?一個還沒做出過爆款的人,在寫怎麼做爆款的方法論。那個時候,我不知道這套理論到底行不行。我只是覺得方向是對的,但還在實踐的路上。說實話,心裡是有一點慌的。萬一這套東西根本不管用呢?誰能想到,僅僅兩天后,視訊就真的爆了。2月12號,我用 Seedance 2.0 做的《怪奇物語》終局之戰視訊爆了。然後——一切都變了。瀏覽量開始飛漲。搬運開始瘋狂傳播。我眼睜睜看著通知列爆炸。爆款的體感是,即時能刷新出評論,像在看時間線一樣。評論區徹底炸了。各種各樣的人在說各種各樣的話:怪奇物語的粉絲最激動。他們等了這麼久,終於看到有人"修復"了那個讓他們失望的結局。評論裡到處都是:"This is better than what we got"(比我們看到的原版好多了)"We're not ready for this"(我們還沒準備好接受這個)"AI just gave us the ending we deserved"(AI 給了我們應得的結局)科技圈和路人直接被震住了。 很多人根本不敢相信這是 AI 做出來的:"AI is getting scary"(AI 開始嚇人了)"This is terrifying"(這太恐怖了)"Hollywood is cooked"(好萊塢完蛋了)"AI is happening fast"(AI 發展太快了)還有人叫我修復權游結局。有人甚至在爭論我的視訊到底有多少是 AI 生成的、多少是真實素材混剪的Cosmic Book News 專門寫道:"The face matching and voice syncing are so tight that people are debating how much of the footage is AI versus blended source material."(面部匹配和聲音同步做得太逼真了,人們在爭論到底有多少是 AI 生成的。)最離譜的是行業內的人也來了。 SAG-AFTRA(美國演員工會)甚至因為這波 AI 視訊浪潮專門發了聲明。Deadline 寫了專題報導,Cosmic Book News 也做了報導,都點名提到了我的《怪奇物語》視訊。(雖然是點名批評,但也是一種認可…)巴西博主 @nerdemcartaz 搬運了我的視訊,單條就拿了 492 萬瀏覽——比我原帖還多一倍。全球至少 6 種語言的人在搬運和討論。從英語、葡萄牙語、土耳其語,到中文、日語、西班牙語——我根本看不懂一半的評論,但我看得懂下面的數字在漲。02 復盤:我到底是怎麼做到的?回過頭看,這次爆發的核心原因,恰恰就是我在2月10號文章裡分析過的那個詞——稀缺性。只不過這次,好幾個維度的稀缺性同時疊在了一起。一、時間節點的稀缺Seedance 2.0 當時只有中國創作者能用,外網創作者還用不上。這個時間窗口非常關鍵——我們比別人早拿到了武器,就應該第一時間製作視訊。二、AI 臨界點的爆發AI 視訊的質量到了一個臨界點。大部分普通觀眾根本不知道現在的 AI 原來已經可以做到這麼好了。這種"震驚感"本身就是巨大的稀缺。三、內容本身的稀缺這一點是最關鍵的。《怪奇物語》的粉絲對結局不滿意。這種不滿催生了強烈的內容需求。內容是由市場催生的,由市場決定的。創作者並不是真的在引領時代,你只需要比市場和觀眾的預期跑在前頭一點點,這就是好的內容。看起來你是在做很多創新的東西,實際上是因為人心所向,很多人期待看到這樣的內容,它就應該被做出來。創作者只是一個承接的載體,負責將這些內容具象化。2.1 寫指令碼佔了我 80% 的精力。我在 Cursor 裡面和 AI 模型一起討論,讓它去全網搜尋《怪奇物語》中有那些缺憾點,大家在 Reddit 上對結局有什麼不滿。我想彌補這些缺憾。自己去想一個指令碼很可能不符合市場預期,所以我會跟 AI 反覆討論、不停迭代。這個過程是非常迭代式的:我一開始並沒有寫整個兩分半鐘的指令碼,甚至都沒想過要做到兩分半。製作過程是每 15 秒、15 秒進行的。每次只想 15 秒的指令碼,要求接下來的 15 秒一定有節拍的反轉。我是看了 AI 做出來的 15 秒之後,才決定接下來要怎麼做。有時候是 AI 生成的戰鬥畫面給了我靈感,我再回去改指令碼。最多同時只構思了 30 秒的內容。整體的故事框架直到做到 80% 的時候才成型——最開始只是有一個方向。先做 MVP 測試本來我設想了很長的劇情,但有可能做出來沒人看。在做長視訊之前,我先做了一個成本很低的 MVP 實驗。我一個晚上先做了《怪奇物語》的第一集短片,40秒內容,發在小紅書上,很快就有幾百上千的點贊。這說明——這是市場需要的內容。第一集在抖音也爆了,3k贊,比我以前所有視訊好。直接做長視訊,很有可能做出來沒人看。用短影片先測試,成本很小,速度很快。驗證了之後,再放心地投入精力做長的。2.2 打鬥設計:一層比一層爽做第二集的時候,我關注兩個點:文戲要貼近角色,打鬥要極其精彩。打鬥分三個環節,規格一層層升級,讓觀眾越來越爽:Will 對抗 Vecna —— 觀眾特別想看到 Will 覺醒超能力,反抗第一季就抓走他的 Vecna。Eleven 和 Eight 聯手打 Vecna —— 彌補了她們從來沒合作過的遺憾。他們三個都是從同一個實驗室出來的,這種三角關係本身就有內在的張力。奪心魔打 Vecna —— 怪物之間的大場面,超出所有人的預期。最後引出 Max 拯救小 Henry 的終極反轉。2.3 反轉、反轉、再反轉這次經歷之後,我對一件事的理解變得非常深刻視訊是一個線性的東西。什麼意思呢?視訊不像文章,讀者可以跳著看、掃一眼標題就知道大概。視訊是一秒一秒往前走的,觀眾只能按順序看。如果他在第 3 秒劃走了,你後面做得再精彩他也看不到。完播率的資料是很殘酷的:2 秒內劃走的人可能就有一半,5 秒內劃走的人可能是 80%。想想這意味著什麼——你辛辛苦苦做了兩分半鐘的視訊,80% 的人連前 5 秒都沒看完就走了。你後面所有的高光、所有的反轉、所有的精心設計,對這些人來說根本不存在。以前我對這件事的意識沒那麼深刻。但現在,我對前 3 秒和前 5 秒的設計極其看重。因為如果前 5 秒留不住人,後面就是廢片。不是後面做得不好,是觀眾根本沒機會看到後面。所以整個視訊就是一個線性的大漏斗:每一秒都在流失觀眾,你能做的就是讓每一秒都有值得看下去的東西,把流失降到最低。我在設計劇情的時候,核心原則就是——每一秒都要有爆點,每一秒都要有很高的資訊密度,觀眾才不會劃走。整個兩分半鐘的視訊,我至少設計了 8 次反轉:反轉一(前 5 秒): 讓觀眾瞬間意識到這是一個同人二創。場面上,竟然能看見 Will、Eleven 和 Eight 聯手對抗 Vecna。前 5 秒就給到了 Will 高光,展示他掌控了"蜂巢"的超能力並用來反攻 Vecna——這是開篇的爽點。反轉二: 當觀眾以為 Will 能夠跟 Vecna 決一死戰時,劇情反轉了:Vecna 直接打敗了他,Will 的控制力瞬間消失。反轉三: 當觀眾以為主角團即將被抓時,Eight 的幻覺起了作用,給觀眾一個喘息的機會。反轉四: 當觀眾以為 Eight 的幻覺很強時,Vecna 展現了更強的能力,直接把 Will 抓走。此時節奏慢下來,給出反應鏡頭。反轉五: 當觀眾以為 Will 被抓、大家陷入無奈時,安排 Eleven 和 Eight 聯手進行一段高強度的打戲。反轉六: 當觀眾以為這段打戲能贏過 Vecna 時,結果反轉成三個人都被抓。隨後進入一段文戲對抗,增加內在張力。反轉七: 當觀眾以為他們還會繼續打鬥升級時,場外的奪心魔加入戰鬥,讓事情變得更加有趣。場外因素是一個超出預期的變數,打破了打鬥的平衡,就會很有意思。終極反轉: 在觀眾還不知道發生什麼的時候,讓 Max 成為主角並獲得高光,拯救過去的小 Henry。整個劇情設計就是反轉、反轉、再反轉。 觀眾永遠猜不到下一秒會發生什麼,這就是他們不會劃走的原因。用反轉跑贏了小紅書大盤2.4 文戲:每句台詞都要簡短有力我在設計文戲的時候,刻意要求每個角色說的話都非常簡短有力。而且每個人都必須有高光,每個人都必鬚髮揮作用,每個人的作用之間還要有張力。這裡拿幾段我設計得比較滿意的文戲來拆解一下。Will:"You put this thing inside me. Now it's mine!"這是開場第一句有台詞的文戲。Will 翻著白眼嘶吼出這句話的時候,控制著魔王衝向 Vecna。為什麼這句台詞有力?因為 Will 從第一季就被 Demogorgon 抓走,第二季被 Mind Flayer 附身——他從頭到尾都是一個受害者。觀眾等了五季,就想看 Will 站起來。而這句話的意思是:你在我身上種下的東西,現在我學會用它了,而且比你用得更好。 他不是在否認這段創傷,他是把創傷變成了武器。劇本裡 Vecna 後來在空中還嘲諷他:"You think that power belongs to you? I planted it in you when you were twelve. Every connection, every whisper you ever heard — was me calling it home."Will 咬著牙回了一句:"Then you made a mistake... because I learned to use it better than you ever did."這段空中對峙的文戲,我故意把節奏放慢了——前面全是快切打鬥,突然慢下來,兩個人在血紅天空下面對面懸浮,給每一句台詞留呼吸的空間。快和慢的對比,讓台詞更有重量感。Eleven + Eight + Vecna 的三人對峙這是我覺得全片情緒最集中的一段文戲。三個人全部被 Vecna 抓住,動彈不得。此時打鬥已經打不了了,只剩下語言。我喜歡他們三人的內在張力衝突,都是一個實驗室的。Vecna 居高臨下地說:"A new world is coming. And none of you will be in it."Eleven 滿臉鮮血,但抬頭死死盯著他:"There is no new world. Only you, alone."——這是在戳 Vecna 最深的恐懼。他不是在建設什麼新世界,他只是一個孤獨的人。然後 Eight 嘴角掛著血,扯出一絲笑:"You sound just like Papa."這一句是我跟 AI(Claude 4.6 Opus)聊出來的。我跟它說,我需要一句簡短有力的嘲諷,要能夠一下子把 Vecna 惹怒。為什麼這句話殺傷力這麼大?因為 Vecna 的前身 Henry Creel 從小就被 Dr. Brenner(Papa)當作實驗品,被關在實驗室裡,被當作工具。他恨透了 Papa,恨透了被控制的感覺。他後來殺了實驗室裡幾乎所有人,就是為了反抗 Papa。但現在——他在做什麼?他在控制別人,把別人當工具,居高臨下地宣判誰有資格活著。他變成了自己最討厭的那個人。 而說出這句話的是 Eight——同樣從那個實驗室出來的孩子。她太清楚 Papa 是什麼樣了,所以這句話從她嘴裡說出來,殺傷力是最大的。指令碼裡我寫了 Vecna 的反應:表情瞬間僵住,嘴角弧度消失,瞳孔微縮。然後憤怒從臉上炸開——藤蔓不受控制地狂亂抽搐。他被戳中了。Eight 的 "try harder"還有一段——Eight 用幻術騙了 Vecna,讓他以為抓住了三個人,結果全是幻影。Vecna 碾碎幻影之後停頓了一瞬,Eight 從掩體後面抬起下巴看著他,鼻血掛在臉上,嘴角一扯:"Try harder."就兩個詞。但你能感受到她的那種不屑——你這麼強大,結果連真假都分不清?這種挑釁反而讓 Vecna 看起來更可怕,因為他馬上就爆發了,新的藤蔓比之前更快更密地射出來,一把抓走了 Will。Max 的 "Got you."最後說一段我特別喜歡的設計。Max 在精神世界裡待了很久(原劇第五季設定裡她的意識被困在 Vecna 的精神世界中)。她見過無數次幼年 Henry Creel 的記憶——一個蹲在黑暗洞穴裡瑟瑟發抖的小男孩,手裡攥著一塊被奪心魔寄生的石頭。但原劇裡 Max 從來沒有過去跟那個小男孩互動過。我覺得這是一個遺憾——小 Henry 也是一個等待被拯救的孩子。所以在我的指令碼裡,我安排 Max 飛昇進入 Vecna 的精神深處,蹲在小 Henry 面前,輕輕從他顫抖的手裡接過那塊石頭,把他護在身後。然後她低頭看著掌心中的石頭,嘴角緩緩上揚:"Got you."就兩個字。但你能感受到她已經贏了。這個高光比安排她去拯救 Holly 要出彩得多——Max 一直有一種"孩子王"的氣質,她來保護這個被所有人遺忘的小男孩,才是最適合她的高光。03 我是怎麼用 Seedance 和 Cursor 的前面聊的都是指令碼和創意層面的設計思路,這裡說一下具體的製作流程——我是怎麼把指令碼變成視訊的。指令碼的固定格式,我在 Cursor 裡面給每一個生成場景寫指令碼,用了一套固定的格式。每個生成指令碼都有幾個固定類股:角色 + 參考圖——每個出場角色都對應一張參考圖,用 【@圖片】 的方式引用背景介紹——交代前情和環境鏡頭描述——逐鏡頭寫清楚畫面內容、角色動作、台詞風格指令——統一的視覺風格要求關鍵是多參考圖的方式。每個角色一張參考圖,場景也有參考圖,一個 scene 可能會掛 6-8 張圖。這樣做的好處是 Seedance 在生成的時候能更準確地還原每個角色的臉和穿著,不會搞混。尤其是多角色同框的場景,沒有參考圖的話 AI 很容易把人搞混。這裡有一個小技巧:你可能會問,《怪奇物語》的角色 IP 已經被訓練進模型了,為什麼還需要用參考圖?原因有三個:固定年齡。 《怪奇物語》拍攝跨度很大,演員們從 11 歲拍到成年。模型的訓練素材裡包含了多個年齡段的形象,如果不用參考圖鎖定,生成出來的可能是 11 歲的 Eleven,也可能是 18 歲的——你沒法控制。參考圖可以鎖定"我要的就是第五季這個年齡的臉"。統一穿著。 每個角色在不同季、不同場景裡的穿著完全不一樣。我需要保證整個視訊裡每個角色的衣服、造型和定妝照保持一致,這只能靠參考圖來固定。還原戰損狀態。 大戰場景裡每個人臉上都有傷、有血、有灰塵。這種"戰損妝"是原始訓練資料裡沒有的,必須通過參考圖來告訴 AI "這個角色現在長這樣"。所以,即便有了訓練好的模型,依然必須要用參考圖。 模型知道這個人是誰,但參考圖告訴它:這個人現在幾歲、穿什麼、臉上有沒有傷。那麼角色參考圖從那裡來呢?我直接下載了最後一集,從原視訊當中截了每個角色的圖。場景參考圖怎麼來的呢?用Medeo生成的。因為Medeo能理解我的劇本直接做出來。3.1 用 Cursor 的資料夾管理資源在 Cursor 裡面,我用資料夾來管理整個項目的所有資源:所有參考圖統一放在一個資料夾裡。每個角色的參考圖、每個場景的參考圖,都按編號整理好。寫指令碼的時候直接 @ 引用對應的圖片就行,不用到處找。每個 scene 的參考圖按格式逐一放入指令碼。 寫完之後,一個 scene 的所有資訊——prompt 文字、角色圖、場景圖、風格指令——全都集中在一起。可以直接一次性複製貼上到即夢裡。 做視訊的時候,我打開指令碼檔案,找到對應的 scene,整塊複製過去就能開始生成。不需要來回切換窗口找素材、找描述、找風格指令。這個工作流看起來簡單,但省掉了大量的來回切換和尋找時間。做 AI 視訊最怕的就是素材散落在各處,每次生成都要東翻西找。把一切集中在一個格式化的指令碼檔案裡,效率提升非常大。3.2 10-15 秒一個 scene = 一次生成 = 一個反轉我的每個 scene 設定在 10 到 15 秒。因為 seedance 最大生成秒數是 15秒。前面說過,我要求每 15 秒必須有一次情緒反轉。所以一個 scene = 一次生成 = 一個反轉節拍,三者完美對齊。這意味著我每做完一個 scene,就能看到一個完整的情緒波動:鋪墊 → 高潮 → 反轉。看完之後,我再決定下一個 scene 怎麼接——是繼續升級,還是突然轉向。這也是我之前說的"迭代式創作":做一段、看一段、想一段。根據 AI 實際生成出來的畫面來調整後面的走向。有時候 AI 生成的畫面超出預期,反而給了我新的靈感,我就回去改指令碼。3.3 指令碼和生成是互相喂養的,不是單向的。很多人可能以為 AI 視訊是"生成一次就能用"的。實際上遠不是這樣。我的做法是:每一個 scene 的 prompt,我會生成 4 到 6 次。 然後把所有能用的素材全部拖到剪輯軟體的時間軸上,進行混剪。為什麼要這樣做?第一,視覺一致性好。 因為用的是同一個 prompt,Seedance 2.0 的指令遵循度很好,生成出來的多條素材在風格、色調、角色外觀上會非常接近。這意味著把它們剪在一起的時候,觀眾不會覺得突兀——看起來就像是同一個鏡頭的不同角度。第二,打鬥場景必須剪輯。 像打鬥這種複雜場景,AI 生成的畫面還是會有很多穿幫的地方——手臂穿模、動作不連貫、物體突然消失之類的。這時候就需要用剪輯技巧來處理,比如匹配剪輯,在穿幫的地方切到另一條素材的對應時刻,觀眾就看不出來了。第三,提高素材利用率。 這一點很關鍵。AI 生成的視訊,很多時候不是整條都能用的:一條視訊可能只有 60% 是好的,剩下的穿幫了,那我就只取那 60%。有時候畫面不行,但角色的配音表現特別好——語氣、情緒都很到位。這種情況我就單獨提取音訊,然後配上另一條素材的畫面。反過來也有畫面很好但聲音不對的,同樣可以互相替換。所以最終的成片,其實是從 4-6 條可用素材裡挑出最好的部分,拼在一起的。04 最後說一個比較玄的體會。在創作過程中,我有的時候會注意到一些很奇怪的細節——一個角色的表情、一段對話的節奏、一個畫面的構圖。當時說不清楚為什麼覺得重要,但就是覺得不對,或者覺得很對。後來我發現,這些直覺往往是對的。比如我在設計 Max 拯救小 Henry 那場戲的時候,一開始並不是計畫好的。是我在看劇的時候突然覺得"這個小男孩好可憐,為什麼沒有人去管他"——就這麼一個模糊的念頭,最後變成了全片最打動人的一個設定。以前看書看到,編劇的方法論中有一種"頓悟時刻",就是你把一個個拼湊起來的線索合併成一個完整的劇情,突然覺得"啊,原來是這樣"。就像《星際穿越》裡主角掉進黑洞,觀眾突然理解了——四維空間就是未來的人類。那個"啊"的瞬間,是最讓人爽的。好的創作不是從頭到尾都想清楚了再做。好的創作是在做的過程中,不斷相信自己的直覺,然後一步步把模糊的感覺變成清晰的作品。說實話,這次爆發運氣成分很大。Seedance 2.0 剛好在那個時間點發佈,我剛好是最早知道的一批人,《怪奇物語》剛好是全球熱度最高的 IP 之一,剛好粉絲對結局不滿意……這些條件湊在一起,換一個時間點發,可能就沒這個效果。但也不完全是運氣。我之前花了不少時間研究什麼樣的內容容易傳播,選《怪奇物語》也是因為自己本身就喜歡這部劇、瞭解粉絲的痛點。指令碼花了 80% 的精力,做之前還先用短影片測試過市場反應。這些準備不能保證一定會爆,但至少讓我在機會來的時候,不至於手忙腳亂。整個過程創作還是不夠順手,未來一定會有更好的創作工具讓人上手。比如我正在做的AI視訊產品,Medeo,就是希望一站式創作,從生成到剪輯成片,都可以和Agent協作完成,那就太爽了。我會把這個創作過程做進產品,讓更多人能更簡單的創作!期待 Medeo 下次更新吧!2月10號,我寫了一篇《如何做爆款》的文章,最後一句話是"我還在摸索中"。2月12號,全網 2500 萬曝光,好萊塢媒體來報導了。中間只隔了兩天。有時候我也會想,這到底是方法論的勝利,還是純粹的運氣?說實話,我覺得兩者都有。但如果讓我重新來一次,我不會改變任何一個步驟——研究稀缺性、用 MVP 測試、一個 scene 一個 scene 地迭代、把 80% 的精力花在指令碼上。這些東西不能保證你一定會爆。但它們能保證提高爆款機率。至少下次我能在發之前提前預判:這有沒有可能爆了。 (Founder Park)
瞞不住了!透視Seedance 2.0關聯深企:這才是深圳硬核實力
字節跳動推出的AI視訊生成模型Seedance 2.0,在2026年2月初引爆了全球科技和創投圈。Seedance雖然是字節跳動的產品,但它的研發與深圳這座城市緊密相連。根據公開的工商資訊,Seedance 2.0是字節跳動旗下即夢AI開發的產品,而即夢AI的關聯公司——深圳市臉萌科技有限公司,由字節跳動全資持股,就坐落於深圳。▲圖源:CFP這意味著,這款在全球範圍內引發關注的AI應用,其核心研發和營運實體就在深圳。這不僅體現了深圳在吸引和培育高科技企業方面的優勢,也展示了深圳在AI應用層面積累的深厚人才和技術底蘊。一幅以人工智慧和具身智慧型手機器人為雙引擎的科技創新藍圖徐徐展開。深圳正以“全端自主可控”的雄心,加速建設全球人工智慧先鋒城市和具身智慧型手機器人產業集聚區,在全球科技競爭的新賽道上展現出中國科技創新第一城的硬核實力。AI先鋒:打造全端自主可控的智能底座2026年深圳政府工作報告明確提出:加快建設全球人工智慧先鋒城市,力爭人工智慧產業叢集增加值增長10%以上。這一目標背後,是深圳在AI領域建構的完整創新矩陣。▲圖源:CFP在算力基礎設施方面,深圳正在建構“四算合一”(通算、智算、超算、量算)的算力網路,福田區作為重要承載地,推動“港數深算”打通深港資料與算力壁壘。光明實驗室、福田實驗室、領先邊端智能開放研究院等創新平台高標準推進,深圳河套學院高水平建設,形成了從基礎研究到產業應用的完整鏈條。在技術攻堅層面,深圳集中力量突破演算法理論、模型架構、智算晶片、基礎軟體等核心技術。2026年,全社會研發投入將增長10%以上,實施基礎研究項目180個以上,重點產業研發項目150個以上。這種“頂天立地”的創新體系,正是深圳建設具有全球重要影響力的產業科技創新中心的核心支撐。更具戰略眼光的是,深圳正加強全端自主可控AI軟硬體生態建設。從晶片到框架,從演算法到應用,深圳正在建構不依賴外部技術的完整AI生態,這在當前國際形勢下具有深遠的戰略意義。具身智能:從“八大金剛”到千億產業叢集如果說人工智慧是“大腦”,具身智慧型手機器人則是“身體”。2026年,深圳依然將人工智慧列為重點壯大的四大戰略性新興產業之一,標誌著這一未來產業正式進入深圳產業政策的C位。▲2026年2月14日,深圳,全球首屆春節嘉年華——未來同頻 人機共生。深圳在具身智能領域的佈局早已先行一步。目前,深圳已培育出“八大金剛”——數字華夏、眾擎機器人、逐際動力、帕西尼、智平方、跨維智能、優必選、普渡科技。這些企業構成了深圳具身智能產業的第一梯隊。據統計,深圳共有5.11萬家機器人相關企業,數量穩居全國首位,產業鏈總產值超過1700億元。根據《深圳市具身智慧型手機器人技術創新與產業發展行動計畫(2025-2027年)》,到2027年,深圳將實現:具身智慧型手機器人產業叢集相關企業超過1200家,新增培育估值過百億企業10家以上、營收超十億企業20家以上,關聯產業規模達到1000億元以上。2026年,深圳還將推出10個以上產業集聚效應明顯的人工智慧和具身智慧型手機器人創新孵化器。在核心技術方面,深圳重點支援具身智慧型手機器人核心零部件、AI晶片、仿生靈巧手、基座及垂直領域大模型、本體控制等關鍵核心技術攻關。以算力券方式對人形機器人企業和科研平台進行算力支援,為產業發展提供堅實底座。產業融合:AI終端與場景應用的雙向奔赴深圳的獨特優勢在於產業鏈完備、機電一體化、應用場景豐富。2026年,深圳將人工智慧終端產業規模目標設定為8000億元以上、力爭1兆元,推出50款以上爆款人工智慧終端產品,打造60個以上典型應用場景。在智能終端領域,深圳在手機、電腦、大模型一體機、可穿戴裝置等領域全面發力,人工智慧終端產品產量突破1.5億台。從AI手機到智能可穿戴裝置,從AI電腦到具身智慧型手機器人,深圳正在打造具有國際競爭力的智能硬體產品叢集。在場景開放方面,深圳已累計發佈近200個“城市+AI”應用場景,2026年計畫再開放100個應用場景。從智能製造到智慧金融,從智慧城市到智慧養老,從智慧政務到低空經濟,深圳正以"場景應用最開放"的姿態,為AI和機器人技術提供最好的試驗場。前海作為深港合作的橋頭堡,正建構“642”產業體系,其中“4”大戰略性新興產業就包括人工智慧與具身智慧型手機器人、海洋產業、智能終端、低空經濟。這種“南山創新+寶安製造+前海服務”的疊加優勢,將推動深港現代服務業與珠三角先進製造業深度融合。生態建構:從政策護航到全球資源配置深圳科技實力的持續領先,離不開制度創新與生態建構。在政策支援方面,深圳採取超常規政策舉措,支援發展人工智慧與機器人產業。《深圳市加快打造人工智慧先鋒城市行動計畫(2025—2026年)》提出,到2026年全市人工智慧企業數量超3000家,獨角獸企業超10家,產業規模年均增長超20%。在人才集聚方面,深圳高水平建設深圳河套學院,建構“學院+園區”創新生態,打造富有吸引力的人工智慧人才集聚地。丘成桐院士發起的數學與交叉學科研究院、深圳醫學科學院的國際臨床試驗中心、粵港澳大灣區國創中心國際總部等,形成了從基礎研究到臨床應用、再到產業轉化的全鏈條創新生態。▲深圳河套學院。圖源:深圳河套學院官網在全球資源配置方面,深圳加快推進河套深港科技創新合作區建設,打造國際協同創新區、國際性產業與標準組織集聚區。前海累計吸引183家世界500強投資主體,全球服務商區域性、功能性總部累計42家,為深圳科技產業對接全球資源提供了重要平台。新質生產力的深圳樣本從2026年深圳的科技願景可以看出,深圳正在以人工智慧和具身智慧型手機器人為雙引擎,建構具有全球競爭力的現代化產業體系。這不僅是技術的突破,更是新質生產力的生動實踐。深圳的目標是清晰的:建成具有國際影響力的人工智慧先鋒城市,具身智慧型手機器人產業綜合實力達到國際領先水平。在“十五五”規劃的開局之年,深圳以10%以上的研發投入增長、10%以上的AI產業增加值增長、兆級的人工智慧終端產業規模,向世界展示著中國科技創新的速度與質量。從華強北的電子元器件到前海的國際標準組織,從南山區的演算法創新到寶安區的機器人製造,從河套的跨境資料流通到光明實驗室的基礎研究——深圳正以全產業鏈優勢、全場景應用優勢、全要素創新優勢,在全球科技革命和產業變革中搶佔制高點。 (察理思特)
中國AI引爆好萊塢恐慌!馬斯克點贊背後,一場3000億產業大洗牌正在發生
當《黑神話:悟空》創始人馮驥在社交平台上感嘆“內容領域必將迎來史無前例的通貨膨脹”時,他手中的工具正是字節跳動最新發佈的視訊生成模型Seedance 2.0。這款沒有發佈會、沒有通稿的AI工具,卻在全球科技圈投下了一枚深水炸彈。特斯拉CEO埃隆·馬斯克親自轉發點評:“進展太快”。從好萊塢到底特律,從橫店到矽谷,一場由國產AI引發的產業地震正在蔓延。01 產業重構:成本塌方90%,傳統影視的“末日鐘聲”“一人劇組”時代的到來在北京一家影視科技公司裡,工作人員正通過Seedance 2.0加緊製作新春祝福視訊。公司首席技術官徐京徽感慨:“過去想實現流暢的、人物一致性完好的商業片,可能需要堆砌大量的工作流。現在創作者可以把更多精力聚焦在創意上。”[citation:原創]這種變化的背後,是令人窒息的成本壓縮。常州華彩映畫影業曾為《那吒2》提供後期製作,企業負責人梁奕黃告訴記者,以前接一個特效簡單的短劇項目,需要30多人的團隊;現在五六個人就能跑通全流程。南京炫佳科技目前已實現日產9000分鐘的內容產能,最快1小時即可成片。該公司負責人秦林算了一筆帳:“過去傳統真人短劇單集綜合成本普遍在3萬元到5萬元,頭部精品超10萬元。而依託Seedance 2.0,AI短劇單整合本可以控制在幾千元,AI漫劇甚至能低至幾百元,整體成本降幅超過80%甚至90%。”知名視效指導姚騏使用該工具製作的2分鐘科幻短片《歸途》,整體成本僅330.6元——這一數字在傳統製作框架下難以想像。“導演”這個詞,正在被重新定義Seedance 2.0真正讓普通人擁有了導演的能力。北鬥智影的技術負責人這樣描述他的使用體驗:只需告訴它故事,模型自行完成分鏡設計——遠景交代環境,特寫捕捉情緒,音效、配樂、剪輯點全部一次性生成。遊戲科學創始人馮驥在深度體驗後給出了極具份量的判斷:“一般性視訊的製作成本將無法再沿用影視行業的傳統邏輯,開始逐漸趨近算力的邊際成本。傳統組織結構與製作流程會被徹底重構。”南京市電影協會秘書長周正認為,對於技術門檻較低的環節,AI可以有效實現降本增效。他特別提到,AI對“一人公司”模式的短影片創作者非常有利。02 資本暗戰:AI漫劇概念爆發,誰在風口起舞?二級市場的狂熱反應資本市場對Seedance 2.0的反應可謂狂熱。連續兩日,A股Seedance概念類股持續走強,多隻個股觸及漲停。AI漫劇概念相關個股迅速受到市場追捧,掌閱科技、德才股份在2月9日至12日均連續漲停,錄得四連板。海通國際發佈研報指出,AI漫劇作為最確定的落地場景,2025年中國市場規模達168億元,2026年預計增長45%至243.6億元。AI漫劇製作成本已從傳統短劇的1.5-4萬元/分鐘壓縮至約1000元/分鐘,製作周期從30-45天縮短至7-10天。開源證券最新研報認為,Seedance 2.0有望率先在AI漫劇、AI短劇等短內容領域得到廣泛應用。其極高的可控性顯著降低了“抽卡”成本,中性假設下可使模型每秒生成成本相比同業降低37%,推動製作大幅降本提效。產業鏈的價值重估中銀證券在其最新研報中表示,Seedance 2.0在功能層面取得的突破對於AI多模態應用特別是視訊生成領域有著重要的催化意義。多模態生成對於算力需求較大,這使得上游硬體基礎設施亦有望同步受益。方正證券發佈研報稱,結合2026年AI應用大年的產業邏輯,疊加Seedance 2.0的技術催化,從彈性排序來看,後續細分賽道機會呈現“低位影視>行銷>傳媒指數>遊戲”的趨勢。資料顯示,中國整體日均token消耗已從2024年初的1000億增至2026年2月的180兆等級。視訊生成將驅動雲廠商token消耗呈指數級增長,火山引擎、阿里雲等雲廠商將直接受益。在狂熱中,也有冷靜的聲音。掌閱科技在2月12日晚間發佈的公告中表示,公司2025年度AI短劇業務收入預計不超過主營業務收入的1%。德才股份則指出,其控股孫公司奇想無限設立時間較短,尚無相關業務訂單及收入。市場的熱情與公司的冷靜形成了鮮明對比。03 創作革命:從“抽卡”到“導演”,短影片創作者的新紅利告別“抽卡”時代過去,AI視訊最大的痛點在於“抽卡”——創作者們往往為了得到一個不崩壞、一致性的幾秒鐘視訊需要反覆生成數十次。Seedance 2.0的核心突破在於試圖將“炫技”轉化為“可交付敘事”。從技術層面看,Seedance 2.0採用了統一的多模態音視訊聯合生成架構。清華大學新聞與傳播學院、人工智慧學院雙聘教授瀋陽分析:“我們可以指定表演的細節,燈光、相機運動等多元素實現電影等級的精確控制,在時間連貫性和物理真實性上的躍進,保持物理的一致性。”[citation:原創]在實際應用中,這種技術突破意味著什麼?同樣輸入提示詞“男主在香港街頭被圍攻,一人打倒十幾個黑衣人,最後怒吼‘還有誰’”,過去的模型可能生成一段站樁式輸出,而Seedance 2.0則自行完成了完整的分鏡設計。IP價值的新可能在氾濫的AI生成內容洪流中,技術本身不再是壁壘,真正的壁壘依然掌握在IP所有者手中。正因為市場上充斥著大量“高仿”內容,才更顯出真正IP的不可替代。當內容供給不僅過剩而且“通貨膨脹”時,使用者的時間和注意力將變得前所未有的昂貴。能夠瞬間捕獲使用者注意力的,依然是那些經過時間驗證的、具有強大情感穿透力的經典IP。青年導演成亞妹認為,儘管AI可以在配樂、分鏡、故事策劃、視效製作等方面提高效率,為導演拓寬思路,但她堅信,最關鍵的仍在於故事的靈魂——創作者想要表達什麼?那些故事裡的靈光,是AI無法實現的。04 深度訊號:技術狂飆背後的冷思考“技術平權”的雙刃劍從Seedance到DeepSeek,中國企業AI產品的火爆並非偶然。獨立智庫澳大利亞戰略政策研究所(ASPI)去年末發佈的《關鍵技術追蹤報告》顯示,中國在74項關鍵技術中66項排名第一。中國正致力於AI發展與監管平行。今年1月,修訂後的《中華人民共和國網路安全法》正式施行,其中新增了促進人工智慧發展的相關規定。針對有害內容、隱私和資料安全等方面,中國國內已制定了廣泛的規則,例如《生成式人工智慧服務管理暫行辦法》早在2023年就開始實施。版權與深偽:AI的“阿喀琉斯之踵”Seedance 2.0驚人的復刻能力,也讓版權方感到了前所未有的壓力。近日,大量關於周星馳經典電影的“二創”甚至“惡搞”片段在短影片平台瘋傳。周星馳經紀人陳震宇公開發文質疑:“想問一下,這些屬於侵權嗎?”美國電影協會(MPA)12日發佈聲明稱:“僅一天時間,中國的Seedance 2.0就大規模未經授權使用了美國受版權保護的作品。”而比版權風險更為棘手的是“深偽”問題。Seedance 2.0模型具備對個人生物資訊的深度復現能力,針對使用者反饋,字節跳動隨即叫停了“真人素材參考”功能。在平台使用Seedance 2.0時會提示暫不支援真人人臉參考。與此同時,在即夢App和豆包App使用Seedance 2.0時,平台採取“活體核驗”措施,使用者需要錄製本人形象與聲音完成真人校驗,才可以製作數字分身。05 實操乾貨:創作者如何在AI洪流中生存與崛起擁抱AI,但不盲從對於內容創作者而言,Seedance 2.0的到來既是機遇也是挑戰。南京市電影協會秘書長周正建議:“未來平台上不缺內容,缺的是有思想、有情感、有辨識度的優質內容。”他指出,對於一些低端內容領域來說,技術門檻已被徹底踏平。那些只會按固定範本拍攝、缺乏核心創意的導演會被淘汰。短劇行業的真正價值必將回歸到那些無法被演算法壓縮的部分——獨特的創意構想、深刻的人文關懷、真誠的情感連接,以及歷經時間淬煉的IP靈魂。複合型人才的新賽道站在行業視角來看,AI漫劇和AI短劇下半場的競爭邏輯已經非常清晰:從拼產能轉向拼品質、拼IP、拚生態。當AI工具逐漸普及,單純的量產能力不再是壁壘,低質同質化內容會快速被市場淘汰。在這樣的趨勢下,行業需要的也不再是傳統意義上單一技能的影視人才,而是AI原生的複合型人才——既懂內容敘事、懂使用者情緒、能把控審美與故事靈魂的創意人才,也懂模型、懂多模態生成、能最佳化生產流程的技術人才。周正強調,無論技術如何演進,內容創作的精度與創意依然是根本。行業對“好故事”的要求只會更高,對人本身的要求也會更高——多閱讀、提升思維深度、保持對人文的敏感,仍是所有創作者無法繞開的功課。AI是工具,但內容的溫度、故事的價值、IP的生命力,最終還是要靠人來定義。夜深人靜,當影視颶風Tim更新了Seedance 2.0的體驗視訊,有創作者在凌晨三點寫下:“1年來第一次在半夜,被AI進展驚到失眠。”這種失眠,既是興奮也是恐懼。興奮於創作的門檻從未如此之低,恐懼於自身的價值從未如此需要重新證明。電影《死侍》編劇雷特·瑞斯看著由AI生成的湯姆·克魯斯和布萊德·皮特互搏短片,感慨道:“我真不想這麼說,但我們可能完了。很快,就會有人坐在電腦前生成一部與好萊塢現有電影無法區分的影片。”從導演到剪輯,從拍攝到配樂,AI正在瘋狂壓縮我們的工作流。當工具變得唾手可得,決定內容高度的,將不再是會不會用軟體,而是腦海中那個關於世界的構想是否足夠獨特。一人公司、一人劇組正慢慢成為潮流現象[citation:原創]。在技術的狂飆中,最珍貴的東西始終沒變——那些無法被演算法壓縮的,是人的溫度。 (胡曉妃新商業)
AI 一天做出「2 億美元」大片,這支預告片讓全網吵翻了
「我們剛剛在一天之內製作了一部耗資 2 億美元的 AI 電影。 100% 是 AI 生成的」在我們走進電影院觀看春節檔時,一條三分鐘的電影預告片在海外刷屏了,這個看起來堪稱好萊塢 A 級製作的大片,居然是完全是 AI 製作的。即便 Seedance 2.0 已經把大家對 AI 視訊的期待拉到了前所未有的高度,這條短片依然超過大多數人對 AI 的想像。畫面裡,一位身穿亮紅色外套的金發女子站在高層辦公室落地窗前,俯瞰著城市陷入混亂。直升機盤旋墜落,爆炸撕裂街道,汽車翻滾燃燒,人群四散奔逃……全程沒有攝影機,沒有演員,沒有 VFX 團隊,使用的工具是 Seedance 2.0 和 Kling。製作時間僅一天。「2 億美元」這個說法本身也是火的一部分原因。The Dor Brothers 解釋說,這不是字面意義上的製作成本,而是「感知製作價值」。這個說法當然有點傲嬌,也當然引來了大量質疑。但質疑本身就是傳播。比春節檔還精彩?場景裡的煙塵擴散是我印象深刻的一個細節,方向感和物理感都有,不像早期 AI 視訊那種像棉花糖一樣的爆炸效果。Cybertruck 逃亡戲中的車身金屬反光,隨著環境光線變化有明顯的動態,說明模型對光照的理解確實上了一個台階。整體敘事節奏也有意識,不是隨機拼湊的鏡頭堆砌,能感受到有在做分鏡決策。飛機失事撞向地面這樣的特效大場面更是驚豔,甚至有網友認為這段比很多好萊塢大製作要強。過去需要昂貴的裝置和專業的製作團隊才能實現的複雜運鏡也被輕鬆製作出來了。而 Seedance 2.0 的核心突破之一,就是解決了 AI 視訊長期被詬病的「開盲盒」問題。它支援同時輸入最多 9 張圖片、3 段視訊、3 段音訊,模型會自己理解構圖邏輯、動作節奏、運鏡方式。隨著這條視訊出圈,也很快變成了全民來找茬的遊戲,有網友發現影片中存在多處問題:電梯場景裡,女主角轉身發現的不是電梯門而是一條走廊;磚塊落地沒有坑;建築外觀發生了變化,路面在兩車道和四車道之間反覆橫跳……這些都是 AI 視訊的老毛病,鏡頭越多,在細節一致性上就越容易露餡。音效方面,Cybertruck 竟然發出油車的引擎聲。(空中掉落車輛也是穿幫的地方)(警車 Police 拼寫錯誤)有支持者評論道:「批評者們完全沒抓到重點。如果這就是目前的底線,那麼它對電影界的改變將如同有聲電影取代默片一樣翻天覆地。」質疑的聲音也很有意思:「剩下的 87 分鐘在那?」當然,「三分鐘預告片不等於完整電影」,還要看長時長下完整版的表現。還有一類摻雜著對好萊塢體制的厭倦、對 AI 的期待、以及各種說不清楚的情緒的聲音。有人說寧願看一千部這樣的 AI 電影,也不給好萊塢一分錢。這當然是氣話。創作是氾濫的,審美是稀缺的The Dor Brothers 是一個以兩兄弟為核心的 AI 視訊工作室,其中對外發言的主要是 Yonatan Dor。他們之前靠深度偽造名人的短影片出名:川普叼著雪茄坐在豪華轎車裡,侃爺騎著粉色自行車。去年一年,他們的內容在全網累計播放量超過五億次。Joe Rogan 公開稱讚他們的作品,他們還和 Snoop Dogg 合作拍了 MV,給 Hugo Boss 做了廣告。他們在《Apex》發佈後的聲明裡寫:傳統電影圍繞資本、團隊規模和協調成本展開;AI 電影圍繞品味、迭代速度和系統設計展開。「約束從錢轉移到了判斷力。」這不是一個讓所有人都高興的消息,因為審美這件事同樣是稀缺的。YC 創始人、被稱為「矽谷教父」的 Paul Graham 在今年 2 月 14 日預測:在人工智慧時代,審美品味會變得愈發重要。當任何人都能造出任何東西時,真正拉開差距的,是你選擇去做什麼。OpenAI 聯合創始人 Greg Brockman 說:「taste is a new core skill(審美是一項新的核心技能)。」Yuchen Jin 回應:「Taste has always been a core skill(審美始終是一項核心技能)。」AI 這種強大的工具被平等地下發到每一個人手上時,未必是一種技術平權,人與人的差距甚至會進一步拉大。很多時候彌補選擇、品味和審美這些非標能力的難度,會比掌握單純技能大得多,更沒有標準教學。Yonatan Dor 自己也說過,AI 電影目前還在「和技術賽跑」,生成系統還沒到能「說進人心」的程度。他目前有幾個劇本在開發中,其中包括對 20 世紀福斯《白痴》的續集改編的興趣,還與一位奧斯卡得獎編劇有合作。他的目標不是 AI 技術展示,是真正意義上的電影,是 IMDB 八分以上的那種東西。這反而讓人覺得《Apex》是一個誠實的作品。它沒有假裝自己是完整的電影,它只是在展示「這是目前可以做到的事情」,同時逼著我們去思考:接下來呢?這次《Apex》的爆火,其實也是 Seedance 2.0 發佈之後一系列連鎖反應的一部分。在不久前 APPSO 對 Seedance 2.0 的實測中提到, Seedance 2.0 徹底打破了大多數模型存在的輸入限制,以前的文字+首幀,或者是首尾幀都顯得過時了。現在的 Seedance 2.0 把創作邏輯從頭打造了一遍,支援圖像、視訊、音訊、文字四種模態的自由組合。就像黑神話製作人馮驥在體驗後所說的,「AIGC 視訊生成的童年時代,正式結束了」賈樟柯過年期間用 Seedance 2.0 拍了短片《賈科長 Dance》。螢幕裡出現的兩個「賈樟柯」都是 AI 生成的,一個保留了明顯的 AI 感,另一個幾乎像是真人。他在微博上寫道,從膠片到數位,電影歷經了很多次變化,每一次都伴隨著懷疑和不安,但技術最終都成了日常。「真正重要的,還是人如何使用技術。春晚節目《賀花神》裡面的特效背景也是用 Seedance 2.0 生成的。花朵肌理、光影層次、植物緩慢生長的動態,被做得很精細,網友稱讚「春晚十二花神美到詞窮」。但是,電影的未來真的在這嗎?AI 電影不是好萊塢末日,但有些東西徹底不一樣了當然,我們也不必急著把《Apex》這類 AI 電影的出現,聳人聽聞地寫成「好萊塢末日」。這種非黑即白的敘事太整齊了,真實的情況往往要複雜得多。《Apex》還不是一部完整的電影,它的敘事破碎,情感空洞。但裡面的技術進步是真實的。AI 能做出來媲美好萊塢的鏡頭,賈樟柯能用一個工具生成兩個「自己」,春晚特效背後是 Seedance 2.0,這些都是正在發生的事情。但「技術能做到」和「這就是電影的未來」之間,還差很多步驟,還有很多仍然沒有答案的問題。比如故事。《Apex》裡有人跑,有人打,有爆炸,有金屬,有光。但那個金發女人是誰,往那裡奔跑?我不知道誰贏了,我也不知道這件事對我意味著什麼。比如情感。AI 還是一個初級的故事作者,生成的畫面可以很精準,但畫面裡有沒有情感積累。但我也不想用「缺乏情感」來否定這整件事的意義。《Apex》火了是因為它是一個訊號。它告訴所有人,過去幾年那些「AI 視訊一眼就能看出來是假的」的時代,正在快速結束。APPSO 認為 AI 不會「取代」電影,但會「重新定義」電影。就像攝影沒有殺死繪畫,反而倒逼繪畫進化出了印象派和抽象派。AI 也不會殺死電影,它只是剝離了那些重複性的、工業化的苦力活。光圈、快門、布光、軌道、後期軟體……這些技術壁壘正在被 AI 迅速推平。未來的電影,也許是 3 分鐘的超濃縮敘事,也許是互動式的個人定製,誰知道呢?借用那個最經典的比喻:有聲電影剛出現的時候,很多人覺得那只是雜耍,沒人知道它最終會變成什麼。但當時所有人都知道一件事——有什麼東西,徹底不一樣了。現在,又有什麼東西不一樣了。 (APPSO)
春節 AI 模型大戰,誰是最大贏家?
國產大模型春節集體轉向「實幹派」,全球 AI 變革看北京。2026 年開年的科技圈,一場靜默的排位賽正在悄然改寫 AI 大模型世界的規則。1 月 27 日,月之暗面開源 Kimi K2.5,以「Agent Swarm」技術實現 100 個子智能體平行協作,將複雜任務執行效率提升數倍;2 月 7 日,字節視訊生成模型 Seedance 2.0 正式上線,憑藉多模態參考系統與原生音視訊同步能力引發全球創作者追捧;2 月 11 日深夜,智譜 AI 發佈新一代旗艦模型 GLM-5,在全球權威榜單 Artificial Analysis 中位居全球第四、開源模型第一。此外,阿里 Qwen3-Max-Thinking、DeepSeek-OCR2、生數、銀河通用、智源等模型也在同一時段密集亮相。海外廠商同樣動作頻繁。2 月 5 日,OpenAI 發佈 GPT-5.3-Codex 程式設計模型,並推出企業級 AI Agent 平台;同日,Anthropic 發佈 Claude Opus 4.6,不到半月後又推出定價更低的 Claude Sonnet 4.6 主攻智能體場景。諸神之戰,不一而足。幾乎所有公司都選擇在一個特殊的時間窗口登場——春節前後。傳統認知中,春節是使用者注意力分散、媒體曝光度下降的時段,並非科技產品發佈的黃金窗口。但 2026 年的這波集中發佈,恰恰利用了春節的場景豐富性:充裕的假期時間、家庭聚會、出行規劃、內容創作、社交娛樂。在全民行為高度集中的這一檔口,正是檢驗大模型能否從實際應用層面解決複雜任務的最佳測試時機。現在看來,這個時間節點絕非巧合,其背後的產業升級意義意味深長——這是國產大模型的一次集體轉型。在過去兩年,國產大模型更像是實驗室裡的「做題家」,核心解決的是使用者提問到模型作答的及時交付,比拚的是 benchmark 分數與響應速度;而這一波 AI 大戰,已經能夠清晰地看到,國產大模型正在向能真正處理複雜任務的「實幹派」轉變。模型不再滿足於給出答案,而是要獨立完成從理解需求、拆解任務、呼叫工具到交付成果的全流程。而我們發現,在這輪「實幹能力」的競賽中,一個值得注意的現像是,領跑者的地理坐標高度重合——它們大多聚集在北京海淀區。理解這種「海淀基因」,才能釐清國產大模型轉型的深層原因。01更加務實的智能軍團雖然這一輪國產大模型的集中發佈尚未結束,不過一個顯著的趨勢已經展現——更務實的評測維度正在取代傳統指標。過去對 AGI 的烏托邦式憧憬,正被算力成本與落地成效的硬約束快速拉回地面。無論是舊金山灣區還是中國一二線城市,資本與產業都已不再為單純的規模擴張敘事支付溢價——大模型正在從單純的技術探索,加速進入技術與需求雙向賽跑的商業化深水區。通俗一點來說,大模型不再只追求標準答案,更在考察在開放環境中的任務完成度,以及如何直接應用到普通人的生活中。此刻扎堆發佈的大模型,紛紛順勢而為。智譜發佈的 GLM-5 在這一輪的表現中頗為搶眼,其在 HumanEval 程式碼通過率達到 96.2%,不但超越前代 GLM-4.7 的 88.5%,更是超越了強勁的 Claude Opus 4.5(95.8%)。但比分數更重要的是,GLM-5 原生支援跨檔案程式碼重構,並能處理複雜系統工程程式碼倉。這意味著,智譜大模型已完成從「初級程式設計師」到「總架構師」的進化,重新定義了程式設計領域的生產力。而在過去專注「聊天」和提供情緒價值的字節,也同樣呈現務實轉向。以前做 AI 視訊,使用者得跟機器猜謎——寫一堆提示詞描述「夕陽下的古風少女」,結果出來可能是古裝也可能是和服。而在 2 月初發佈的字節 Seedance 2.0,則讓指向更清晰明確——用那個色調、某個角色的臉、那一段視訊裡的動作,甚至放段音樂讓它跟著節奏剪。這種多模態參考機制將創作主動權交還使用者,降低了反覆偵錯的試錯成本,使電商廣告、短影片製作等商業場景的產出更為穩定。也與海外模型形成對照:當 OpenAI 的 Sora 和Google Veo 2 仍主要依賴文字提示詞時,Seedance 2.0 將創作更貼近商業場景對確定性的需求。今年春晚舞台視覺《賀花神》的四季花神場景,正是該能力的落地展示——以四時花卉為主題,十二位演員對應十二種花神,每一個出場都伴隨著專屬場景。這背後正是字節大模型的圖像與視訊生成能力起到的作用,為節目定製「一月一人一景,一花一態一觀」的視覺效果。春晚賀花神效果圖打破邊界的,還有大模型的另一種存在載體——具身智能。1 月 8 日,銀河通用發佈多載機器人 Galbot S1,實現零遙操全自主作業,雙臂負載達 50 公斤。與特斯拉 Optimus 等海外人形機器人側重工廠場景不同,Galbot S1 的手腦協同設計更聚焦室內泛化能力——春晚上銀河通用與沈騰、馬麗的互動展示,正讓我們看到了機器人手腦一體的無限可能,未來無數室內場景的泛化能力正源於具身智能大腦模型的佈局。銀河通用春晚節目圖AI 從數字世界來到物理世界,大模型公司正在用一條相對紮實的路,在填補過往實用性不足的坑——聽懂人話、把事情幹成。這和人們通常所理解的商業溢價的區別是,AI 普惠化不是市場競爭手段,而是技術發展的目的。2025 年,國產大模型對行業標竿的理解發生了根本轉變。技術評測的領先僅證明能力上限,而商業價值的衡量標準已轉向規模化的可及性與經濟性——單位算力所能支撐的實際產出效率,成為更具份量的評判維度。市場端的反饋更為直接。經過兩年多的技術演示期,無論是企業還是終端市場,都在提出更為具體的需求:模型能否自動處理報銷流程,能否協調多個軟體完成市場調研,能否在無人監督的情況下執行周期較長的項目。大模型的實際執行能力已成為企業採購決策的核心考量,推動研發方向從追求技術突破轉向保障交付質量。春節場景為產品實用驗證提供了特殊環境。家庭聚會涉及菜譜生成、採購規劃、智能裝置控制等協調需求;長途出行需要整合交通預訂、酒店比價、行程最佳化等多平台資訊;內容創作則要求模型理解節日文化、平台調性及傳播規律。這些任務無法通過單次問答完成,需要模型具備任務分解、工具呼叫、異常處理及結果整合能力。2026 年春節的集中發佈,實質是廠商將產品置於真實場景的壓力測試,假期積累的使用者反饋將為後續產品迭代提供資料支撐。02 海淀基因當技術理想主義與商業現實主義融合時,「覺醒」往往發生在一片讓創新既能紮根又能拔節生長的土壤上。放眼全球,人工智慧的競賽早已超越單一企業的角力,演變為區域創新生態的系統較量。矽谷憑藉史丹佛-伯克利的人才輸送、風投體系的成熟配套、以及「快速試錯」的文化基因,長期佔據全球 AI 產業的高地。但 2026 年春節檔的集體爆發,清晰地顯示出中國創新版圖正在形成自己的「強節點」——北京海淀便是其中最具代表性的樣本。在這片 430 平方公里的地界上,創新的密度可以被具象化地測量出來,在這裡,15 分鐘車程幾乎就能構成一個創新單元——智譜 AI、百川智能、面壁智能……他們齊聚在清華科技園裡。往東一公里,生數科技在中關村東路 8 號東昇大廈探索多模態生成,與智源研究院的成府路 150 號(清華南門)隔街相望。往南一點,月之暗面在知春路 76 號京東科技大廈迭代長文字模型,與字節跳動的大鐘寺工區直線距離不到 3 公里——後者旗下的 Seedance 團隊正依託這片人才密度,在多模態視訊生成領域快速推進。更具縱深感的是人才的流動與重組。愛詩科技創始人來自字節視覺團隊,辦公室設在蘇州街,與原工區直線距離 2 公里;而銀河通用、星動紀元、靈心巧手三家具身智能公司,則集中在海淀區的核心地段,彼此車程都在 15 分鐘內,卻各自探索多載機器人、人形機器人、靈巧手等不同路線。這種集聚並非偶然,而是產業生態的必然結果。北京海淀,作為全國人工智慧產業的核心集聚區,其角色值得客觀審視——它並非簡單的「政策普惠」或「資本密集」,而更像是基礎研究到真實落地的完整鏈條。具體而言,海淀區已經建構了一個基本自主可控的全產業鏈技術體系,底層有清華、北大等高校的前沿研究輸出人才和方法論;中間層由晶片、雲端運算等基礎設施企業提供算力支撐;應用層則有大量場景型企業提供測試環境和需求反饋。這種密度使得技術迭代周期顯著縮短。生態的成熟度,直接塑造了國產大模型的差異化路徑。與矽谷巨頭追求「通用智能」的宏大敘事不同,海淀系企業更強調「垂直穿透」:在這裡,百度佈局全端、寒武紀佈局晶片、智譜清研專注 B 端、快手可靈偏向文娛落地、字節偏向 C 端、月之暗面偏向長文字思考。各尋其位,各盡其能。事實上,政策環境的演進同樣關鍵。2023 年,北京市率先出台地方性大模型產業支援政策,海淀區同步提出建設 2300 億元規模的核心產業叢集,配套人才落戶、資金扶持、場景開放等綜合措施。如今這一資料已經超過 3500 億。同時,海淀推出中關村科學城科技成長基金,經過三期發展規模已達 200 億元,明確將投資重心前移,聚焦早期項目、小型企業、長期價值及硬科技領域。這種「耐心資本」的供給,顯著改善了創新型企業的心理預期與風險偏好。但海淀的真正價值,或許不在於政策紅利的獨享,而在於其作為「創新方法論」的輸出地。從 2010 年代中關村的創業大街,到移動網際網路時期的「巨頭搖籃」,再到如今的大模型集聚區,海淀始終扮演著技術商業化「加速器」的角色。早期的網際網路創業培育了風險資本的敏銳度、工程師文化的務實性,以及對「快速迭代、小步快跑」方法論的路徑依賴。這些基因延續至今,使得中國企業在面對大模型這一顛覆性技術時,表現出更強的工程化能力和商業化嗅覺。AI 原點社區將視野拉寬,這種「強節點」的崛起並非孤例。上海的張江、深圳的南山、杭州的餘杭,同樣在 AI 產業鏈的不同環節都形成特色優勢——這些都是值得區域學習的樣本。但海淀的獨特性在於其「全端覆蓋」——幾乎每一環都有代表性企業佈局。這種完整性,使其成為全球 AI 版圖中少數能與矽谷形成系統性對話的區域之一。傳統認知中,技術創新高度集中於少數全球城市;但大模型時代的競爭,越來越依賴「資料-場景-算力」的本地化閉環。中國龐大的數位化應用場景、完整的製造業體系、以及政策驅動的算力基礎設施,為區域創新生態提供了獨特的養分。海淀的集聚效應,正是這種國家能力在微觀層面的投射。當全球大模型產業進入「實幹能力」的比拚階段,區域生態的質量將直接決定企業的競爭力上限。03更好的時代所有技術革命的最終走向,一定承載著產業實踐的階段性註腳。這場集中爆發的轉型給產業和區域都提供了新的機會。春節檔的 AI 大戰,標誌著國產大模型進入產業價值驗證的關鍵周期。短期內,市場將迎來一次實幹能力的集中檢驗。期間積累的真實使用者資料與實際交付體驗,將幫助企業精準識別產品短板,加速迭代最佳化。例如,多智能體協作的穩定性、長視訊生成的時序一致性、複雜程式碼重構的可靠性等問題,只有在海量真實互動中才能充分暴露和修正。但大模型軍團現在的表現,已經影響深遠——目前,OpenAI、Google 等巨頭紛紛調轉船頭,開始密集推出針對企業級市場的高性價比推理模型。很長時間以來,全球人工智慧的聚光燈多投在矽谷。而 2026 年這個乍暖還寒的春天,分水嶺已經有了能捕捉的痕跡——算力封鎖沒有擊垮國產大模型,反而帶來了一抹得天獨厚的韌性。AI 製圖這註定是一條長期主義的道路,但不妨礙國產模型技術迭代節奏持續加快,產品更新周期從以年為單位縮短至以月甚至以周計算。這種敏捷響應能力的形成,客觀上為中國人工智慧產業提供了彎道超車的窗口期。而從管理者的角度來看,當大模型從「對話工具」進化為「數字員工」,「人」的身份也將發生變化,其社會影響將呈指數級放大——對於所有區域性政府而言,都需要在新階段裡尋找定位——這要求政策層面在持續降低創新成本的同時,建立適配新技術形態的治理框架。而經驗老道的管理者,顯然能更快提供合格的樣本。至少,站在 2026 年的端頭,國產大模型發展的重要節點。人們已經可以確定,全球新一輪大模型產業變革的方向與節奏,正日益取決於中國創新體系的突破能力與本土生態的支撐強度。 (極客公園)
不裝了!中國科技“狂飆”一個半月集體攤牌,攬多項第一震撼全球
誰也沒想到,2026年剛開局一個半月,中國就用一波接一波的科技暴擊,直接把全球科技圈給干懵了。沒有鋪天蓋地的宣傳,沒有虛頭巴腦的炒作,全是實打實、能硬剛全球頂尖水平的硬核成果——從AI碾壓矽谷,到航天叩響登月之門,再到量子科技領跑世界,中國用行動證明:所謂的技術封鎖,不過是倒逼我們加速突破的催化劑,現在,輪到我們給全世界上課了。這波爆發最讓人驚喜的,不是單一領域的突破,而是多賽道齊頭並進、全面開花,這種創新密度和落地速度,放眼全球都找不出第二個。很多人說中國科技只會“跟風追趕”,但這一個半月的成果告訴你:我們早已告別模仿,開始在多個領域定義規則、領跑未來。AI領域的“組團炸場”,絕對是開年最大的驚喜。字節2月初內測了Seedance 2.0大模型,別人還在糾結“生成視訊能不能不卡頓”,我們已經實現了電影級畫質、精準控幀,美國導演集體哀嚎“好萊塢要被顛覆”,馬斯克都急著發文吐槽“發展太快,根本追不上”。更狠的是,從內測到正式上線豆包App和“即夢”平台,只用了不到一周,這種執行力,矽谷巨頭看了都得俯首稱臣。更關鍵的是,不止字節一家發力。智譜AI緊接著推出的GLM-5大模型,在程式設計領域直接超越Claude,被程式設計師稱為“程式碼神器”,更重要的是它深度適配華為昇騰等國產晶片,這意味著中國AI生態徹底打通了“晶片+模型+應用”的閉環,再也不用看別人臉色。如果說AI讓人驚喜,那航天領域的突破,就足以讓人熱血沸騰。2月11日,長征十號運載火箭和夢舟載人飛船完成聯合試驗,一次創下三個“中國首次”,直接為2030年載人登月掃清了關鍵障礙。要知道,載人登月的每一步都險象環生,而這次試驗不僅實現了火箭初樣點火飛行,還完成了飛船最大動壓逃逸、返回艙與箭體海上濺落,每一個環節都精準落地。回看2025年,中國航天發射92次創下新高,2026年開年就放大招,這種節奏,就是中國航天的底氣。量子科技領域,中國更是直接拿出了“王炸”。2月12日,北大團隊耗時6年研製出兩款核心晶片,打破了世界紀錄。除了這三大熱門領域,中國在能源、通訊等領域也頻頻發力——“人造太陽”鞏固全球領先地位,釷基熔鹽堆開闢核能新路徑,光電融合晶片為6G築牢基礎,中國空間站已落地265項科研項目……可以說,中國科技的突破,已經形成了“全面突圍、多點開花”的格局。 (W侃科技)