#SeeDance
字節的“羅福莉”,撐起了Seedance的半邊天
隨著小米新模型的推出,“天才少女”羅福莉再度成為焦點。其實在AI科學家圈子裡,女性數量雖然相對較少,但也絕非羅福莉一顆獨苗。在字節跳動,就有一位羅福莉式的人物。她就是Seedance 2.0視訊生成模型的預訓練負責人,曾妍。一般聊起Seedance 2.0,大家普遍想到的人是掌舵人吳永輝、研發負責人周暢、視訊生成技術核心負責人蔣璐。很少有人知道,曾妍的存在,同樣無可或缺。因為預訓練是整個模型的“基石”,它決定了模型的能力上限。大多數人把預訓練當成“喂資料”,但真正的高手知道,預訓練是在“塑造模型的世界觀”。資料怎麼配比、架構怎麼設計、訓練策略怎麼調整,每一個決策都在決定模型能看到什麼、理解什麼、生成什麼。無論你後面怎麼努力最佳化,預訓練只要沒做好,這個模型就一輩子達不到Seedance 2.0現如今的高度。不僅是貢獻大,曾妍的晉陞速度在字節也是相當快的。從她畢業進入字節開始算起,到現在的4-2職級,曾妍僅僅花了5年時間。4-2職級對應高級總監/權威架構師層級,屬於公司核心戰略級技術骨幹,年包(含基本工資、年終獎、股票)普遍在500萬以上。她到底做了什麼,才有如此成就?讓我們從她的求學之路說起。01 從西交到字節說實話,當我第一次看到曾妍的履歷時,並沒有覺得特別驚豔。1997年出生,西安交通大學本科,加拿大蒙特利爾大學電腦碩士。這條路徑放到現在的AI圈裡太常見了。但接下來發生的事,就不那麼“標準”了。2021年9月,曾妍以校招生身份加入字節跳動 AI Lab,起點職級是演算法工程師。入職僅兩個月,曾妍就以第一作者身份在arXiv上發表了論文《Multi-Grained Vision Language Pre-Training: Aligning Texts with Visual Concepts》,也就是後來大家熟知的X-VLM模型。這篇論文解決的問題,用大白話說就是:怎麼讓 AI 既能看懂“大場面”,又能注意到“小細節”。傳統的視覺語言模型有兩個極端。一種是“粗線條”派,只看圖像整體和文字的對應關係,就像你給AI看一張照片,它只能說“這是海灘”,但說不出更多了。另一種是“顯微鏡”派,依賴昂貴的目標檢測器去摳每個物體,雖然能看到細節,但計算成本高得嚇人,還得依賴大量人工標註資料。曾妍提出的X-VLM,就是取兩者之所長。它能同時學習從整體到局部、從場景到物體、從粗到細的多層次視覺概念,並與文字中的不同粒度資訊精準對齊。或者我用一個我最近剛學會的話來形容:既見森林,又見樹木。這個“多粒度對齊”的思想,在當時看起來只是個學術創新,但它為曾妍後來擔任Seedance 2.0預訓練負責人埋下了伏筆。因為視訊生成的預訓練,本質上也是個多粒度建模的問題。你要想生成一個好看的視訊,那就既要把握整體敘事節奏,讓一段視訊有連貫的故事線;又要控制每一幀的細節質量,確保人物面容不變形、物體運動符合物理規律;還要建立時序維度上的關聯關係,讓前後幀之間的過渡自然流暢。這剛和X-VLM的底層邏輯是一致的。接下來的兩年,曾妍就像開了掛一樣。她以第一作者身份在TPAMI、ICML、CVPR、ACL、NAACL等國際頂會發表了八篇論文,還擔任了TPAMI、ICML、NeurIPS、ICLR、ACL、EMNLP等頂會的審稿人。2023年,一個關鍵轉折點到來了。字節跳動成立大模型研究部門Seed,曾妍和所在團隊一同轉入。這個時間節點你得放在大背景下看,2022年底ChatGPT橫空出世,2023年初各大公司紛紛All in大模型,字節也在這波浪潮中調整了技術戰略。曾妍擅長的多模態預訓練,在視訊生成這個新戰場上,能發揮她的全部實力。在Seed部門,曾妍作為第一作者主導了兩個重要項目,分別是CCLM和Lynx。先說CCLM(Cross-View Language Modeling)。這個項目讓AI模型同時學會“跨語言”和“跨模態”的理解能力。CCLM通過統一的預訓練框架,讓在英文圖像-文字資料上訓練的模型,可以零樣本遷移到中文、日文等其他語言的多模態任務上。說白了,就是讓 AI 學會“舉一反三”——在英文視訊上學到的理解能力,能直接用到中文、日文、西班牙文的視訊上。再說Lynx。這是一個系統性研究如何訓練GPT-4風格多模態大語言模型的項目。2023年正是GPT-4剛發佈的時候,大家都在摸索怎麼做出“能看圖說話”的大模型。曾妍團隊通過一系列對比實驗,找出了模型架構設計、訓練資料配比、指令微調策略等關鍵因素,最終做出了 Lynx 模型,在多模態理解和指令跟隨能力上都表現出色。用人話說,就是研究“怎麼造出一個既能看懂圖片又能流暢對話的AI”,並且搞清楚了那些因素真正重要。真正讓曾妍“出圈”的,是2023年年底的PixelDance。這個項目的論文題目很有意思,叫《如何讓像素跳舞》(Make Pixels Dance: High-Dynamic Video Generation)。它解決的是視訊生成領域一個長期存在的矛盾,如何平衡動態性和穩定性。你想想,如果一個AI生成的視訊動作幅度很大、畫面變化劇烈,看起來確實生動有趣,但很容易出現畫面崩壞、角色變形、物體突然消失這些“靈異事件”。反過來,如果你追求穩定性,讓角色和場景保持一致,人物面容不突變,那生成的視訊就容易僵硬,像幻燈片切換而不是流暢的動態影像。曾妍團隊的突破在於,他們在預訓練階段就建立了嚴格的時序約束。傳統的視訊生成模型都是先生成視訊,然後再一幀一幀去修補。PixelDance則是讓模型學會了在保持一致性的前提下生成動態內容。核心創新點是在擴散模型框架中,引入首幀+末幀的雙圖像指令,配合文字指令聯合約束視訊生成,同時在網路結構中新增時序摺積與時序注意力層,從生成的源頭就錨定了視訊的起止狀態,從而保證大動態動作下的主體與場景一致性。就像訓練一個舞者,從一開始就教她在保持平衡的前提下做大幅度動作。PixelDance的成功,讓曾妍在字節內部的地位迅速提升。2024年,她從演算法工程師晉陞為演算法研究員,成為Seed團隊中最年輕的研究員之一。這個晉陞不只是對她學術能力的認可,更重要的是,她證明了自己能把研究成果轉化為實際產品。在大廠裡,這兩種能力的差別,就像會做菜和會開餐廳的差別。02 從 PixelDance 到 Seedance 2.0有意思的是,PixelDance就是Seedance的前身。Seed代表字節的大模型部門,dance則保留了“讓像素起舞”的核心理念。這個改名不只是品牌策略,更標誌著模型從研究原型向商業產品的轉變。2025年6月11日,字節正式發佈了Seedance 1.0,曾妍是該模型的核心研發負責人。雖然直至2026年2月,曾妍才被字節官方確認為Seedance 2.0 視訊模型預訓練負責人,但知情人士爆料,早2025年下半年時,曾妍就已經正式牽頭Seedance 2.0的預訓練全流程工作,成為該項目的核心一號位。她的+2 leader是周暢,+3 leader是Seed團隊負責人吳永輝。Seedance 2.0核心技術突破之一是雙分支擴散變換器架構,這是曾妍團隊在預訓練階段就確立的基礎架構。傳統視訊生成模型採用“先畫後配”的模式。即先生成視訊畫面,再單獨生成或匹配音訊。這種方式的問題在於,音畫分離導致同步性差,人物說話時嘴型對不上,背景音樂的節奏與畫面情緒脫節,音效出現的時機與畫面動作不匹配。Seedance 2.0通過視訊與音訊平行生成的方式,共享同一個理解編碼器,從根源上實現了音畫原生協同。這個架構設計的關鍵在於,讓模型在生成每一幀畫面的同時,就考慮對應的音訊應該是什麼樣的,而不是等畫面全部生成完再去“配”音訊。文章開頭我就講了,預訓練是整個模型能力的基石。曾妍在這個階段需要處理海量的視訊資料,建立視覺、文字、音訊等多模態之間的對齊關係。她通過引入“跨分支校準模組”,即時校準視訊與音訊的節奏、情緒與場景匹配度,確保嘴型與台詞同步、音效與畫面契合、背景音樂與情緒氛圍一致。預訓練階段把所有的多模態對齊關係、物理規律、運動模式都塞進模型裡,成為“默認項”。後續模型只要呼叫到相關內容,就會立刻給出預訓練時的結果。它不是簡單地讓模型記住訓練資料,而是讓模型從海量資料中提煉出普遍規律,形成對世界的基礎理解。Seedance 2.0生成時長1分鐘的2K視訊僅需60秒,比上一代Seedance 1.5 Pro快了30%。速度提升的背後,是曾妍團隊在預訓練階段對模型架構、訓練策略、資料配比的精細調優。她的團隊迭代速度極快,在預訓練階段就完成了擴散模型的多輪最佳化。最佳化注意力機制減少冗餘計算,改進噪聲調度策略加快收斂速度,精選高品質訓練資料提升樣本效率。每一個最佳化點單獨看都不起眼,但累積起來就是質的飛躍。模型規模越大,訓練成本越高,每一個百分點的效率提升都意味著數百萬元的成本節約和數周的時間縮短。Seedance 2.0還實現了多鏡頭敘事能力。這意味著模型不僅能生成長視訊,還能理解“全景-中景-特寫”的專業分鏡邏輯,自動規劃鏡頭切換,生成帶有蒙太奇效果的完整敘事序列。這個能力很大程度上依賴於曾妍在預訓練階段投喂的字節跳動海量短影片資料。抖音每天產生數以億計的短影片,這些視訊雖然大多是普通使用者拍攝,但其中不乏優秀的鏡頭語言和敘事技巧。曾妍團隊從這些資料中篩選出高品質樣本,讓模型學習到了人類導演的鏡頭語言和敘事節奏。這種從資料中提煉出的“導演直覺”。03 曾妍與羅福莉同為女性AI科學家,曾妍和羅福莉在模型研發中,都擅長尋找“平衡點”。在DeepSeek時期,羅福莉參與的DeepSeek-V2,通過MoE架構的稀疏啟動,把推理成本降到了GPT-4 Turbo的七十分之一,但是性能卻與頂尖的閉源模型十分相近。這就像設計一個大型圖書館,雖然藏書百萬冊,但每次查詢只需要翻開其中幾本,而不是把所有書都搬出來。這種“按需啟動”的機制,讓大模型的成本驟然下降,卻不怎麼損失性能。羅福莉在性能與成本之間,找到了這樣一個平衡點。到了號稱“性價比之王”的小米,羅福莉把DeepSeek的精神貫徹到底。她主導團隊與北京大學聯合研發資源管理系統ARL-Tangram,讓模型的算力成本直降71.2%。然而成本下降並不意味著性能下降。使用了該技術的兆參數的旗艦模型MiMo-V2-Pro,在Artificial Analysis全球大模型綜合智能排行榜上位列第八、國內第二。羅福莉證明了一件事:性價比不是某個項目的偶然,而是一種可以跨平台複製的方法論。曾妍的平衡點則是前文提到的動態性和穩定性,讓視訊生成模型又能講好故事,又有畫面張力和視覺衝擊力。兩人不同的是職業規劃。羅福莉從阿里跳到幻方,再到DeepSeek,這條路徑是“從大廠到創業公司,從工程應用到模型研究”。曾妍則是在字節內部一路深耕,5年時間完成了從校招畢業生,坐到了4-2的位置。兩條路徑沒有高下之分。在AI大模型這個燒錢、拼資源、看長期積累的領域,年輕的技術人才依然可以通過對問題的深刻理解,在短時間內做出關鍵貢獻。有可能他們研究的方向,你聽都沒聽過,但就是有效。她們的故事才剛剛開始。 (字母AI)
字節跳動暫停 Seedance 2.0 全球發佈,版權糾紛凸顯AI訓練資料爭議
據The Information周六報導,字節跳動已暫停其最新視訊生成模型 Seedance 2.0 的全球發佈計畫。該決定是在公司與多家好萊塢製片廠和串流媒體平台爆發一系列版權糾紛後作出的。這一事件再次凸顯生成式人工智慧行業正在面臨的核心問題——訓練資料的版權合法性。隨著AI模型能力快速提升,圍繞資料來源和內容授權的法律風險正在迅速上升。Seedance 2.0發佈計畫突然暫停Seedance 2.0 是字節跳動近期重點研發的視訊生成模型,被視為其在生成式視訊領域的重要佈局。據報導,該模型原計畫面向全球開發者和企業客戶發佈,能夠根據文字提示自動生成高品質視訊內容,並被定位為與當前主流AI視訊工具競爭的重要產品。然而在發佈準備階段,好萊塢多家大型製片公司和串流媒體平台提出版權質疑,認為AI模型的訓練資料可能包含未經授權的影視內容,生成的視訊內容可能模仿或復刻現有影視作品風格,模型可能對影視產業造成潛在版權和商業衝擊。在相關爭議尚未解決之前,字節跳動決定暫緩 Seedance 2.0 的全球上線。好萊塢與AI公司的版權衝突升級近年來生成式AI技術的快速發展,使科技公司與傳統內容產業之間的矛盾不斷加劇。影視公司普遍擔憂,AI模型在訓練過程中可能使用了大量影視素材,包括電影和電視劇畫面、劇本與對白文字、視覺風格和鏡頭語言。如果這些內容未經授權被用於模型訓練,可能構成版權侵權。目前多家媒體公司已經對科技企業提起訴訟或提出正式投訴。在美國圍繞AI訓練資料的法律爭議已涉及多家大型科技企業,包括OpenAI、Google、Meta。出版商、新聞機構和影視製作公司均聲稱,其內容在未經授權的情況下被用於訓練AI模型。訓練資料成為生成式AI最大監管焦點隨著AI能力越來越接近真實內容生產,監管機構和版權持有方正將注意力集中在模型訓練資料來源上。當前爭議主要集中在三個問題:1、是否可以使用公開網際網路內容訓練模型科技公司普遍認為公開網頁內容屬於可抓取資料,但內容生產者認為公開可訪問並不等於可用於商業AI訓練。2、AI生成內容是否構成版權侵權如果AI輸出的視訊 圖像或文字高度模仿原作品風格 是否構成侵權仍存在法律爭議3、是否需要建立授權和分成機制部分媒體公司正在推動建立類似AI版權授權體系,要求科技公司為訓練資料付費AI視訊成為新的版權爭議焦點相比文字和圖像生成,視訊生成技術的版權爭議更加複雜。原因在於視訊涉及多種版權元素,包括畫面、音樂、劇本以及演員形象。影視產業商業價值巨大AI生成視訊可能直接衝擊影視製作市場。Seedance 2.0 的暫停發佈,被業內視為生成式視訊行業的重要訊號。AI視訊技術的商業化正在進入法律博弈階段。監管壓力正在快速增加分析人士指出,隨著生成式AI商業價值持續增長,全球監管機構可能進一步加強審查。在美國和歐洲多項政策正在討論中,包括強制披露AI訓練資料來源、建立版權許可制度、對生成內容進行水印標識。對於科技公司而言,未來AI模型開發不僅是技術競爭,也將成為法律與版權體系之間的競爭。 (美股財經社)
《紐約時報》:中國人為何對人工智慧如此樂觀?
儘管許多西方人士擔心人工智慧技術對就業或整個人類的影響,但中國公眾對人工智慧仍表現出高度樂觀的態度。去年在上海舉行的世界人工智慧大會上展出的服務機器人。沈啟來《紐約時報》最近,人工智慧視訊生成工具 Seedance 2.0 首次亮相,它能夠建立使用者幾乎可以想像的任何內容的逼真視訊片段,這在世界兩端引發了截然不同的兩種反應。在美國,電影行業的許多人對此感到恐慌。一段由Seedance製作的布萊德·皮特和湯姆·克魯斯打鬥場面的視訊在網上廣泛傳播後,好萊塢的電影製作人和編劇們表示,他們的工作正迅速走向終結。但在中國,許多人對此感到自豪和興奮。短影片公司的股票飆升。中國最著名的導演之一賈樟柯分享了一部他用Seedance製作的短片,片中他本人和人工智慧版本探討了電影製作。賈樟柯在社交媒體上寫道: “我不擔心科技會取代電影。從一開始,電影就與新技術共存。真正重要的是人們如何運用科技。”賈樟柯(中)於 2024 年在法國戛納電影節上。安東尼·圖利爾/法新社 — 蓋蒂圖片社截然不同的反應表明,中國與西方大部分地區在人工智慧問題上存在更廣泛的分歧:中國人似乎對人工智慧更加樂觀。根據畢馬威去年對47個國家進行的一項調查,中國民眾對人工智慧的熱情位居世界前列。在中國,69%的受訪者認為這項技術的益處大於風險,而只有35%的美國人認同這一觀點。其他民意調查也顯示出類似的差異。問題是,為什麼?答案可能與該技術在每個國家的部署方式,以及行業領導人如何談論該技術有關。在中國,人工智慧似乎無處不在。無人駕駛計程車已在中國十幾個城市穿梭,服務機器人也穿梭於酒店和餐廳之間。中國科技公司推出了醫療聊天機器人,幫助使用者避免在醫院排長隊。他們還在熱門應用程式中嵌入了人工智慧助手,使用者可以在地圖應用中詢問人工智慧如何選擇餐廳,或者在購物應用中詢問人工智慧如何挑選鞋子。這是中國中部城市蕪湖用於協助交通的機器人。在中國,人工智慧似乎無處不在。王宇石/VCG,圖片來自Getty Images這是因為中國科技公司一直專注於人工智慧的實際應用。相比之下,許多領先的美國科技公司則專注於更抽象的目標,例如開發最前沿的模型或實現通用人工智慧。此外,與美國不同,中國大多數領先的人工智慧模型都是免費使用的。在美國,使用者必須付費才能使用像 ChatGPT 這樣的聊天機器人的全部功能。(事實上,中國公司甚至會贈送現金和豪車來吸引使用者下載他們的應用程式。)上海中歐國際工商學院研究數字經濟的教授白國表示,因此,中國消費者正在感受到人工智慧帶來的好處。白教授表示:“人工智慧已經能夠幫助解決很多問題,人們覺得這很有趣,很有用,所以大家對它抱有很多積極和熱情。” 而潛在風險目前看來仍然遙遠。北京一直是冠軍對人工智慧應用的關注是中國競爭異常激烈的網際網路經濟的產物。阿里巴巴、字節跳動和外賣巨頭美團等領先企業正展開一場曠日持久的使用者爭奪戰,而人工智慧則是他們最新的工具。人工智慧可以幫助解決中國一些最棘手的問題,例如醫療保健或勞動力老齡化問題。許多中國學者、投資者和企業家認為,這種樂觀情緒源於一個更為抽象的原因:簡而言之,中國近幾十年來現代化處理程序飛速發展,許多中國人已經習慣了翻天覆地的變化。而科技正是推動這一變革的關鍵。去年在武漢的一次演示活動中,拍攝了一輛無人駕駛電動小巴。吉爾·薩布裡《紐約時報》來自中國的科技作家Afra Wang在最近的一篇簡報中寫道,她的祖母曾經步行五個小時去買鐘,只為了讓孩子們能準時上學。“如今,她的小米手機讓她沉迷於網購,送貨無人機在她家上空盤旋,”王女士寫道。“人工智慧看起來只不過是車輪向前轉動的又一次而已。” (invest wallstreet)
Seedance 2.0 小白速成指南:看完這篇,你也能做出大片既視感
你們有沒有發現,最近刷短影片、看朋友圈,總能看到一些"媽呀,這個視訊也太專業了"的作品?原來都是用即夢 Seedance 2.0 做的!但問題來了——為什麼別人用它做出來的視訊就像好萊塢大片,你用它生成的視訊就像... 嗯,"非常努力的AI"呢?😅秘密就一個字:專業術語!不過別怕,我不是要讓你去電影學院讀3年書。今天我就把這些影視"黑話"全部翻譯成"人話",讓你5分鐘搞懂核心邏輯,之後用 Seedance 2.0 出片直接起飛!廢話不多說,咱們開始~第一部分:鏡頭基礎課(2分鐘速成)1️⃣ 鏡頭運動都有啥?你有沒有想過,為什麼有的視訊看起來很"生動",有的就很"死板"?秘訣就在鏡頭怎麼動!(1)平移鏡頭= 攝影機左右移動(想像你轉身看風景)效果:寬闊感、展示全景適合:展示場景、環境介紹(2)推拉鏡頭= 攝影機前後移動(想像你向某個東西走去或走開)效果:代入感、戲劇張力適合:製造懸念、聚焦重點對象(3)跟拍鏡頭= 攝影機跟著主體移動(想像你在跟著一個人走路)效果:動感、代入感超強適合:運動場景、人物跟蹤提示:用 Seedance 2.0 描述時,直接說"運鏡向左""推鏡靠近"就行,AI會理解!2️⃣ 分鏡與景別(為何別人視訊看起來專業?)這就像拍照時的"遠中近"組合!小貼士:好的視訊會在這三個景別之間切換,就像在講故事一樣——先告訴你"在那兒",再展示"在幹啥",最後強調"有多重要"。在 Seedance 2.0 里,你可以這樣寫:"開場全景,遠景展示壯闊的山景" "切到主人公的中景,做出驚訝的表情" "特寫他眼睛裡的淚光"看,這樣一描述,是不是自動有電影既視感?✨3️⃣ 光影與色調(氛圍大師)這是最"神奇"的部分——同一個場景,光影和色調能把它從"溫馨"變成"詭異"。(1)暖色調= 橙色、黃色、紅色系感覺:溫暖、親切、充滿希望適合:日出、聚餐、溫情場景(2)冷色調= 藍色、紫色、綠色系感覺:神秘、冷靜、有距離感適合:夜景、科幻、懸疑場景(3)高光影= 明暗對比強烈感覺:戲劇化、有張力適合:懸念、對比、衝突場景(4)柔和光= 光線很均勻感覺:舒適、夢幻、溫柔適合:愛情、治癒、日常場景秘籍:想讓視訊看起來"大片范兒"?在 Seedance 2.0 提示詞裡加上色調要求就行: "暖色調日出,金色光線灑在主人公臉上" "冷色調夜景,藍紫色調,高對比光影"第二部分:Seedance 2.0 獨家玩法(核心乾貨)4️⃣ 音畫同步秘訣(這是Seedance的絕活!)為什麼 Seedance 2.0 這麼火?因為它能把音樂和畫面完美同步!這不是什麼新鮮概念,但它做得特別好。想像一下:音樂高潮時,畫面裡的人物做出爆發的動作音樂轉折時,鏡頭切換到另一個場景鼓聲落點時,演員的動作精準hit這就叫"音畫同步",也是為什麼用 Seedance 做的視訊看起來那麼"專業"的原因!怎麼用?選好配樂= 挑一首你喜歡的歌或背景音樂標記節奏點= 想像在那裡要有"視覺衝擊"在提示詞裡體現= "隨著鼓聲,鏡頭快速推進""音樂柔和時,緩緩推拉鏡頭"實戰例子:"BGM是《Unstoppable》,整個視訊跟著音樂的節奏,低音處鏡頭穩定緩行,高潮處做快速運鏡和轉場,音樂落點時演員做出決定性的動作"你看,這樣一描述,Seedance 2.0 就能理解你想要的"節奏感"了!5️⃣ 多模態參考大法(這是秘密武器!)什麼叫"多模態參考"?就是你可以給 AI 看圖片、視訊、音訊來示範你想要的效果。三種參考方式:📸圖片參考= 給 AI 看參考截圖 "這是我的參考畫風:[上傳電影截圖]"用處:統一視覺風格、色調、光影🎬視訊參考= 給 AI 看參考視訊片段 "我想要這種運鏡方式:[上傳參考視訊]"用處:展示鏡頭運動、節奏感、轉場手法🎵音訊參考= 給 AI 聽參考音樂 "用這首歌的節奏感:[上傳音樂]"用處:確保音樂風格和節奏匹配一致性控制:@引用機制= 在提示詞中引用之前生成的視訊 "@上一個視訊的第3秒開始的鏡頭"用處:保持系列視訊的連貫性和一致性一致性控制= 讓多個鏡頭裡的人物、場景保持統一 "用之前生成的主角形象,確保衣服、表情風格一致"用處:製作系列視訊、連貫敘事小秘密:這個功能是 Seedance 2.0 最強大的地方!你用得越細緻,出來的視訊就越"量身定製"。6️⃣ 提示詞黃金公式(這是我的獨家套路)好提示詞 = 專業出片的一半!動作類視訊怎麼描述:場景交代 + 人物動作 + 鏡頭運動 + 節奏感例:在健身房,主人公做伏地挺身,鏡頭跟拍側面,隨著勁爆背景音樂的節奏加快速度,最後特寫他堅定的表情場景類視訊怎麼描述:地點設定 + 光影氛圍 + 鏡頭移動 + 細節描寫例:古鎮石板街,夕陽西下灑金色光線,攝影機緩緩推進,展示路邊的紅燈籠、古建築、行人剪影情感類視訊怎麼描述:角色情緒 + 環境氣氛 + 視覺表現 + 轉場方式例:女孩看到驚喜禮物,眼眶泛淚,冷色調的室內突然切到暖色調的燭光晚餐,音樂從悲傷轉為歡快通用範本(我最常用): "[時間/地點設定],[人物/主體]在[做什麼],[鏡頭怎麼運動],[光影色調],[背景音樂或音效],[情感基調],[轉場方式]"舉栗子: "清晨的咖啡館,少女坐在靠窗位置整理筆記,攝影機做緩慢的圓形運鏡,暖色調晨光透過玻璃灑下,背景是舒緩的鋼琴樂,整體溫柔治癒,最後切到咖啡倒入杯子的特寫"是不是超具體?Seedance 2.0 就吃這套!第三部分:從入門到"大片"(進階技巧)7️⃣ 高級創作技巧(這是我的真傳家寶)一鏡到底的魔法"一鏡到底"就是整個視訊看起來像一個長鏡頭拍攝下來的,沒有剪輯感。怎麼做? 畫面中的人物/物體要連貫運動 鏡頭轉向、推拉、平移都要"自然接力" 背景音樂要持續,沒有硬切在 Seedance 2.0 里的秘訣:"整個視訊要有一鏡到底的感覺,演員在房間裡走動,攝影機跟隨,經過門、走廊、樓梯,最後推進到窗邊,鏡頭始終流暢,沒有卡頓感"多鏡頭敘事的魅力如果說"一鏡到底"是馬拉松,"多鏡頭敘事"就是跑步接力賽——你可以在不同場景、不同角度間快速切換,營造節奏感!好處: 製造懸念(切到反應鏡頭) 加快節奏(快速剪輯) 展示細節(特寫 → 全景 → 特寫)範本:"開場全景展示豪宅,切到主人公走進房間的中景,再切到他發現禮物時的特寫臉部表情,最後遠景展示整個驚喜派對現場"特效與轉場的組合技轉場不只是"黑屏切換",還可以這樣玩:淡出/淡入= 畫面慢慢消失/出現(溫柔感)推拉轉場= 新畫面推開舊畫面(節奏感)閃白轉場= 閃一下白屏(衝擊感)對象遮擋轉場= 人物擋住鏡頭,背後切換場景(電影感)栗子:"第一幕的演員揮手,他的手臂遮住鏡頭,轉場後露出他在完全不同的場景中,手勢保持連貫"這招叫"匹配切割",超專業!8️⃣ 我踩過的坑 & 解決方案(避坑指南)坑1:音畫不同步❌錯誤做法:"加個背景音樂吧" → 結果音樂和視訊時長不搭✅正確做法:先確定音樂時長和BPM(節拍),再在提示詞中明確標註節奏點坑2:人物忽胖忽瘦❌錯誤做法:多次生成不同部分,結果同一個人物風格變了✅正確做法:用"一致性控制"功能,@引用之前的人物生成,或在提示詞裡詳細描述人物特徵坑3:色調突變❌錯誤做法:暖色調場景突然切到冷色調,顯得很生硬✅正確做法:要麼保持統一色調,要麼在"轉場前"留個"色調過渡鏡頭"(比如燈滅了,然後切到新場景)坑4:鏡頭運動過快/過慢❌錯誤做法:"攝影機運動"太含糊✅正確做法:具體描述,比如"緩緩推進(3秒內推進1米左右)""快速推鏡(1秒內靠近主體)"坑5:提示詞太長導致AI 遺忘關鍵資訊❌錯誤做法:寫成一整段文章,重點不突出✅正確做法:用換行、重點加粗,讓AI好理解:場景:早晨的辦公室 人物:職場女性,深藍色OL服動作:整理檔案、喝咖啡、看電腦 鏡頭:推拉+跟拍結合色調:冷色調,大量冷光 節奏:隨著背景音樂加快結尾彩蛋 🎉好了各位,我的 Seedance 2.0 "黑話翻譯大全"就到這兒了!✨現在你已經掌握了:✅ 鏡頭運動的邏輯(為何別人的視訊動起來就是好看)✅ 景別搭配的秘訣(全景→中景→特寫的故事感)✅ 光影色調的"氣氛營造法"✅ Seedance 2.0 的音畫同步原理✅ 多模態參考怎麼用(這是最強武器!)✅ 提示詞的黃金公式✅ 一鏡到底、多鏡頭敘事、轉場技巧✅ 我踩過的8個大坑和避坑方案 (xiao阿娜的妙妙屋)
Seedance春節殺瘋後,開年概念股卻跌停
春節大模型再次上演“閃電戰”2026年春節前夕的中國網際網路,再次迎來了一個意想不到的燃點。它並非精心策劃的晚會,也不是數字紅包雨,而是一款悄然上線的AI模型——字節跳動旗下的視訊生成工具Seedance 2.0。當大多數人已沉浸在年貨採辦與返鄉歸途中時,一個線上文件連結開始在技術圈內流轉。文件標題末尾的“Kill the game”更像是一句技術極客的輕鬆自嘲,而非宣戰檄文。然而,爆炸正是從這一刻開始。數小時內,排隊等待生成的使用者序列便成為新的社交貨幣,截圖裡“當前排隊超1000位”、“預計等待8小時”的字樣,記錄著一次全民參與的熱情奔湧。網路上迅速湧出各式視訊:憨態可掬的“迪迦奧特曼大戰奶龍”,天馬行空的“小孩隔扣NBA巨星詹姆斯”,乃至對經典影視結局的顛覆性改寫……Seedance 2.0以一己之力,將AI視訊生成的集體狂歡,變成了這個春節最硬核的全民活動。《黑神話:悟空》之父、遊戲科學創始人馮驥在社交平台上直言:“AIGC的童年時代結束了。”知名科技博主“影視颶風”Tim則在深度評測中連用六個“恐怖”來形容其效果。當AI不僅能生成畫面,更能理解鏡頭語言、敘事節奏,並保持角色、光影、風格的高度一致性時,它所挑戰的,已是百年來構築的影視工業流程本身。2025年春節前DeepSeek發佈R1模型後,阿里巴巴工程師就曾取消假期,在春節期間奮起直追,最終推出了通義千問系列模型。阿里前董事長蔡崇信後來的坦言,道盡了行業的集體焦慮,是在看到競爭對手的突破後,才意識到自身已然落後。如今,歷史似乎正在重演,只是觸發點變成了Seedance 2.0。Seedance 2.0引發的狂飆與真相技術的突破最先在資本市場的計價表上得到快速而劇烈的反應。Seedance 2.0的出現,為市場提供了一個重新評估AI產業價值、尤其是下游應用前景的清晰坐標系。A股市場率先上演概念狂歡。2月9日,春節前最後一個交易日,Seedance 2.0內測引發的想像,直接點燃了短劇、影視傳媒、算力等類股。捷成股份、海看股份、引力傳媒、完美世界、橫店影視等十餘隻個股集體漲停。產業鏈的聯動效應同步顯現。市場資金敏銳地流向算力基礎設施這條“賣水人”賽道。大位科技、光環新網等AIDC(AI資料中心)服務商,寒武紀、海光資訊等國產算力晶片公司,以及浪潮資訊、中科曙光等伺服器廠商均收穫顯著漲幅。摩根大通的預測為這股熱情提供了宏觀註腳,其預計從2025年到2030年,中國AI推理的token消耗量將以約330%的年複合增長率激增,規模擴大370倍。而字節跳動2025年超1500億元、其中約900億用於AI算力的資本開支預算,更是產業需求的確鑿訊號。無論是模型訓練還是使用者生成,海量token消耗的終點,都是對算力資源的持續飢渴。但市場邏輯真的有這麼容易跑通嗎?摩根大通和機構的預測更多是長期邏輯,告訴我們明天一定會到來,但怎麼到來?他們也不清楚。如果說暴漲就代表正確的話,那麼2月24日開年第一個交易日,Seedance2.0概念股不少跌幅在10%左右甚至跌停,又該如何解釋呢?資本市場的短期狂熱更多是資金交易邏輯,反過來拿資本市場證明“Seedance2.0已成”就屬於本末倒置。這引發了關於深度偽造、隱私侵犯和信任危機的巨大擔憂。模型在未經任何授權的情況下“腦補”並復刻了個人生物特徵。字節跳動迅速做出反應,緊急暫停了以真人圖片或視訊作為參考主體的功能。馮驥等業內人士表達了對假視訊氾濫的深切憂慮。Seedance2.0能夠憑藉照片生成本人聲音,形成了全網級熱點事件,這已經是事實。我們現在要焦慮的,除了利用AI可以“深度偽造他人資訊”所帶來的社會安全和信任問題,還有Seedance2.0真的有那麼強嗎?該怎麼樣用起來。從測評社區的共識來看,Seedance 2.0最被反覆強調的其實是“更容易復現一個你想要的結果”,而非單次生成的視覺驚豔程度。多模態參考的引入,使得它在商業與製作場景中顯得格外務實——使用者可以指定風格、人物、動作甚至節奏,而不是一次次靠提示詞試錯。其與快手最新的Kling 3.0偏向“電影感輸出”的方向形成了微妙差異:Kling更強調鏡頭運動與觀感完成度,而Seedance更偏向生成結果是否可預測、可復用。但Seedance2.0只是相對可復用性強一些,它仍然具備當前眾多視訊模型的問題,上傳數量受限制,具體細節仍然受限,生成結果仍有盲盒性,這會帶來使用成本的飆升。年初為了搶熱度上頭去沖2599元會員的人,已經開始後悔申請退款了。具體來看,素材數量/大小卡死:圖片≤9 張、單圖<30MB;音訊≤3 個、總時長≤15 秒;所有素材總數≤12 個,多素材創作極受限。更糟糕的是無手動控制:景深、運鏡、轉場、節奏全由演算法預設,無法自訂,鏡頭語言僵化。生成速度遠慢於宣傳:官方稱 “60秒出2K”,實測基礎會員,10秒視訊要20多分鐘,排隊+稽核嚴重拖慢節奏。效果不穩定:語音錯亂、字幕亂碼(最常見)、畫面細節崩壞、物理邏輯偏差,同樣的提示詞效果時好時壞。現在看到的許多炫酷的AI影片,實際上是專業影視公司,按專業的手繪分鏡,專業的真人配音,專業的後期調色,專業的字幕,專業的標題設計創作出來的,AI生成只是其中的一小環。目前來說包括Seedance2.0在內的AI生成,還很難用來拍真正的長視訊。但比較適合用來做15秒的廣告片。或者3-5分鐘的企業宣傳片。Seedance2.0真正的價值是,讓原本要花10萬元才能買到的創意,現在幾百元就能實現了。而且Seedance也面臨OpenAI同樣的侵權壓力,這種壓力顯然是不能無視的。在2月14日,派拉蒙旗下的天舞傳媒也正式向字節傳送了通知函,並控訴列舉了《南方公園》、《星際迷航》、《海綿寶寶》、《教父》、《愛探險的朵拉》、《最後的氣宗》、《忍者神龜》等作品被侵權。目前,迪士尼已經與OpenAI達成了一項高達十億美元的商業合作。一份為期三年的資料授權許可協議,讓OpenAI在其Sora工具中可合法呼叫經典角色的資料。背後邏輯也很簡單,要麼花錢買IP資料,要麼承擔訴訟風險,而字節顯然也逃不過。面對強烈抵制浪潮,字節在除夕日,在美國媒體上做出了合規承諾,表示公司尊重智慧財產權,正在採取措施加強現有的保護機制。作為初步應對措施,字節官方此前已暫停了Seedance 2.0使用者上傳真人圖片的功能。總之,Seedance 2.0本身尚處內測,具體商業化路徑、對現有影視工業的真實替代曲線以及最終的盈利模型均未清晰。當最初的情緒衝擊波過去,資本市場終將回歸理性,對於個人創作者來說,要做的是抓住每一次細小的技術紅利,逐漸形成技術複利,領先大部分同行。寫在最後Seedance 2.0並不完美,但AI對大部分行業的衝擊是真實且長期的。當AI能以分鐘為單位生成過去需要數十人、數月工時的專業級視訊時,它對創意產業就業結構的衝擊將是顛覆性的。從分鏡師、動畫師、後期合成,到部分導演、攝影的工作範疇,都可能被重新定義甚至大幅壓縮。影視颶風Tim所說的“傳統影視流程進入被沖走的倒計時”,對行業而言是警世恆言,對無數以此為生的個體而言,則可能是職業生涯的劇烈顛簸乃至斷崖。技術進步帶來的整體福祉提升,往往伴隨著局部的陣痛與代價,如何讓被“最佳化”的勞動力平穩過渡、在新的價值鏈條中找到位置,是一個遠比提升模型參數更複雜的社會命題。 (首席商業評論)
AI 爆款視訊製作復盤:全網2500萬曝光、Cursor+Seedance,我如何做的?
在視訊/音訊/文字內容生成技術越來越強的當下,AI時代的內容創作者要如何更好利用AI?創作者和工具之間的關係會如何發展?Medeo 產品負責人晨然在這篇文章裡拆解了自己用Seedance 2.0 製作爆款視訊的全流程,很有參考意義。2月12號,我發了一條用 AI 做的《怪奇物語》終局之戰的視訊。然後它爆了。僅黑叉平台一個管道,92 條相關推文的總瀏覽量就達到了 1914 萬。總點贊 52 萬,轉發 4.9 萬,回覆 5000+。其中我的原帖只佔了 234 萬瀏覽,剩下 1680 萬全是別人搬運和討論帶來的。最大的搬運者是巴西博主 @nerdemcartaz,他一條轉發就拿了 492 萬瀏覽——比我原帖還多一倍。我的視訊被全球至少 6 種語言的人搬運:英語、葡萄牙語、土耳其語、中文、日語、西班牙語。Ins 上至少 12 個帳號搬運,估算曝光 500-1000 萬。TT 估算 100 萬+。油管也有大量傳播。最讓我詫異的是——好萊塢頂級媒體 Deadline 寫了專題報導,Cosmic Book News 也做了報導,專門提到了我的視訊,原文說 "one post has more than 2M views"。全網總曝光保守估計:2500 萬+。我一個人做的 AI 視訊,全球拿了 2500 萬曝光,還上了好萊塢的新聞。01 先有了爆款方法論,我才有了爆款視訊但最離譜的不是這個資料——而是這件事發生的時間線。故事要從兩天前說起。2月10號,我在給 Medeo 的同事們寫了一篇文章,叫如何提升網感,做出百萬播放量的視訊?那篇文章裡,我認真分析了爆款的底層邏輯。我寫道:內容要的就是稀缺。任何內容都必須滿足稀缺這個屬性。我總結了社交媒體上的各種稀缺性類型——虛構昂貴的電影場景、IP 混搭的同人二創、高動態的超越人類體驗的內容、風格反差……我還說了,一個好的爆款內容,需要同時滿足好幾個維度:對於稀缺性的精準設計對於某個"梗"的深刻理解對於情緒共鳴點的放大指令碼階段,基本上就能預判出內容是否具備爆款潛力。寫這些的時候,我信心滿滿。方法論已經想得很清楚了,每一個點我都分析得頭頭是道。但是——寫那篇文章的時候,我自己其實還沒做出過爆款。文章裡我放了好多自己做的實驗視訊:如來佛祖玩 VR 壓孫悟空、Taylor Swift 和 Blackpink 在舞台上互扯頭花、寂靜嶺風格的逃跑視訊……每一個我都覺得不夠好。我給自己的評價是:笑點不夠密梗不夠多資訊密度太低反轉力度不夠那篇文章的最後一句話,我寫的是:"我還在摸索中。"就很真實對吧?一個還沒做出過爆款的人,在寫怎麼做爆款的方法論。那個時候,我不知道這套理論到底行不行。我只是覺得方向是對的,但還在實踐的路上。說實話,心裡是有一點慌的。萬一這套東西根本不管用呢?誰能想到,僅僅兩天后,視訊就真的爆了。2月12號,我用 Seedance 2.0 做的《怪奇物語》終局之戰視訊爆了。然後——一切都變了。瀏覽量開始飛漲。搬運開始瘋狂傳播。我眼睜睜看著通知列爆炸。爆款的體感是,即時能刷新出評論,像在看時間線一樣。評論區徹底炸了。各種各樣的人在說各種各樣的話:怪奇物語的粉絲最激動。他們等了這麼久,終於看到有人"修復"了那個讓他們失望的結局。評論裡到處都是:"This is better than what we got"(比我們看到的原版好多了)"We're not ready for this"(我們還沒準備好接受這個)"AI just gave us the ending we deserved"(AI 給了我們應得的結局)科技圈和路人直接被震住了。 很多人根本不敢相信這是 AI 做出來的:"AI is getting scary"(AI 開始嚇人了)"This is terrifying"(這太恐怖了)"Hollywood is cooked"(好萊塢完蛋了)"AI is happening fast"(AI 發展太快了)還有人叫我修復權游結局。有人甚至在爭論我的視訊到底有多少是 AI 生成的、多少是真實素材混剪的Cosmic Book News 專門寫道:"The face matching and voice syncing are so tight that people are debating how much of the footage is AI versus blended source material."(面部匹配和聲音同步做得太逼真了,人們在爭論到底有多少是 AI 生成的。)最離譜的是行業內的人也來了。 SAG-AFTRA(美國演員工會)甚至因為這波 AI 視訊浪潮專門發了聲明。Deadline 寫了專題報導,Cosmic Book News 也做了報導,都點名提到了我的《怪奇物語》視訊。(雖然是點名批評,但也是一種認可…)巴西博主 @nerdemcartaz 搬運了我的視訊,單條就拿了 492 萬瀏覽——比我原帖還多一倍。全球至少 6 種語言的人在搬運和討論。從英語、葡萄牙語、土耳其語,到中文、日語、西班牙語——我根本看不懂一半的評論,但我看得懂下面的數字在漲。02 復盤:我到底是怎麼做到的?回過頭看,這次爆發的核心原因,恰恰就是我在2月10號文章裡分析過的那個詞——稀缺性。只不過這次,好幾個維度的稀缺性同時疊在了一起。一、時間節點的稀缺Seedance 2.0 當時只有中國創作者能用,外網創作者還用不上。這個時間窗口非常關鍵——我們比別人早拿到了武器,就應該第一時間製作視訊。二、AI 臨界點的爆發AI 視訊的質量到了一個臨界點。大部分普通觀眾根本不知道現在的 AI 原來已經可以做到這麼好了。這種"震驚感"本身就是巨大的稀缺。三、內容本身的稀缺這一點是最關鍵的。《怪奇物語》的粉絲對結局不滿意。這種不滿催生了強烈的內容需求。內容是由市場催生的,由市場決定的。創作者並不是真的在引領時代,你只需要比市場和觀眾的預期跑在前頭一點點,這就是好的內容。看起來你是在做很多創新的東西,實際上是因為人心所向,很多人期待看到這樣的內容,它就應該被做出來。創作者只是一個承接的載體,負責將這些內容具象化。2.1 寫指令碼佔了我 80% 的精力。我在 Cursor 裡面和 AI 模型一起討論,讓它去全網搜尋《怪奇物語》中有那些缺憾點,大家在 Reddit 上對結局有什麼不滿。我想彌補這些缺憾。自己去想一個指令碼很可能不符合市場預期,所以我會跟 AI 反覆討論、不停迭代。這個過程是非常迭代式的:我一開始並沒有寫整個兩分半鐘的指令碼,甚至都沒想過要做到兩分半。製作過程是每 15 秒、15 秒進行的。每次只想 15 秒的指令碼,要求接下來的 15 秒一定有節拍的反轉。我是看了 AI 做出來的 15 秒之後,才決定接下來要怎麼做。有時候是 AI 生成的戰鬥畫面給了我靈感,我再回去改指令碼。最多同時只構思了 30 秒的內容。整體的故事框架直到做到 80% 的時候才成型——最開始只是有一個方向。先做 MVP 測試本來我設想了很長的劇情,但有可能做出來沒人看。在做長視訊之前,我先做了一個成本很低的 MVP 實驗。我一個晚上先做了《怪奇物語》的第一集短片,40秒內容,發在小紅書上,很快就有幾百上千的點贊。這說明——這是市場需要的內容。第一集在抖音也爆了,3k贊,比我以前所有視訊好。直接做長視訊,很有可能做出來沒人看。用短影片先測試,成本很小,速度很快。驗證了之後,再放心地投入精力做長的。2.2 打鬥設計:一層比一層爽做第二集的時候,我關注兩個點:文戲要貼近角色,打鬥要極其精彩。打鬥分三個環節,規格一層層升級,讓觀眾越來越爽:Will 對抗 Vecna —— 觀眾特別想看到 Will 覺醒超能力,反抗第一季就抓走他的 Vecna。Eleven 和 Eight 聯手打 Vecna —— 彌補了她們從來沒合作過的遺憾。他們三個都是從同一個實驗室出來的,這種三角關係本身就有內在的張力。奪心魔打 Vecna —— 怪物之間的大場面,超出所有人的預期。最後引出 Max 拯救小 Henry 的終極反轉。2.3 反轉、反轉、再反轉這次經歷之後,我對一件事的理解變得非常深刻視訊是一個線性的東西。什麼意思呢?視訊不像文章,讀者可以跳著看、掃一眼標題就知道大概。視訊是一秒一秒往前走的,觀眾只能按順序看。如果他在第 3 秒劃走了,你後面做得再精彩他也看不到。完播率的資料是很殘酷的:2 秒內劃走的人可能就有一半,5 秒內劃走的人可能是 80%。想想這意味著什麼——你辛辛苦苦做了兩分半鐘的視訊,80% 的人連前 5 秒都沒看完就走了。你後面所有的高光、所有的反轉、所有的精心設計,對這些人來說根本不存在。以前我對這件事的意識沒那麼深刻。但現在,我對前 3 秒和前 5 秒的設計極其看重。因為如果前 5 秒留不住人,後面就是廢片。不是後面做得不好,是觀眾根本沒機會看到後面。所以整個視訊就是一個線性的大漏斗:每一秒都在流失觀眾,你能做的就是讓每一秒都有值得看下去的東西,把流失降到最低。我在設計劇情的時候,核心原則就是——每一秒都要有爆點,每一秒都要有很高的資訊密度,觀眾才不會劃走。整個兩分半鐘的視訊,我至少設計了 8 次反轉:反轉一(前 5 秒): 讓觀眾瞬間意識到這是一個同人二創。場面上,竟然能看見 Will、Eleven 和 Eight 聯手對抗 Vecna。前 5 秒就給到了 Will 高光,展示他掌控了"蜂巢"的超能力並用來反攻 Vecna——這是開篇的爽點。反轉二: 當觀眾以為 Will 能夠跟 Vecna 決一死戰時,劇情反轉了:Vecna 直接打敗了他,Will 的控制力瞬間消失。反轉三: 當觀眾以為主角團即將被抓時,Eight 的幻覺起了作用,給觀眾一個喘息的機會。反轉四: 當觀眾以為 Eight 的幻覺很強時,Vecna 展現了更強的能力,直接把 Will 抓走。此時節奏慢下來,給出反應鏡頭。反轉五: 當觀眾以為 Will 被抓、大家陷入無奈時,安排 Eleven 和 Eight 聯手進行一段高強度的打戲。反轉六: 當觀眾以為這段打戲能贏過 Vecna 時,結果反轉成三個人都被抓。隨後進入一段文戲對抗,增加內在張力。反轉七: 當觀眾以為他們還會繼續打鬥升級時,場外的奪心魔加入戰鬥,讓事情變得更加有趣。場外因素是一個超出預期的變數,打破了打鬥的平衡,就會很有意思。終極反轉: 在觀眾還不知道發生什麼的時候,讓 Max 成為主角並獲得高光,拯救過去的小 Henry。整個劇情設計就是反轉、反轉、再反轉。 觀眾永遠猜不到下一秒會發生什麼,這就是他們不會劃走的原因。用反轉跑贏了小紅書大盤2.4 文戲:每句台詞都要簡短有力我在設計文戲的時候,刻意要求每個角色說的話都非常簡短有力。而且每個人都必須有高光,每個人都必鬚髮揮作用,每個人的作用之間還要有張力。這裡拿幾段我設計得比較滿意的文戲來拆解一下。Will:"You put this thing inside me. Now it's mine!"這是開場第一句有台詞的文戲。Will 翻著白眼嘶吼出這句話的時候,控制著魔王衝向 Vecna。為什麼這句台詞有力?因為 Will 從第一季就被 Demogorgon 抓走,第二季被 Mind Flayer 附身——他從頭到尾都是一個受害者。觀眾等了五季,就想看 Will 站起來。而這句話的意思是:你在我身上種下的東西,現在我學會用它了,而且比你用得更好。 他不是在否認這段創傷,他是把創傷變成了武器。劇本裡 Vecna 後來在空中還嘲諷他:"You think that power belongs to you? I planted it in you when you were twelve. Every connection, every whisper you ever heard — was me calling it home."Will 咬著牙回了一句:"Then you made a mistake... because I learned to use it better than you ever did."這段空中對峙的文戲,我故意把節奏放慢了——前面全是快切打鬥,突然慢下來,兩個人在血紅天空下面對面懸浮,給每一句台詞留呼吸的空間。快和慢的對比,讓台詞更有重量感。Eleven + Eight + Vecna 的三人對峙這是我覺得全片情緒最集中的一段文戲。三個人全部被 Vecna 抓住,動彈不得。此時打鬥已經打不了了,只剩下語言。我喜歡他們三人的內在張力衝突,都是一個實驗室的。Vecna 居高臨下地說:"A new world is coming. And none of you will be in it."Eleven 滿臉鮮血,但抬頭死死盯著他:"There is no new world. Only you, alone."——這是在戳 Vecna 最深的恐懼。他不是在建設什麼新世界,他只是一個孤獨的人。然後 Eight 嘴角掛著血,扯出一絲笑:"You sound just like Papa."這一句是我跟 AI(Claude 4.6 Opus)聊出來的。我跟它說,我需要一句簡短有力的嘲諷,要能夠一下子把 Vecna 惹怒。為什麼這句話殺傷力這麼大?因為 Vecna 的前身 Henry Creel 從小就被 Dr. Brenner(Papa)當作實驗品,被關在實驗室裡,被當作工具。他恨透了 Papa,恨透了被控制的感覺。他後來殺了實驗室裡幾乎所有人,就是為了反抗 Papa。但現在——他在做什麼?他在控制別人,把別人當工具,居高臨下地宣判誰有資格活著。他變成了自己最討厭的那個人。 而說出這句話的是 Eight——同樣從那個實驗室出來的孩子。她太清楚 Papa 是什麼樣了,所以這句話從她嘴裡說出來,殺傷力是最大的。指令碼裡我寫了 Vecna 的反應:表情瞬間僵住,嘴角弧度消失,瞳孔微縮。然後憤怒從臉上炸開——藤蔓不受控制地狂亂抽搐。他被戳中了。Eight 的 "try harder"還有一段——Eight 用幻術騙了 Vecna,讓他以為抓住了三個人,結果全是幻影。Vecna 碾碎幻影之後停頓了一瞬,Eight 從掩體後面抬起下巴看著他,鼻血掛在臉上,嘴角一扯:"Try harder."就兩個詞。但你能感受到她的那種不屑——你這麼強大,結果連真假都分不清?這種挑釁反而讓 Vecna 看起來更可怕,因為他馬上就爆發了,新的藤蔓比之前更快更密地射出來,一把抓走了 Will。Max 的 "Got you."最後說一段我特別喜歡的設計。Max 在精神世界裡待了很久(原劇第五季設定裡她的意識被困在 Vecna 的精神世界中)。她見過無數次幼年 Henry Creel 的記憶——一個蹲在黑暗洞穴裡瑟瑟發抖的小男孩,手裡攥著一塊被奪心魔寄生的石頭。但原劇裡 Max 從來沒有過去跟那個小男孩互動過。我覺得這是一個遺憾——小 Henry 也是一個等待被拯救的孩子。所以在我的指令碼裡,我安排 Max 飛昇進入 Vecna 的精神深處,蹲在小 Henry 面前,輕輕從他顫抖的手裡接過那塊石頭,把他護在身後。然後她低頭看著掌心中的石頭,嘴角緩緩上揚:"Got you."就兩個字。但你能感受到她已經贏了。這個高光比安排她去拯救 Holly 要出彩得多——Max 一直有一種"孩子王"的氣質,她來保護這個被所有人遺忘的小男孩,才是最適合她的高光。03 我是怎麼用 Seedance 和 Cursor 的前面聊的都是指令碼和創意層面的設計思路,這裡說一下具體的製作流程——我是怎麼把指令碼變成視訊的。指令碼的固定格式,我在 Cursor 裡面給每一個生成場景寫指令碼,用了一套固定的格式。每個生成指令碼都有幾個固定類股:角色 + 參考圖——每個出場角色都對應一張參考圖,用 【@圖片】 的方式引用背景介紹——交代前情和環境鏡頭描述——逐鏡頭寫清楚畫面內容、角色動作、台詞風格指令——統一的視覺風格要求關鍵是多參考圖的方式。每個角色一張參考圖,場景也有參考圖,一個 scene 可能會掛 6-8 張圖。這樣做的好處是 Seedance 在生成的時候能更準確地還原每個角色的臉和穿著,不會搞混。尤其是多角色同框的場景,沒有參考圖的話 AI 很容易把人搞混。這裡有一個小技巧:你可能會問,《怪奇物語》的角色 IP 已經被訓練進模型了,為什麼還需要用參考圖?原因有三個:固定年齡。 《怪奇物語》拍攝跨度很大,演員們從 11 歲拍到成年。模型的訓練素材裡包含了多個年齡段的形象,如果不用參考圖鎖定,生成出來的可能是 11 歲的 Eleven,也可能是 18 歲的——你沒法控制。參考圖可以鎖定"我要的就是第五季這個年齡的臉"。統一穿著。 每個角色在不同季、不同場景裡的穿著完全不一樣。我需要保證整個視訊裡每個角色的衣服、造型和定妝照保持一致,這只能靠參考圖來固定。還原戰損狀態。 大戰場景裡每個人臉上都有傷、有血、有灰塵。這種"戰損妝"是原始訓練資料裡沒有的,必須通過參考圖來告訴 AI "這個角色現在長這樣"。所以,即便有了訓練好的模型,依然必須要用參考圖。 模型知道這個人是誰,但參考圖告訴它:這個人現在幾歲、穿什麼、臉上有沒有傷。那麼角色參考圖從那裡來呢?我直接下載了最後一集,從原視訊當中截了每個角色的圖。場景參考圖怎麼來的呢?用Medeo生成的。因為Medeo能理解我的劇本直接做出來。3.1 用 Cursor 的資料夾管理資源在 Cursor 裡面,我用資料夾來管理整個項目的所有資源:所有參考圖統一放在一個資料夾裡。每個角色的參考圖、每個場景的參考圖,都按編號整理好。寫指令碼的時候直接 @ 引用對應的圖片就行,不用到處找。每個 scene 的參考圖按格式逐一放入指令碼。 寫完之後,一個 scene 的所有資訊——prompt 文字、角色圖、場景圖、風格指令——全都集中在一起。可以直接一次性複製貼上到即夢裡。 做視訊的時候,我打開指令碼檔案,找到對應的 scene,整塊複製過去就能開始生成。不需要來回切換窗口找素材、找描述、找風格指令。這個工作流看起來簡單,但省掉了大量的來回切換和尋找時間。做 AI 視訊最怕的就是素材散落在各處,每次生成都要東翻西找。把一切集中在一個格式化的指令碼檔案裡,效率提升非常大。3.2 10-15 秒一個 scene = 一次生成 = 一個反轉我的每個 scene 設定在 10 到 15 秒。因為 seedance 最大生成秒數是 15秒。前面說過,我要求每 15 秒必須有一次情緒反轉。所以一個 scene = 一次生成 = 一個反轉節拍,三者完美對齊。這意味著我每做完一個 scene,就能看到一個完整的情緒波動:鋪墊 → 高潮 → 反轉。看完之後,我再決定下一個 scene 怎麼接——是繼續升級,還是突然轉向。這也是我之前說的"迭代式創作":做一段、看一段、想一段。根據 AI 實際生成出來的畫面來調整後面的走向。有時候 AI 生成的畫面超出預期,反而給了我新的靈感,我就回去改指令碼。3.3 指令碼和生成是互相喂養的,不是單向的。很多人可能以為 AI 視訊是"生成一次就能用"的。實際上遠不是這樣。我的做法是:每一個 scene 的 prompt,我會生成 4 到 6 次。 然後把所有能用的素材全部拖到剪輯軟體的時間軸上,進行混剪。為什麼要這樣做?第一,視覺一致性好。 因為用的是同一個 prompt,Seedance 2.0 的指令遵循度很好,生成出來的多條素材在風格、色調、角色外觀上會非常接近。這意味著把它們剪在一起的時候,觀眾不會覺得突兀——看起來就像是同一個鏡頭的不同角度。第二,打鬥場景必須剪輯。 像打鬥這種複雜場景,AI 生成的畫面還是會有很多穿幫的地方——手臂穿模、動作不連貫、物體突然消失之類的。這時候就需要用剪輯技巧來處理,比如匹配剪輯,在穿幫的地方切到另一條素材的對應時刻,觀眾就看不出來了。第三,提高素材利用率。 這一點很關鍵。AI 生成的視訊,很多時候不是整條都能用的:一條視訊可能只有 60% 是好的,剩下的穿幫了,那我就只取那 60%。有時候畫面不行,但角色的配音表現特別好——語氣、情緒都很到位。這種情況我就單獨提取音訊,然後配上另一條素材的畫面。反過來也有畫面很好但聲音不對的,同樣可以互相替換。所以最終的成片,其實是從 4-6 條可用素材裡挑出最好的部分,拼在一起的。04 最後說一個比較玄的體會。在創作過程中,我有的時候會注意到一些很奇怪的細節——一個角色的表情、一段對話的節奏、一個畫面的構圖。當時說不清楚為什麼覺得重要,但就是覺得不對,或者覺得很對。後來我發現,這些直覺往往是對的。比如我在設計 Max 拯救小 Henry 那場戲的時候,一開始並不是計畫好的。是我在看劇的時候突然覺得"這個小男孩好可憐,為什麼沒有人去管他"——就這麼一個模糊的念頭,最後變成了全片最打動人的一個設定。以前看書看到,編劇的方法論中有一種"頓悟時刻",就是你把一個個拼湊起來的線索合併成一個完整的劇情,突然覺得"啊,原來是這樣"。就像《星際穿越》裡主角掉進黑洞,觀眾突然理解了——四維空間就是未來的人類。那個"啊"的瞬間,是最讓人爽的。好的創作不是從頭到尾都想清楚了再做。好的創作是在做的過程中,不斷相信自己的直覺,然後一步步把模糊的感覺變成清晰的作品。說實話,這次爆發運氣成分很大。Seedance 2.0 剛好在那個時間點發佈,我剛好是最早知道的一批人,《怪奇物語》剛好是全球熱度最高的 IP 之一,剛好粉絲對結局不滿意……這些條件湊在一起,換一個時間點發,可能就沒這個效果。但也不完全是運氣。我之前花了不少時間研究什麼樣的內容容易傳播,選《怪奇物語》也是因為自己本身就喜歡這部劇、瞭解粉絲的痛點。指令碼花了 80% 的精力,做之前還先用短影片測試過市場反應。這些準備不能保證一定會爆,但至少讓我在機會來的時候,不至於手忙腳亂。整個過程創作還是不夠順手,未來一定會有更好的創作工具讓人上手。比如我正在做的AI視訊產品,Medeo,就是希望一站式創作,從生成到剪輯成片,都可以和Agent協作完成,那就太爽了。我會把這個創作過程做進產品,讓更多人能更簡單的創作!期待 Medeo 下次更新吧!2月10號,我寫了一篇《如何做爆款》的文章,最後一句話是"我還在摸索中"。2月12號,全網 2500 萬曝光,好萊塢媒體來報導了。中間只隔了兩天。有時候我也會想,這到底是方法論的勝利,還是純粹的運氣?說實話,我覺得兩者都有。但如果讓我重新來一次,我不會改變任何一個步驟——研究稀缺性、用 MVP 測試、一個 scene 一個 scene 地迭代、把 80% 的精力花在指令碼上。這些東西不能保證你一定會爆。但它們能保證提高爆款機率。至少下次我能在發之前提前預判:這有沒有可能爆了。 (Founder Park)
瞞不住了!透視Seedance 2.0關聯深企:這才是深圳硬核實力
字節跳動推出的AI視訊生成模型Seedance 2.0,在2026年2月初引爆了全球科技和創投圈。Seedance雖然是字節跳動的產品,但它的研發與深圳這座城市緊密相連。根據公開的工商資訊,Seedance 2.0是字節跳動旗下即夢AI開發的產品,而即夢AI的關聯公司——深圳市臉萌科技有限公司,由字節跳動全資持股,就坐落於深圳。▲圖源:CFP這意味著,這款在全球範圍內引發關注的AI應用,其核心研發和營運實體就在深圳。這不僅體現了深圳在吸引和培育高科技企業方面的優勢,也展示了深圳在AI應用層面積累的深厚人才和技術底蘊。一幅以人工智慧和具身智慧型手機器人為雙引擎的科技創新藍圖徐徐展開。深圳正以“全端自主可控”的雄心,加速建設全球人工智慧先鋒城市和具身智慧型手機器人產業集聚區,在全球科技競爭的新賽道上展現出中國科技創新第一城的硬核實力。AI先鋒:打造全端自主可控的智能底座2026年深圳政府工作報告明確提出:加快建設全球人工智慧先鋒城市,力爭人工智慧產業叢集增加值增長10%以上。這一目標背後,是深圳在AI領域建構的完整創新矩陣。▲圖源:CFP在算力基礎設施方面,深圳正在建構“四算合一”(通算、智算、超算、量算)的算力網路,福田區作為重要承載地,推動“港數深算”打通深港資料與算力壁壘。光明實驗室、福田實驗室、領先邊端智能開放研究院等創新平台高標準推進,深圳河套學院高水平建設,形成了從基礎研究到產業應用的完整鏈條。在技術攻堅層面,深圳集中力量突破演算法理論、模型架構、智算晶片、基礎軟體等核心技術。2026年,全社會研發投入將增長10%以上,實施基礎研究項目180個以上,重點產業研發項目150個以上。這種“頂天立地”的創新體系,正是深圳建設具有全球重要影響力的產業科技創新中心的核心支撐。更具戰略眼光的是,深圳正加強全端自主可控AI軟硬體生態建設。從晶片到框架,從演算法到應用,深圳正在建構不依賴外部技術的完整AI生態,這在當前國際形勢下具有深遠的戰略意義。具身智能:從“八大金剛”到千億產業叢集如果說人工智慧是“大腦”,具身智慧型手機器人則是“身體”。2026年,深圳依然將人工智慧列為重點壯大的四大戰略性新興產業之一,標誌著這一未來產業正式進入深圳產業政策的C位。▲2026年2月14日,深圳,全球首屆春節嘉年華——未來同頻 人機共生。深圳在具身智能領域的佈局早已先行一步。目前,深圳已培育出“八大金剛”——數字華夏、眾擎機器人、逐際動力、帕西尼、智平方、跨維智能、優必選、普渡科技。這些企業構成了深圳具身智能產業的第一梯隊。據統計,深圳共有5.11萬家機器人相關企業,數量穩居全國首位,產業鏈總產值超過1700億元。根據《深圳市具身智慧型手機器人技術創新與產業發展行動計畫(2025-2027年)》,到2027年,深圳將實現:具身智慧型手機器人產業叢集相關企業超過1200家,新增培育估值過百億企業10家以上、營收超十億企業20家以上,關聯產業規模達到1000億元以上。2026年,深圳還將推出10個以上產業集聚效應明顯的人工智慧和具身智慧型手機器人創新孵化器。在核心技術方面,深圳重點支援具身智慧型手機器人核心零部件、AI晶片、仿生靈巧手、基座及垂直領域大模型、本體控制等關鍵核心技術攻關。以算力券方式對人形機器人企業和科研平台進行算力支援,為產業發展提供堅實底座。產業融合:AI終端與場景應用的雙向奔赴深圳的獨特優勢在於產業鏈完備、機電一體化、應用場景豐富。2026年,深圳將人工智慧終端產業規模目標設定為8000億元以上、力爭1兆元,推出50款以上爆款人工智慧終端產品,打造60個以上典型應用場景。在智能終端領域,深圳在手機、電腦、大模型一體機、可穿戴裝置等領域全面發力,人工智慧終端產品產量突破1.5億台。從AI手機到智能可穿戴裝置,從AI電腦到具身智慧型手機器人,深圳正在打造具有國際競爭力的智能硬體產品叢集。在場景開放方面,深圳已累計發佈近200個“城市+AI”應用場景,2026年計畫再開放100個應用場景。從智能製造到智慧金融,從智慧城市到智慧養老,從智慧政務到低空經濟,深圳正以"場景應用最開放"的姿態,為AI和機器人技術提供最好的試驗場。前海作為深港合作的橋頭堡,正建構“642”產業體系,其中“4”大戰略性新興產業就包括人工智慧與具身智慧型手機器人、海洋產業、智能終端、低空經濟。這種“南山創新+寶安製造+前海服務”的疊加優勢,將推動深港現代服務業與珠三角先進製造業深度融合。生態建構:從政策護航到全球資源配置深圳科技實力的持續領先,離不開制度創新與生態建構。在政策支援方面,深圳採取超常規政策舉措,支援發展人工智慧與機器人產業。《深圳市加快打造人工智慧先鋒城市行動計畫(2025—2026年)》提出,到2026年全市人工智慧企業數量超3000家,獨角獸企業超10家,產業規模年均增長超20%。在人才集聚方面,深圳高水平建設深圳河套學院,建構“學院+園區”創新生態,打造富有吸引力的人工智慧人才集聚地。丘成桐院士發起的數學與交叉學科研究院、深圳醫學科學院的國際臨床試驗中心、粵港澳大灣區國創中心國際總部等,形成了從基礎研究到臨床應用、再到產業轉化的全鏈條創新生態。▲深圳河套學院。圖源:深圳河套學院官網在全球資源配置方面,深圳加快推進河套深港科技創新合作區建設,打造國際協同創新區、國際性產業與標準組織集聚區。前海累計吸引183家世界500強投資主體,全球服務商區域性、功能性總部累計42家,為深圳科技產業對接全球資源提供了重要平台。新質生產力的深圳樣本從2026年深圳的科技願景可以看出,深圳正在以人工智慧和具身智慧型手機器人為雙引擎,建構具有全球競爭力的現代化產業體系。這不僅是技術的突破,更是新質生產力的生動實踐。深圳的目標是清晰的:建成具有國際影響力的人工智慧先鋒城市,具身智慧型手機器人產業綜合實力達到國際領先水平。在“十五五”規劃的開局之年,深圳以10%以上的研發投入增長、10%以上的AI產業增加值增長、兆級的人工智慧終端產業規模,向世界展示著中國科技創新的速度與質量。從華強北的電子元器件到前海的國際標準組織,從南山區的演算法創新到寶安區的機器人製造,從河套的跨境資料流通到光明實驗室的基礎研究——深圳正以全產業鏈優勢、全場景應用優勢、全要素創新優勢,在全球科技革命和產業變革中搶佔制高點。 (察理思特)
中國AI引爆好萊塢恐慌!馬斯克點贊背後,一場3000億產業大洗牌正在發生
當《黑神話:悟空》創始人馮驥在社交平台上感嘆“內容領域必將迎來史無前例的通貨膨脹”時,他手中的工具正是字節跳動最新發佈的視訊生成模型Seedance 2.0。這款沒有發佈會、沒有通稿的AI工具,卻在全球科技圈投下了一枚深水炸彈。特斯拉CEO埃隆·馬斯克親自轉發點評:“進展太快”。從好萊塢到底特律,從橫店到矽谷,一場由國產AI引發的產業地震正在蔓延。01 產業重構:成本塌方90%,傳統影視的“末日鐘聲”“一人劇組”時代的到來在北京一家影視科技公司裡,工作人員正通過Seedance 2.0加緊製作新春祝福視訊。公司首席技術官徐京徽感慨:“過去想實現流暢的、人物一致性完好的商業片,可能需要堆砌大量的工作流。現在創作者可以把更多精力聚焦在創意上。”[citation:原創]這種變化的背後,是令人窒息的成本壓縮。常州華彩映畫影業曾為《那吒2》提供後期製作,企業負責人梁奕黃告訴記者,以前接一個特效簡單的短劇項目,需要30多人的團隊;現在五六個人就能跑通全流程。南京炫佳科技目前已實現日產9000分鐘的內容產能,最快1小時即可成片。該公司負責人秦林算了一筆帳:“過去傳統真人短劇單集綜合成本普遍在3萬元到5萬元,頭部精品超10萬元。而依託Seedance 2.0,AI短劇單整合本可以控制在幾千元,AI漫劇甚至能低至幾百元,整體成本降幅超過80%甚至90%。”知名視效指導姚騏使用該工具製作的2分鐘科幻短片《歸途》,整體成本僅330.6元——這一數字在傳統製作框架下難以想像。“導演”這個詞,正在被重新定義Seedance 2.0真正讓普通人擁有了導演的能力。北鬥智影的技術負責人這樣描述他的使用體驗:只需告訴它故事,模型自行完成分鏡設計——遠景交代環境,特寫捕捉情緒,音效、配樂、剪輯點全部一次性生成。遊戲科學創始人馮驥在深度體驗後給出了極具份量的判斷:“一般性視訊的製作成本將無法再沿用影視行業的傳統邏輯,開始逐漸趨近算力的邊際成本。傳統組織結構與製作流程會被徹底重構。”南京市電影協會秘書長周正認為,對於技術門檻較低的環節,AI可以有效實現降本增效。他特別提到,AI對“一人公司”模式的短影片創作者非常有利。02 資本暗戰:AI漫劇概念爆發,誰在風口起舞?二級市場的狂熱反應資本市場對Seedance 2.0的反應可謂狂熱。連續兩日,A股Seedance概念類股持續走強,多隻個股觸及漲停。AI漫劇概念相關個股迅速受到市場追捧,掌閱科技、德才股份在2月9日至12日均連續漲停,錄得四連板。海通國際發佈研報指出,AI漫劇作為最確定的落地場景,2025年中國市場規模達168億元,2026年預計增長45%至243.6億元。AI漫劇製作成本已從傳統短劇的1.5-4萬元/分鐘壓縮至約1000元/分鐘,製作周期從30-45天縮短至7-10天。開源證券最新研報認為,Seedance 2.0有望率先在AI漫劇、AI短劇等短內容領域得到廣泛應用。其極高的可控性顯著降低了“抽卡”成本,中性假設下可使模型每秒生成成本相比同業降低37%,推動製作大幅降本提效。產業鏈的價值重估中銀證券在其最新研報中表示,Seedance 2.0在功能層面取得的突破對於AI多模態應用特別是視訊生成領域有著重要的催化意義。多模態生成對於算力需求較大,這使得上游硬體基礎設施亦有望同步受益。方正證券發佈研報稱,結合2026年AI應用大年的產業邏輯,疊加Seedance 2.0的技術催化,從彈性排序來看,後續細分賽道機會呈現“低位影視>行銷>傳媒指數>遊戲”的趨勢。資料顯示,中國整體日均token消耗已從2024年初的1000億增至2026年2月的180兆等級。視訊生成將驅動雲廠商token消耗呈指數級增長,火山引擎、阿里雲等雲廠商將直接受益。在狂熱中,也有冷靜的聲音。掌閱科技在2月12日晚間發佈的公告中表示,公司2025年度AI短劇業務收入預計不超過主營業務收入的1%。德才股份則指出,其控股孫公司奇想無限設立時間較短,尚無相關業務訂單及收入。市場的熱情與公司的冷靜形成了鮮明對比。03 創作革命:從“抽卡”到“導演”,短影片創作者的新紅利告別“抽卡”時代過去,AI視訊最大的痛點在於“抽卡”——創作者們往往為了得到一個不崩壞、一致性的幾秒鐘視訊需要反覆生成數十次。Seedance 2.0的核心突破在於試圖將“炫技”轉化為“可交付敘事”。從技術層面看,Seedance 2.0採用了統一的多模態音視訊聯合生成架構。清華大學新聞與傳播學院、人工智慧學院雙聘教授瀋陽分析:“我們可以指定表演的細節,燈光、相機運動等多元素實現電影等級的精確控制,在時間連貫性和物理真實性上的躍進,保持物理的一致性。”[citation:原創]在實際應用中,這種技術突破意味著什麼?同樣輸入提示詞“男主在香港街頭被圍攻,一人打倒十幾個黑衣人,最後怒吼‘還有誰’”,過去的模型可能生成一段站樁式輸出,而Seedance 2.0則自行完成了完整的分鏡設計。IP價值的新可能在氾濫的AI生成內容洪流中,技術本身不再是壁壘,真正的壁壘依然掌握在IP所有者手中。正因為市場上充斥著大量“高仿”內容,才更顯出真正IP的不可替代。當內容供給不僅過剩而且“通貨膨脹”時,使用者的時間和注意力將變得前所未有的昂貴。能夠瞬間捕獲使用者注意力的,依然是那些經過時間驗證的、具有強大情感穿透力的經典IP。青年導演成亞妹認為,儘管AI可以在配樂、分鏡、故事策劃、視效製作等方面提高效率,為導演拓寬思路,但她堅信,最關鍵的仍在於故事的靈魂——創作者想要表達什麼?那些故事裡的靈光,是AI無法實現的。04 深度訊號:技術狂飆背後的冷思考“技術平權”的雙刃劍從Seedance到DeepSeek,中國企業AI產品的火爆並非偶然。獨立智庫澳大利亞戰略政策研究所(ASPI)去年末發佈的《關鍵技術追蹤報告》顯示,中國在74項關鍵技術中66項排名第一。中國正致力於AI發展與監管平行。今年1月,修訂後的《中華人民共和國網路安全法》正式施行,其中新增了促進人工智慧發展的相關規定。針對有害內容、隱私和資料安全等方面,中國國內已制定了廣泛的規則,例如《生成式人工智慧服務管理暫行辦法》早在2023年就開始實施。版權與深偽:AI的“阿喀琉斯之踵”Seedance 2.0驚人的復刻能力,也讓版權方感到了前所未有的壓力。近日,大量關於周星馳經典電影的“二創”甚至“惡搞”片段在短影片平台瘋傳。周星馳經紀人陳震宇公開發文質疑:“想問一下,這些屬於侵權嗎?”美國電影協會(MPA)12日發佈聲明稱:“僅一天時間,中國的Seedance 2.0就大規模未經授權使用了美國受版權保護的作品。”而比版權風險更為棘手的是“深偽”問題。Seedance 2.0模型具備對個人生物資訊的深度復現能力,針對使用者反饋,字節跳動隨即叫停了“真人素材參考”功能。在平台使用Seedance 2.0時會提示暫不支援真人人臉參考。與此同時,在即夢App和豆包App使用Seedance 2.0時,平台採取“活體核驗”措施,使用者需要錄製本人形象與聲音完成真人校驗,才可以製作數字分身。05 實操乾貨:創作者如何在AI洪流中生存與崛起擁抱AI,但不盲從對於內容創作者而言,Seedance 2.0的到來既是機遇也是挑戰。南京市電影協會秘書長周正建議:“未來平台上不缺內容,缺的是有思想、有情感、有辨識度的優質內容。”他指出,對於一些低端內容領域來說,技術門檻已被徹底踏平。那些只會按固定範本拍攝、缺乏核心創意的導演會被淘汰。短劇行業的真正價值必將回歸到那些無法被演算法壓縮的部分——獨特的創意構想、深刻的人文關懷、真誠的情感連接,以及歷經時間淬煉的IP靈魂。複合型人才的新賽道站在行業視角來看,AI漫劇和AI短劇下半場的競爭邏輯已經非常清晰:從拼產能轉向拼品質、拼IP、拚生態。當AI工具逐漸普及,單純的量產能力不再是壁壘,低質同質化內容會快速被市場淘汰。在這樣的趨勢下,行業需要的也不再是傳統意義上單一技能的影視人才,而是AI原生的複合型人才——既懂內容敘事、懂使用者情緒、能把控審美與故事靈魂的創意人才,也懂模型、懂多模態生成、能最佳化生產流程的技術人才。周正強調,無論技術如何演進,內容創作的精度與創意依然是根本。行業對“好故事”的要求只會更高,對人本身的要求也會更高——多閱讀、提升思維深度、保持對人文的敏感,仍是所有創作者無法繞開的功課。AI是工具,但內容的溫度、故事的價值、IP的生命力,最終還是要靠人來定義。夜深人靜,當影視颶風Tim更新了Seedance 2.0的體驗視訊,有創作者在凌晨三點寫下:“1年來第一次在半夜,被AI進展驚到失眠。”這種失眠,既是興奮也是恐懼。興奮於創作的門檻從未如此之低,恐懼於自身的價值從未如此需要重新證明。電影《死侍》編劇雷特·瑞斯看著由AI生成的湯姆·克魯斯和布萊德·皮特互搏短片,感慨道:“我真不想這麼說,但我們可能完了。很快,就會有人坐在電腦前生成一部與好萊塢現有電影無法區分的影片。”從導演到剪輯,從拍攝到配樂,AI正在瘋狂壓縮我們的工作流。當工具變得唾手可得,決定內容高度的,將不再是會不會用軟體,而是腦海中那個關於世界的構想是否足夠獨特。一人公司、一人劇組正慢慢成為潮流現象[citation:原創]。在技術的狂飆中,最珍貴的東西始終沒變——那些無法被演算法壓縮的,是人的溫度。 (胡曉妃新商業)