#小雲雀
Seedance 2.0 出片萬能範本
你有沒有在 Seedance 2.0 里輸過「一個女孩在街上走」,然後生成了一段毫無運鏡、像素級 PPT 的東西?問題不在工具,在提示詞。精準說,在兩件事上:結構和運鏡。結構決定視訊「能不能看」,運鏡決定視訊「好不好看」。大多數人兩樣都缺。這篇把兩個問題一次解決。為什麼自己寫幾乎必然翻車大多數人用 AI 視訊工具的方式是:腦子裡有個模糊畫面 → 用自然語言描述 → 祈禱 AI 理解你。結果通常是:畫面靜止、角色僵硬、鏡頭不動、轉場生硬。不是 Seedance 2.0 不行,是你的提示詞裡缺了太多東西——運鏡類型、鏡頭切換邏輯、光線氛圍、特效節奏。這些術語你可能聽都沒聽過,更別說精準使用。@yanhua1010 說得很直接:AI 視訊的質量,70% 取決於運鏡描述,而不是場景描述。你寫「A girl walking in the forest」,出來的是監控錄影;你寫「A girl walking in the forest, Smooth Dolly Follow, golden hour lighting」,出來的才叫視訊。場景是骨架,運鏡才是靈魂。第一層:用萬能範本搞定結構@leslieyu0 公開了一個提示詞範本,結構大致是這樣的:**(多鏡頭,快速呈現人物/高光動作,分鏡銜接流暢)**【@素材1】作為首幀參考,【角色名】為主角。鏡頭1(【鏡頭類型】):角色出現在【場景】中,做出【核心動作】,搭配【局部特效】;鏡頭2(【鏡頭類型】):鏡頭切換方式銜接,特寫面部表情,強化情緒;鏡頭3(可選):快速帶過輔助元素,呼應核心動作;整體【畫風】,色彩【光線】,自帶【音效/配樂】,時長5s。看起來像一份分鏡指令碼的骨架。它把一個視訊該有的要素全鎖定了:多鏡頭結構、運鏡變化、情緒節奏、風格統一。你不需要懂這些術語。把範本丟給 ChatGPT、Gemini 或 Kimi,告訴它你想要什麼風格、什麼主角、什麼氛圍,AI 會幫你把每個槽位填滿專業詞彙。比如你說「賽博朋克風格,銀髮機械姬,5秒,視覺炸裂」,AI 會自動補上「極速推拉」「光子粒子流」「故障轉場」這些你手寫想不到的東西。這套範本解決了「從 0 到能用」的問題。但範本裡有個關鍵槽位——【鏡頭類型】——大多數人填不好,因為根本不知道有那些選項。這就需要第二層。第二層:運鏡詞典——範本裡那個填不好的槽位@yanhua1010 結合 @yyyole 的運鏡術語體系和 @YZCStella 的實戰範本庫,整理了一套三級進階體系。我把它壓縮成最實用的部分。三個基礎詞所有運鏡都建立在這三個詞上:Pan(搖移):鏡頭水平或垂直轉動,機位不動。展示全景、交代環境用這個。Zoom(變焦):改變焦距,主體變大或變小。聚焦細節、製造衝擊。Dolly(推軌):鏡頭物理前進或後退。跟隨人物、營造沉浸。Pan 和 Dolly 最容易搞混。Pan 是「頭轉了,人沒動」,Dolly 是「整個人跟著走了」。我一開始就搞反了,生成出來的畫面總覺得那裡不對,後來才意識到是運鏡指令給錯了。加修飾詞,超過 80% 的人光寫 Pan、Zoom、Dolly 太生硬,就像跟攝影師說「你動一下」。加一個修飾詞,告訴 AI 這個鏡頭的「情緒」,效果天差地別。速度:Smooth(流暢)、Slow(緩慢)、Fast(快速)、Subtle(微妙,極細微的移動,高級感全靠它)。情緒:Cinematic(電影感,萬能詞,不知道加什麼就加這個)、Dreamy(夢幻)、Aggressive(侵略性,恐怖片動作片用)、Intimate(親密,人物特寫用)。風格:Handheld(手持,紀實感)、Aerial(航拍,史詩感)、Dutch Angle(荷蘭角,畫面傾斜,製造不安)。組合起來就是:Smooth Dolly Forward、Slow Aerial Pan、Cinematic Handheld Tracking。試過一次你就知道區別有多大。同樣一個森林場景,「Dolly Forward」出來的是平淡的前進鏡頭,「Slow Cinematic Dolly Forward」出來的有呼吸感,光影在樹葉間流動,完全不是一回事。組合運鏡單一運鏡夠用了,但 Seedance 2.0 對組合運鏡的理解特別好,不用白不用。幾個經典組合:Orbit + Zoom In(環繞 + 推進):鏡頭繞著主體轉,同時緩緩靠近。人物登場、產品展示首選。Crane Up + Pan(升降 + 搖移):鏡頭向上升起同時水平轉動。大氣磅礴,開場結尾用。Dolly Zoom(推軌變焦):鏡頭前推同時焦距拉遠,希區柯克的經典「眩暈」效果。用好了驚豔,用不好暈車。Tracking + Handheld Shake(跟蹤 + 手持抖動):跟拍加適度晃動。戰爭片動作片標配。一條視訊不要超過 2 個組合。「快速推進 + 環繞 + 升降 + 變焦」四合一,AI 會精神分裂,出來的畫面你自己都不知道它在幹嘛。中文也能用,而且效果不差英文術語是底層邏輯,但 Seedance 2.0 對中文理解同樣強。@YZCStella 總結了一套中文萬能公式:主體 + 動作 + 場景 + 光影 + 鏡頭語言 + 風格 + 畫質 + 約束幾個可以直接複製的範本:唯美人像:一位年輕女生在林間緩慢行走,微風輕拂頭髮,自然微笑,暖光光影,中景,緩慢推鏡,畫面流暢穩定,4K高畫質,電影感,面部清晰不變形,人體結構正常,細節豐富。氛圍風景:海邊日落,海浪輕拍沙灘,鏡頭緩慢橫移,暖橙色調,治癒清新,畫面絲滑,4K超高畫質,無閃爍無重影。圖生視訊(首幀固定):基於參考圖保持人物樣貌與服裝一致,動作緩慢抬手轉身,自然流暢,不僵硬不變形,穩定運鏡,高畫質細節,電影質感。如果想自己寫,套這個框架:[景別] + [主體描述] + [動作(慢、連續、具體)] + [運鏡指令(1-2 個組合)] + [光影氛圍] + [風格標籤] + [畫質標籤] + [穩定性約束]五條鐵律這幾條是踩坑踩出來的,每一條背後都有翻車的教訓。動作寫慢,寫連續。不要寫「跳舞」「走路」這種大詞,要寫「緩慢轉身、輕輕抬手、腳步輕移」。AI 生成慢動作的成功率遠高於快動作。你寫「高速奔跑」,出來大機率是鬼畜。運鏡寫穩,寫簡單。一條視訊最多 2 個運鏡組合。前面說過了,貪多必亂。必加穩定約束詞。無論什麼場景,結尾加上「畫面流暢穩定 / stabilized / 無抖動無閃爍」。不加的話畫面穩定性全靠運氣,十次裡有七次抖。必加角色約束詞。人物視訊最大的坑是變臉變形。加上「面部穩定不變形,五官清晰,人體結構正常,服裝一致」。這不是錦上添花,是保底。模糊詞換精確詞。「move」→「Smooth 3-second dolly forward」;「好看」→「治癒清新,暖光光影」;「很酷」→「賽博朋克,暗調高級,霓虹反光」。模糊詞等於沒描述,AI 全靠猜。速查表鐵律是通用底線,具體到場景,這張表更直接:人像特寫→ 緩慢推鏡 / Dolly In,加 Intimate、Smooth。快速變焦會讓臉崩掉。風景全景→ 緩慢橫移 / Pan / Aerial,加 Cinematic、Dreamy。手持風格和大全景天然矛盾,別用。動作追逐→ Tracking + Handheld,加 Fast、Aggressive。這是少數適合用 Handheld 晃動的場景,固定機位拍追逐像在看監控。產品展示→ 環繞推進 / Orbit + Zoom,加 Smooth、Subtle。產品要穩,大幅度運動會搶主體的注意力。開場結尾→ 升降搖移 / Crane Up + Pan,加 Cinematic、Slow。多重複合運鏡在這裡很誘人,忍住,兩個夠了。回憶夢境→ Dolly Zoom / Slow Pan,加 Dreamy、Subtle。城市夜景→ 俯衝 / Aerial Crane Down,加 Cyberpunk、Cinematic。去那裡用現在用 Seedance 2.0 有兩個入口:小雲雀 APP,專業版,功能更全,參數控制更細。適合已經知道自己想要什麼的人。豆包 APP,剛全量推送,免費使用。打開對話方塊就能看到 Seedance 2.0 入口,支援 5 秒和 10 秒視訊。還有個「分身視訊」功能——通過人臉識別建立你自己的視訊分身。豆包內建了不少範本,新手可以先從這些範本起步,熟悉了再用萬能範本自訂。操作流程很簡單:把萬能範本 + 你選好的運鏡組合一起發給 AI(ChatGPT / Gemini / Kimi),讓它生成完整的提示詞在小雲雀或豆包裡上傳參考圖 + 貼上提示詞。注意檢查 @圖片引用是否生效參數設 16:9、時長約 5 秒,點生成。想更長可以試 10 秒,但對提示詞精度要求更高一個限制:豆包目前不允許上傳真人圖片作為主體參考,想用真人形象只能走分身視訊的人臉驗證流程。最後這些範本和術語能解決「從 0 到 80 分」的問題。結構不塌,運鏡不亂,畫面穩定,角色不變形——做到這四點,你的出片質量已經超過大部分人了。但 80 分以上靠的不是提示詞寫得多精確。是你知道這個鏡頭為什麼要這樣切,這個節奏為什麼要這樣走,這個故事為什麼值得講。工具在被拉平,範本在被公開,運鏡術語人人可查。最後拼的還是那個老問題:你拍的東西,有沒有人想看? (Kinpoe Ray)
Seedance2.0爆火:內容領域必將迎來史無前例的通貨膨脹
據上海證券報,日前,字節跳動最新視訊生成模型Seedance 2.0在即夢、豆包、小雲雀等產品開啟內測,引發市場高度關注。連續兩日,A股Seedance概念類股持續走強,多隻個股觸及漲停。儘管該模型仍處於小範圍內測階段,但從目前披露的資料看,Seedance 2.0支援生成4秒至15秒的單段視訊,通過配合自研的分鏡工作流,可快速製作出一段包含多角度拍攝、角色對話且帶字幕的視訊內容。一直以來,AI視訊大模型受困於“音畫脫節、角色跳變、可控性差”三大痛點,多數產品停留在碎片化娛樂場景。而作為字節AI生態的核心佈局之一,Seedance系列歷經數次迭代,如今在三大技術痛點上都取得亮眼的突破。並且,此次新模型最引人注目之處還在於極高的“性價比”。據相關報導,知名視效指導姚騏日前使用該工具製作的2分鐘科幻短片《歸途》,整體成本僅330.6元——這一數字在傳統製作框架下難以想像。遊戲科學創始人、CEO馮驥日前發文稱,這款大模型的出現,或許意味著未來一般性視訊的製作成本將無法再沿用影視行業的傳統邏輯,而是開始逐漸趨近算力的邊際成本。他直言:“內容領域必將迎來史無前例的通貨膨脹,傳統組織結構與製作流程會被徹底重構。”有影視行業相關人士估算,該款模型或將讓5秒視訊生成成本進一步壓縮至4.5元至9元。在生產端,動態漫製作周期由傳統的一周多縮短至3天內,人力成本降低約90%。有傳媒分析師告訴記者,這一系列重要的突破都意味著AI視訊大模型正在步入“工業可用”階段。開源證券最新研報認為,Seedance 2.0有望率先在AI漫劇、AI短劇等短內容領域得到廣泛應用。其極高的可控性顯著降低了“抽卡”成本,中性假設下可使模型每秒生成成本相比同業降低37%,推動製作大幅降本提效。在業內看來,此次字節跳動更像是在沉默多時後的“開大招”。記者注意到,去年1月,字節跳動宣佈啟動SeedEdge計畫,鼓勵長線研究,追求“智能”上限激發更多嘗試、不忽略關鍵技術節點,探索新的互動。在今年的首次全體大會上,公司CEO梁汝波明確將字節跳動2026年的關鍵詞設定為“勇攀高峰”。“AI時代存在很多重要的機會,我們要追求其中最重要的,去攀登最高的高峰。”梁汝波說,對於字節跳動來說,“高峰”短期內就是豆包/Dola助手應用。從更大的視角來看,Seedance2.0的推出恰逢AI視訊產業爆發前夜。公開資料顯示,2026年全球AI視訊市場規模將突破300億美元。一周前,快手可靈團隊宣佈上線其3.0版本模型,該模型基於All-in-One產品和技術理念建構,形成一個多模態輸入與輸出高度統一的一體化視訊模型體系。有AI創作者告訴記者,近期這輪大模型迭代潮中,不少模型都有了明顯質的飛躍。伴隨Seedance2.0的商用落地,整條產業鏈的價值將被進一步啟動。中銀證券在其最新研報中表示,Seedance2.0在功能層面取得的突破對於AI多模態應用特別是視訊生成領域有著重要的催化意義,同時,多模態生成對於算力需求較大,這使得上游硬體基礎設施亦有望同步受益。Seedance2.0帶動AI多模態產業鏈,各項因素有望催化AI應用觸底反彈。虛擬現實邊界需要重估了據21世紀經濟報導,人工智慧的技術革新浪潮還在加速。2026年2月,字節跳動旗下AI視訊生成模型Seedance2.0在小範圍內測階段便席捲海內外網際網路,憑藉“文字/圖片生成電影級視訊”的突破性能力成為行業內外焦點。知名科技博主“影視颶風”創始人Tim(潘天鴻)2月9日在抖音發佈的測評視訊中,稱其為“改變視訊行業的AI”,《黑神話:悟空》之父馮驥也評價說,Seedance2.0是當前地表最強視訊生成模型,沒有之一。業界普遍的評價和使用體驗是,Seedance2.0已經具備超越Sora2的水準。這一技術的躍遷,首先確實值得我們站在國產AI發展的立場上給予熱烈的掌聲。長期以來,頂級圖形渲染與生成式演算法的定價權往往掌握在海外巨頭手中,而Seedance2.0的出現,反映的是中國科技公司在深層演算法架構、超大規模平行計算能力以及資料處理邏輯上的全方位突破。站在2026年的起始點上,這種從“可用”到“驚豔”的跨越,意味著中國科技公司不再是跟隨者,而是真正站在了全球人工智慧競爭的最前沿。當虛構的內容擁有了超越真實的質感,虛擬就不再是現實的模仿,而是在數字空間中建構了一套自洽的、足以亂真的平行物理規律。這種力量的釋放是驚人的,它意味著人類的想像力第一次擁有了低成本的、具備物理真實性的視覺實現途徑。不過,Seedance2.0技術“出圈”的同時,也引發了有關真人肖像、版權問題的社會關注。很快,字節跳動旗下即夢營運發佈通知稱,Seedance2.0內測暫停真人素材作為主體參考。儘管目前這一模型仍處於內測階段,且公司的風控和邊界意識清晰,但Seedance2.0所展現出的那種近乎“真假難辨”的畫面質感,還是給所有人提出了一個宏大且緊迫的命題:我們確實需要重新評估所謂的“虛擬現實”了。過去我們談論虛擬現實,往往將其侷限在頭戴式裝置的沉浸感中,而現在,虛擬現實正在以一種更隱蔽、更徹底的方式重塑我們的認知。當AI生成的視訊能夠完美還原光線的折射、液體的流動,甚至人類微表情中轉瞬即逝的複雜情感時,我們傳統認知裡那道區分“實攝”與“生成”的鴻溝,正在賽博世界裡加速消弭。這已經不僅僅是一場影像製作的革命,更是一場關於“真實”定義的哲學變革。當“真”與“偽”在數字世界完全難以區分時,數字社會契約的基石——資訊的真實性,便面臨著前所未有的挑戰。首當其衝的便是深度偽造(Deepfake)技術帶來的風險。如果說早期的深度偽造還帶著些許僵硬與破綻,那麼基於Seedance2.0這類底層架構的偽造,將變得難以檢測。長期以來,我們習慣於“有圖有真相”,而現在,我們要進入一個“凡眼見皆存疑”的時代。這種心理層面的重構是劇烈的,它可能引發普遍的真相焦慮。因此,對Seedance2.0的討論,不應僅僅停留在算力、參數和生成時長上,而應該進一步上升到對“數字倫理護欄”的建構上。作為技術的開發者和引領者,中國科技大公司在刷新性能榜單的同時,未來也需要在技術溯源、數字水印標識、反偽造檢測演算法等安全領域投入更多。當然,這不是對技術進步的否定。面對日益消弭的邊界,我們需要的不是固守舊有的現實觀,而是建立一套適應人工智慧時代的全新認知體系。我們需要培養公眾的數字素養,讓他們明白影像不僅是客觀世界的鏡像,還可能是某種演算法意圖的表達。在未來的賽博世界裡,虛擬與現實的交織是不可逆的趨勢。Seedance2.0的火爆只是一個序章,它預示著一個由像素構築的、足以覆蓋物理感知的第二現實正在加速降臨。我們要為中國科技公司在這一賽道上的巔峰表現喝彩,因為只有掌握了核心技術,我們才有資格去參與制定未來的遊戲規則。但與此同時,我們也必須以前所未有的嚴肅態度,去應對那些隨之而來的深層挑戰。這場關於“重估虛擬現實”的技術之外的規則競賽,才剛剛開始。 (環球產經)