#生成模型
瞞不住了!透視Seedance 2.0關聯深企:這才是深圳硬核實力
字節跳動推出的AI視訊生成模型Seedance 2.0,在2026年2月初引爆了全球科技和創投圈。Seedance雖然是字節跳動的產品,但它的研發與深圳這座城市緊密相連。根據公開的工商資訊,Seedance 2.0是字節跳動旗下即夢AI開發的產品,而即夢AI的關聯公司——深圳市臉萌科技有限公司,由字節跳動全資持股,就坐落於深圳。▲圖源:CFP這意味著,這款在全球範圍內引發關注的AI應用,其核心研發和營運實體就在深圳。這不僅體現了深圳在吸引和培育高科技企業方面的優勢,也展示了深圳在AI應用層面積累的深厚人才和技術底蘊。一幅以人工智慧和具身智慧型手機器人為雙引擎的科技創新藍圖徐徐展開。深圳正以“全端自主可控”的雄心,加速建設全球人工智慧先鋒城市和具身智慧型手機器人產業集聚區,在全球科技競爭的新賽道上展現出中國科技創新第一城的硬核實力。AI先鋒:打造全端自主可控的智能底座2026年深圳政府工作報告明確提出:加快建設全球人工智慧先鋒城市,力爭人工智慧產業叢集增加值增長10%以上。這一目標背後,是深圳在AI領域建構的完整創新矩陣。▲圖源:CFP在算力基礎設施方面,深圳正在建構“四算合一”(通算、智算、超算、量算)的算力網路,福田區作為重要承載地,推動“港數深算”打通深港資料與算力壁壘。光明實驗室、福田實驗室、領先邊端智能開放研究院等創新平台高標準推進,深圳河套學院高水平建設,形成了從基礎研究到產業應用的完整鏈條。在技術攻堅層面,深圳集中力量突破演算法理論、模型架構、智算晶片、基礎軟體等核心技術。2026年,全社會研發投入將增長10%以上,實施基礎研究項目180個以上,重點產業研發項目150個以上。這種“頂天立地”的創新體系,正是深圳建設具有全球重要影響力的產業科技創新中心的核心支撐。更具戰略眼光的是,深圳正加強全端自主可控AI軟硬體生態建設。從晶片到框架,從演算法到應用,深圳正在建構不依賴外部技術的完整AI生態,這在當前國際形勢下具有深遠的戰略意義。具身智能:從“八大金剛”到千億產業叢集如果說人工智慧是“大腦”,具身智慧型手機器人則是“身體”。2026年,深圳依然將人工智慧列為重點壯大的四大戰略性新興產業之一,標誌著這一未來產業正式進入深圳產業政策的C位。▲2026年2月14日,深圳,全球首屆春節嘉年華——未來同頻 人機共生。深圳在具身智能領域的佈局早已先行一步。目前,深圳已培育出“八大金剛”——數字華夏、眾擎機器人、逐際動力、帕西尼、智平方、跨維智能、優必選、普渡科技。這些企業構成了深圳具身智能產業的第一梯隊。據統計,深圳共有5.11萬家機器人相關企業,數量穩居全國首位,產業鏈總產值超過1700億元。根據《深圳市具身智慧型手機器人技術創新與產業發展行動計畫(2025-2027年)》,到2027年,深圳將實現:具身智慧型手機器人產業叢集相關企業超過1200家,新增培育估值過百億企業10家以上、營收超十億企業20家以上,關聯產業規模達到1000億元以上。2026年,深圳還將推出10個以上產業集聚效應明顯的人工智慧和具身智慧型手機器人創新孵化器。在核心技術方面,深圳重點支援具身智慧型手機器人核心零部件、AI晶片、仿生靈巧手、基座及垂直領域大模型、本體控制等關鍵核心技術攻關。以算力券方式對人形機器人企業和科研平台進行算力支援,為產業發展提供堅實底座。產業融合:AI終端與場景應用的雙向奔赴深圳的獨特優勢在於產業鏈完備、機電一體化、應用場景豐富。2026年,深圳將人工智慧終端產業規模目標設定為8000億元以上、力爭1兆元,推出50款以上爆款人工智慧終端產品,打造60個以上典型應用場景。在智能終端領域,深圳在手機、電腦、大模型一體機、可穿戴裝置等領域全面發力,人工智慧終端產品產量突破1.5億台。從AI手機到智能可穿戴裝置,從AI電腦到具身智慧型手機器人,深圳正在打造具有國際競爭力的智能硬體產品叢集。在場景開放方面,深圳已累計發佈近200個“城市+AI”應用場景,2026年計畫再開放100個應用場景。從智能製造到智慧金融,從智慧城市到智慧養老,從智慧政務到低空經濟,深圳正以"場景應用最開放"的姿態,為AI和機器人技術提供最好的試驗場。前海作為深港合作的橋頭堡,正建構“642”產業體系,其中“4”大戰略性新興產業就包括人工智慧與具身智慧型手機器人、海洋產業、智能終端、低空經濟。這種“南山創新+寶安製造+前海服務”的疊加優勢,將推動深港現代服務業與珠三角先進製造業深度融合。生態建構:從政策護航到全球資源配置深圳科技實力的持續領先,離不開制度創新與生態建構。在政策支援方面,深圳採取超常規政策舉措,支援發展人工智慧與機器人產業。《深圳市加快打造人工智慧先鋒城市行動計畫(2025—2026年)》提出,到2026年全市人工智慧企業數量超3000家,獨角獸企業超10家,產業規模年均增長超20%。在人才集聚方面,深圳高水平建設深圳河套學院,建構“學院+園區”創新生態,打造富有吸引力的人工智慧人才集聚地。丘成桐院士發起的數學與交叉學科研究院、深圳醫學科學院的國際臨床試驗中心、粵港澳大灣區國創中心國際總部等,形成了從基礎研究到臨床應用、再到產業轉化的全鏈條創新生態。▲深圳河套學院。圖源:深圳河套學院官網在全球資源配置方面,深圳加快推進河套深港科技創新合作區建設,打造國際協同創新區、國際性產業與標準組織集聚區。前海累計吸引183家世界500強投資主體,全球服務商區域性、功能性總部累計42家,為深圳科技產業對接全球資源提供了重要平台。新質生產力的深圳樣本從2026年深圳的科技願景可以看出,深圳正在以人工智慧和具身智慧型手機器人為雙引擎,建構具有全球競爭力的現代化產業體系。這不僅是技術的突破,更是新質生產力的生動實踐。深圳的目標是清晰的:建成具有國際影響力的人工智慧先鋒城市,具身智慧型手機器人產業綜合實力達到國際領先水平。在“十五五”規劃的開局之年,深圳以10%以上的研發投入增長、10%以上的AI產業增加值增長、兆級的人工智慧終端產業規模,向世界展示著中國科技創新的速度與質量。從華強北的電子元器件到前海的國際標準組織,從南山區的演算法創新到寶安區的機器人製造,從河套的跨境資料流通到光明實驗室的基礎研究——深圳正以全產業鏈優勢、全場景應用優勢、全要素創新優勢,在全球科技革命和產業變革中搶佔制高點。 (察理思特)
中國AI引爆好萊塢恐慌!馬斯克點贊背後,一場3000億產業大洗牌正在發生
當《黑神話:悟空》創始人馮驥在社交平台上感嘆“內容領域必將迎來史無前例的通貨膨脹”時,他手中的工具正是字節跳動最新發佈的視訊生成模型Seedance 2.0。這款沒有發佈會、沒有通稿的AI工具,卻在全球科技圈投下了一枚深水炸彈。特斯拉CEO埃隆·馬斯克親自轉發點評:“進展太快”。從好萊塢到底特律,從橫店到矽谷,一場由國產AI引發的產業地震正在蔓延。01 產業重構:成本塌方90%,傳統影視的“末日鐘聲”“一人劇組”時代的到來在北京一家影視科技公司裡,工作人員正通過Seedance 2.0加緊製作新春祝福視訊。公司首席技術官徐京徽感慨:“過去想實現流暢的、人物一致性完好的商業片,可能需要堆砌大量的工作流。現在創作者可以把更多精力聚焦在創意上。”[citation:原創]這種變化的背後,是令人窒息的成本壓縮。常州華彩映畫影業曾為《那吒2》提供後期製作,企業負責人梁奕黃告訴記者,以前接一個特效簡單的短劇項目,需要30多人的團隊;現在五六個人就能跑通全流程。南京炫佳科技目前已實現日產9000分鐘的內容產能,最快1小時即可成片。該公司負責人秦林算了一筆帳:“過去傳統真人短劇單集綜合成本普遍在3萬元到5萬元,頭部精品超10萬元。而依託Seedance 2.0,AI短劇單整合本可以控制在幾千元,AI漫劇甚至能低至幾百元,整體成本降幅超過80%甚至90%。”知名視效指導姚騏使用該工具製作的2分鐘科幻短片《歸途》,整體成本僅330.6元——這一數字在傳統製作框架下難以想像。“導演”這個詞,正在被重新定義Seedance 2.0真正讓普通人擁有了導演的能力。北鬥智影的技術負責人這樣描述他的使用體驗:只需告訴它故事,模型自行完成分鏡設計——遠景交代環境,特寫捕捉情緒,音效、配樂、剪輯點全部一次性生成。遊戲科學創始人馮驥在深度體驗後給出了極具份量的判斷:“一般性視訊的製作成本將無法再沿用影視行業的傳統邏輯,開始逐漸趨近算力的邊際成本。傳統組織結構與製作流程會被徹底重構。”南京市電影協會秘書長周正認為,對於技術門檻較低的環節,AI可以有效實現降本增效。他特別提到,AI對“一人公司”模式的短影片創作者非常有利。02 資本暗戰:AI漫劇概念爆發,誰在風口起舞?二級市場的狂熱反應資本市場對Seedance 2.0的反應可謂狂熱。連續兩日,A股Seedance概念類股持續走強,多隻個股觸及漲停。AI漫劇概念相關個股迅速受到市場追捧,掌閱科技、德才股份在2月9日至12日均連續漲停,錄得四連板。海通國際發佈研報指出,AI漫劇作為最確定的落地場景,2025年中國市場規模達168億元,2026年預計增長45%至243.6億元。AI漫劇製作成本已從傳統短劇的1.5-4萬元/分鐘壓縮至約1000元/分鐘,製作周期從30-45天縮短至7-10天。開源證券最新研報認為,Seedance 2.0有望率先在AI漫劇、AI短劇等短內容領域得到廣泛應用。其極高的可控性顯著降低了“抽卡”成本,中性假設下可使模型每秒生成成本相比同業降低37%,推動製作大幅降本提效。產業鏈的價值重估中銀證券在其最新研報中表示,Seedance 2.0在功能層面取得的突破對於AI多模態應用特別是視訊生成領域有著重要的催化意義。多模態生成對於算力需求較大,這使得上游硬體基礎設施亦有望同步受益。方正證券發佈研報稱,結合2026年AI應用大年的產業邏輯,疊加Seedance 2.0的技術催化,從彈性排序來看,後續細分賽道機會呈現“低位影視>行銷>傳媒指數>遊戲”的趨勢。資料顯示,中國整體日均token消耗已從2024年初的1000億增至2026年2月的180兆等級。視訊生成將驅動雲廠商token消耗呈指數級增長,火山引擎、阿里雲等雲廠商將直接受益。在狂熱中,也有冷靜的聲音。掌閱科技在2月12日晚間發佈的公告中表示,公司2025年度AI短劇業務收入預計不超過主營業務收入的1%。德才股份則指出,其控股孫公司奇想無限設立時間較短,尚無相關業務訂單及收入。市場的熱情與公司的冷靜形成了鮮明對比。03 創作革命:從“抽卡”到“導演”,短影片創作者的新紅利告別“抽卡”時代過去,AI視訊最大的痛點在於“抽卡”——創作者們往往為了得到一個不崩壞、一致性的幾秒鐘視訊需要反覆生成數十次。Seedance 2.0的核心突破在於試圖將“炫技”轉化為“可交付敘事”。從技術層面看,Seedance 2.0採用了統一的多模態音視訊聯合生成架構。清華大學新聞與傳播學院、人工智慧學院雙聘教授瀋陽分析:“我們可以指定表演的細節,燈光、相機運動等多元素實現電影等級的精確控制,在時間連貫性和物理真實性上的躍進,保持物理的一致性。”[citation:原創]在實際應用中,這種技術突破意味著什麼?同樣輸入提示詞“男主在香港街頭被圍攻,一人打倒十幾個黑衣人,最後怒吼‘還有誰’”,過去的模型可能生成一段站樁式輸出,而Seedance 2.0則自行完成了完整的分鏡設計。IP價值的新可能在氾濫的AI生成內容洪流中,技術本身不再是壁壘,真正的壁壘依然掌握在IP所有者手中。正因為市場上充斥著大量“高仿”內容,才更顯出真正IP的不可替代。當內容供給不僅過剩而且“通貨膨脹”時,使用者的時間和注意力將變得前所未有的昂貴。能夠瞬間捕獲使用者注意力的,依然是那些經過時間驗證的、具有強大情感穿透力的經典IP。青年導演成亞妹認為,儘管AI可以在配樂、分鏡、故事策劃、視效製作等方面提高效率,為導演拓寬思路,但她堅信,最關鍵的仍在於故事的靈魂——創作者想要表達什麼?那些故事裡的靈光,是AI無法實現的。04 深度訊號:技術狂飆背後的冷思考“技術平權”的雙刃劍從Seedance到DeepSeek,中國企業AI產品的火爆並非偶然。獨立智庫澳大利亞戰略政策研究所(ASPI)去年末發佈的《關鍵技術追蹤報告》顯示,中國在74項關鍵技術中66項排名第一。中國正致力於AI發展與監管平行。今年1月,修訂後的《中華人民共和國網路安全法》正式施行,其中新增了促進人工智慧發展的相關規定。針對有害內容、隱私和資料安全等方面,中國國內已制定了廣泛的規則,例如《生成式人工智慧服務管理暫行辦法》早在2023年就開始實施。版權與深偽:AI的“阿喀琉斯之踵”Seedance 2.0驚人的復刻能力,也讓版權方感到了前所未有的壓力。近日,大量關於周星馳經典電影的“二創”甚至“惡搞”片段在短影片平台瘋傳。周星馳經紀人陳震宇公開發文質疑:“想問一下,這些屬於侵權嗎?”美國電影協會(MPA)12日發佈聲明稱:“僅一天時間,中國的Seedance 2.0就大規模未經授權使用了美國受版權保護的作品。”而比版權風險更為棘手的是“深偽”問題。Seedance 2.0模型具備對個人生物資訊的深度復現能力,針對使用者反饋,字節跳動隨即叫停了“真人素材參考”功能。在平台使用Seedance 2.0時會提示暫不支援真人人臉參考。與此同時,在即夢App和豆包App使用Seedance 2.0時,平台採取“活體核驗”措施,使用者需要錄製本人形象與聲音完成真人校驗,才可以製作數字分身。05 實操乾貨:創作者如何在AI洪流中生存與崛起擁抱AI,但不盲從對於內容創作者而言,Seedance 2.0的到來既是機遇也是挑戰。南京市電影協會秘書長周正建議:“未來平台上不缺內容,缺的是有思想、有情感、有辨識度的優質內容。”他指出,對於一些低端內容領域來說,技術門檻已被徹底踏平。那些只會按固定範本拍攝、缺乏核心創意的導演會被淘汰。短劇行業的真正價值必將回歸到那些無法被演算法壓縮的部分——獨特的創意構想、深刻的人文關懷、真誠的情感連接,以及歷經時間淬煉的IP靈魂。複合型人才的新賽道站在行業視角來看,AI漫劇和AI短劇下半場的競爭邏輯已經非常清晰:從拼產能轉向拼品質、拼IP、拚生態。當AI工具逐漸普及,單純的量產能力不再是壁壘,低質同質化內容會快速被市場淘汰。在這樣的趨勢下,行業需要的也不再是傳統意義上單一技能的影視人才,而是AI原生的複合型人才——既懂內容敘事、懂使用者情緒、能把控審美與故事靈魂的創意人才,也懂模型、懂多模態生成、能最佳化生產流程的技術人才。周正強調,無論技術如何演進,內容創作的精度與創意依然是根本。行業對“好故事”的要求只會更高,對人本身的要求也會更高——多閱讀、提升思維深度、保持對人文的敏感,仍是所有創作者無法繞開的功課。AI是工具,但內容的溫度、故事的價值、IP的生命力,最終還是要靠人來定義。夜深人靜,當影視颶風Tim更新了Seedance 2.0的體驗視訊,有創作者在凌晨三點寫下:“1年來第一次在半夜,被AI進展驚到失眠。”這種失眠,既是興奮也是恐懼。興奮於創作的門檻從未如此之低,恐懼於自身的價值從未如此需要重新證明。電影《死侍》編劇雷特·瑞斯看著由AI生成的湯姆·克魯斯和布萊德·皮特互搏短片,感慨道:“我真不想這麼說,但我們可能完了。很快,就會有人坐在電腦前生成一部與好萊塢現有電影無法區分的影片。”從導演到剪輯,從拍攝到配樂,AI正在瘋狂壓縮我們的工作流。當工具變得唾手可得,決定內容高度的,將不再是會不會用軟體,而是腦海中那個關於世界的構想是否足夠獨特。一人公司、一人劇組正慢慢成為潮流現象[citation:原創]。在技術的狂飆中,最珍貴的東西始終沒變——那些無法被演算法壓縮的,是人的溫度。 (胡曉妃新商業)
Google Lyria 3(AI音樂生成模型)發佈 + AI 音樂模型對比
Google DeepMind 推出的 Lyria 3 (2.19發佈)是其目前最先進的 AI 音樂生成模型,已正式整合進 Gemini 應用程式中。與之前的版本相比,它不再僅僅是實驗性質,而是成為了一個功能齊全的創意工具,字、圖片、視訊都能秒變音樂。Lyria 3 的功能細節非常豐富,它不僅是一個“文字轉音樂”的工具,更是一個深度整合的多模態創作引擎。以下是根據最新技術文件整理的具體功能細節:1. 多模態輸入(Multimodal Inputs)Lyria 3 最強大的地方在於它能“看圖/視訊說話”:圖像轉音樂: 你可以上傳一張日落、聚會或寵物的照片,Lyria 3 會分析照片的色彩、氛圍和主體,生成一段情緒契合的背景音樂。視訊轉音樂: 支援上傳視訊短片,模型會捕捉視訊的節奏感(如剪輯點或動作頻率)來合成配樂。跨媒介觸發: 你甚至可以把一封“入職歡迎郵件”或一段“冷笑話”作為提示,它會將其轉化為一段充滿幽默感或職業感的音樂短片。2. 音樂控制與生成參數對於有進階需求的使用者,Lyria 3 提供了更專業的調節維度:時長與格式: 生成音軌的標準長度為 30 秒(在 Vertex AI 專業版中可精確到 32.8 秒),輸出格式為高品質的 48kHz WAV 檔案。負向提示詞 (Negative Prompting): 你可以明確要求“不要人聲”、“不要電子合成器”或“避開憂鬱的情緒”,以精準排除不需要的元素。種子值 (Seed): 支援設定 Seed 值,這意味著如果你對某次生成的旋律很滿意,可以固定 Seed 並微調提示詞,從而實現可重複、可迭代的創作。自動歌詞與演唱: 相比 Lyria 2 隻能生成純音樂,Lyria 3 可以根據主題自動編寫歌詞,並以極其自然的人聲(支援多種語言)演唱出來。3. 全自動化配套功能視覺包裝: 每次生成音樂時,系統會呼叫 Nano Banana 圖像模型,同步生成一張風格統一的自訂專輯封面圖。即時“即興” (Lyria RealTime): 通過 API,Lyria 3 具備低延遲的“即興演奏”能力,能像樂隊樂手一樣根據你不斷輸入的指令即時改變正在播放的音樂(如改變 BPM 或增加樂器密度)。4. 內容安全與識別SynthID 數字水印: 這是 Google 的核心技術,在音訊頻譜中嵌入人耳聽不到、但演算法可識別的水印。即使經過壓縮、剪輯,仍能追溯其為 AI 生成。版權過濾: 內建了嚴格的過濾器。如果你要求“創作一段像周杰倫風格的歌”,它會生成具有“華語流行/鋼琴”特徵的原創樂曲,而不會直接挪用其受版權保護的旋律或音色。相比於目前市面上主流的 AI 音樂模型(如 Suno 和 Udio),Google 的 Lyria 3(及其背後的 Lyria 系列架構)走的是一條完全不同的道路。如果說 Suno 和 Udio 是“AI 唱片公司”,那麼 Lyria 3 更像是“AI 創意副駕駛”。以下是 Lyria 3 的核心優勢對比:1. 真正的“多模態”理解力Suno/Udio: 主要依賴文字(Text-to-Audio)。雖然現在也支援音訊上傳(Audio Upload),但大多是作為旋律參考。Lyria 3 的優勢: 它深度整合了 Google 的視覺能力。你可以直接上傳照片或視訊,它能自動“讀懂”畫面裡的情緒、節奏和場景,並生成匹配的 BGM。這種“視覺到音樂”的直覺化創作是其他模型目前難以比擬的。2. 創作的“可互動性”與“精準度”Suno/Udio: 傾向於“抽卡式”生成。你輸入一段話,它給你 2-4 分鐘的完整歌曲。如果你不喜歡某一部分,修改起來相對死板(儘管 Udio 的 Inpainting 局部重繪功能正在改善這一點)。Lyria 3 的優勢: 強調即時性與細粒度控制。它可以根據你的指令即時調整樂器密度或節奏 (BPM)。它可以處理複雜的指令,比如“在 15 秒處加入一段激昂的鼓點,同時保持人聲的輕柔”,這在專業音訊製作中更具實用價值。3. 版權與合規性的“國家隊”標準Suno/Udio: 目前正面臨大型唱片公司的侵權訴訟(如索尼、環球等),因為它們的訓練資料被質疑包含大量版權音源,且有時會生成與知名歌手極度相似的聲音。Lyria 3 的優勢: * 合法授權: Google 與 YouTube 旗下的眾多藝術家(如 Charlie Puth、T-Pain 等)達成了直接合作,通過 Dream Track 功能合法使用他們的聲線特徵。強制水印: 內建 SynthID。這讓 Lyria 3 生成的內容在專業分發管道(如廣播、商業廣告)中更具安全性,因為它的身份是可追溯、可審計的。4. 生態系統的整合Suno/Udio: 獨立平台。生成的音樂需要你手動下載,再匯入剪輯軟體。Lyria 3 的優勢: 它是 Gemini 全家桶 的一部分。你可以先讓 Gemini 寫詩,然後一鍵轉為歌詞,再由 Lyria 生成音樂,最後由 Nano Banana 生成封面。它與 YouTube Shorts 無縫銜接,創作者可以直接在視訊編輯流中生成專屬配樂。出路在那裡?大部分使用者不關心大模型,使用者只關好用不好用。圖形圖像裡面的例子,美圖秀秀,或者剪映等產品,使用者並不會關心底層的大模型到底是不是自研發或者套殼其他家,只需要好用就行。做好應用層,滿足不同類型使用者的需求。給專業的使用者,做生產力工具,基於這個工具能賺到錢。給大眾使用者,做玩具,和AI修圖一樣的可以簡單做出來一些好玩,可以拿出來炫耀的東西。 (出海流量玄學研究)
實測Seedance 2.0:普通人做短片只需3步,效果炸裂
沒想到,我們的國產AI視訊生成模型能做到這種程度!不說廢話,先看效果!這是我輸入到Seedance 2.0的圖,一個有點傲氣的小雞我讓ChatGPT寫了個劇情,想看看Seedance2.0能不能按照劇情給我生成視訊小公雞走在路上,面向鏡頭。突然,它遇到了一隻笨拙的。鏡頭迅速切換,聚焦在小公雞和狼之間,展現出它們都懵懂、驚訝的神情。 小公雞嚇壞了,它立刻使出絕招——“裝死”。它毫不猶豫地跌倒在地,身體僵硬,舌頭垂出,腦袋一片空白。 狼滿臉困惑,它用鼻子湊近小公雞,疑惑地戳了戳它,狼更加迷茫, 最終,小公雞憋氣憋得難受,忍不住猛地跳起來,劇烈地咳嗽,嚇得狼魂飛魄散,。狼很慌張,撞上了小公雞,一同跌倒。狼和小公雞都暈了過去結果超出我的預期了。劇情在視訊裡沒有遺漏,表情刻畫非常細膩,分鏡切換流暢絲滑,幾乎沒有AI的痕跡。最關鍵是,這個視訊一次性出片!Seedance2.0強在那裡?精細化的提示詞控制、場景切換時的任務一致性,是Seedance 2.0出彩的地方。在最開始的例子裡面,我們構思的劇情, Sedance 2.0完全幫我們實現了。但是,讓我覺得Seedance 2.0強悍的,不只是他精準控制的提示詞!Seedance2.0不只是AI視訊生辰工具,更是AI導演+剪輯師!說實話,Seedance 2.0 表面上是個視訊生成工具,實際上干的是導演+剪輯的活。那種自然流暢的分鏡切換、專業的鏡頭語言、角色表情的細膩刻畫——這些都是影視從業者靠實戰才能培養出來的經驗,是他們的護城河。但 Seedance 2.0 直接把這道護城河炸了。以前需要導演腦子裡構思、剪輯師手上實現的東西,現在一句提示詞就能搞定。以前,技術很值錢。會剪輯、會調色、會分鏡,就能吃香。但未來,人人都可以做視訊。個體經營來一大波機遇。工具越來越平權,拼的不再是技術,而是腦子裡的創意。你能想到什麼樣的故事?你能設計什麼樣的情節?你的腦洞有多大?創意才是唯一的護城河。下面我找了幾個真實案例,看完你就知道這個工具有多顛覆。真實使用效果動畫片跟Sora相比,我更推薦打擊用Sendance 2.0做動漫,因為,Sendance2.0沒有跟Sora一樣,對於IP形象卡的死死的。我曾經用Nano banana pro生成了鬼滅之刃的一個小小的漫畫現在,直接把他拿給Seedance 2.0,直接可以生成對應的視訊了!小互(@xiaohu)的這個case,更是驚豔,看到我震驚了,下面的這個是原始圖然後用的是這個提示詞將@圖1以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格詼諧幽默;演繹方式參考@視訊1具體效果,各位老闆欣賞下吧真人短劇Seedance 2.0生成的這個打鬥視訊效果絕對是NO 1的,即便是Sora也比不上。我試過很多模型,但是發現生成的打鬥視訊不是在生成的過程中崩了,就是沒有能夠很好的表現出打鬥的精彩。Seedance 2.0處理的就非常好。這種效果,完全可以用來做真人短劇了。現在短劇那麼火,但普通人沒有資本根本沒有辦法入局,有了Seedance 2.0,說不定可以嘗試一下。我那位朋友如果還做電商的話,估計要高興壞了,再也不用花巨額的廣告視訊製作費了。廣告視訊以前我有位做電商的朋友,新開發了一個產品,然後找人做了個視訊廣告。來來回回搞了一個多月,最後花了5萬多塊錢(我不知道他是不是被坑了)現在,用Seedance 2.0完全可以自己做一個類似的視訊,所花費的積分可能也就幾百塊錢。我找了位網友做的廣告視訊,大家看看這個視訊能否入的了法眼 我那位朋友如果還做電商的話,估計要高興壞了,再也不用花巨額的廣告視訊製作費了。 (GoWalker)
中國AI視訊雙雄並起:Seedance 2.0與Vidu Q3組團席捲全球
爆紅社交平台、登頂全球評測,中國AI視訊模型集體破圈。在AI視訊創作領域,Seedance 2.0的爆火不是偶然。這一次真正“破圈”,很大程度上源於它所具備的“導演思維”——劇本驅動、分鏡清晰、節奏精準。它讓人們意識到,一個好的AI視訊更需要創意調度。而過去,創作者在AI視訊中最難掌握的兩個要素,恰恰就是理解故事結構與鏡頭語言。與此同時,另一款國產視訊生成模型生數科技的Vidu Q3,也在創作者社群中走紅,並剛剛登頂全球權威AI評測平台Artificial Analysis,成為全球排名第一的視訊生成模型。Vidu Q3強調“為劇而生”,它將畫面、聲音與長時長合為一體,一次生成即可輸出16秒的完整敘事段落,並支援多角色、多語種對話,具備強烈的“導演感”與“表演張力”。當行業熱議Seedance 2.0的絲滑節奏與真實感時,Vidu所代表的則是另一種強勢崛起——可控的內容表達、紮實的技術底盤以及高完成度的成片落地。01. 同樣是爆款視訊製造機Vidu Q3頗具表演張力AI生成視訊越來越真實,也越來越“能演”。情緒遞進是否自然、人物神情是否真實,成為評判AI視訊質感的重要標準之一。此次對比中,Vidu Q3在“表演感”上的表現,展現了另一種完成度。提示詞:現代高層辦公室,冷灰色調搭配落地窗的自然光線。女主穿著黑色西裝,手肘撐在辦公桌托腮凝視鏡頭,眼神冷靜且有力量。鏡頭從正面鏡頭,切換到側面鏡頭,捕捉她手指輕敲桌面的細節,她皺起眉頭,有點生氣,中文開口說道:“這就是這個星期的成果麼?我不滿意,重新做吧。”背景加入鍵盤敲擊聲與窗外城市車流的環境音,營造專業且略帶壓迫感的職場氛圍,無背景音樂。參考圖:Seedance 2.0與Vidu Q3效果:Vidu Q3生成的人物表情細節表現出較高穩定性,尤其在眼神、嘴角與眉弓等關鍵部位的控制上較為自然。當人物面臨情緒轉折時,能呈現出接近真人演員的表情變化,而非單一貼圖式的處理方式。A與此同時,Seedance 2.0與Vidu Q3的情緒表達具備起伏與節奏感,能夠與劇情節點同步推進,使畫面更具張力與“表演感”。無論是Seedance 2.0所展現的鏡頭感與節奏感,還是Vidu Q3在人設與情緒上的延展,都在共同拓展AI視訊“可看性”的邊界,補足了當前主流AI視訊模型在人物演繹方面的一大空白。02. 視聽一體的沉浸感更接近可用成片音畫一致性也是成片質感的關鍵參考因素。我們嘗試用Vidu Q3復刻了Seedance 2.0所生成的爆款視訊,Vidu Q3的效果與Seedance 2.0相近,在聲音與畫面協同方面展現出極高完成度。Seedance 2.0效果:Vidu Q3效果:從兩款模型的生成效果可見,其環境音、動作聲均與畫面節奏高度貼合,音效能夠配合鏡頭同步表達情緒變化。就比如在“怪獸大戰貓咪”這類打鬥場景中,打擊聲和背景音樂與角色動作完全同步,環境音與畫面節奏貼合得很好,整體氛圍被瞬間拉滿。無論是Seedance 2.0還是Vidu Q3,整體生成結果都具備很強的沉浸感,無明顯音畫錯位或情緒斷裂,生成後無需額外“補聲”處理,即可作為可用片段使用。在此番對比下,Vidu Q3與Seedance 2.0在視聽協同方面的穩定性與一致性上平分秋色,其生成內容均接近“直接可投放”水準,特別適用於短劇、廣告、劇情視訊等需要聲畫並重的創作場景。03. 開頭抓人,結尾帶情緒畫面爆發力適配商業化節奏在短內容環境中,一條視訊是否“抓人”,往往由首尾幾秒決定。本輪對比測試中,兩款模型在關鍵畫面節點均表現出色,尤其是在開場的視覺衝擊力與結尾的情緒收束方面。提示詞:電影級特效風格,夜晚都市環境,中景拍攝。一名身穿西裝的男子站立不動,神情冷靜;下一瞬間黑色黏稠液體從頸部與肩部迅速蔓延,沿身體流動、翻湧、包裹全身,伴隨強烈閃光,西裝被吞噬並重組為毒液風格怪獸形態,肌肉誇張、表面液態反射明顯。鏡頭輕微震動並快速推近,強化變身衝擊力。音訊:低頻能量轟鳴起始 → 黏液流動音效(濕潤、拉絲感)→ 變身完成瞬間加入強烈衝擊音與閃光爆音;無背景音樂、無人聲,對白完全缺失,所有聲音集中服務於變身過程,營造震撼、黑暗、危險的氛圍。參考圖:以“毒液變身”這一高強度特效場景為例,Vidu Q3的開場首幀具備強烈的視覺記憶點,如面部特寫、液體包裹動作與爆發性變身效果,能夠迅速吸引使用者注意。而在劇情推進結束時,其收尾處理較為自然,畫面具有一定的定格感,這類特徵便適用於短劇、廣告等留存導向內容。與之對應,Seedance 2.0則在鏡頭語言與節奏控制上表現穩定,變身過程中的動作銜接與閃光爆點處理流暢,在視覺與節奏之間拿捏得當,也展現出極強的大片質感。再來看“雪王大戰奧特曼”這一打鬥場景。Seedance 2.0在打擊感上的表現更加直接,動作反饋清晰、節奏緊湊,呈現出“拳拳到肉”的真實衝擊力。Vidu Q3則在特效表現上更為突出,“電光火石”的能量感與視覺張力更強,整體畫面更具影視感。就對內容“起承轉合”的掌控能力而言,這兩款模型不僅都適合內容生產,還可直接用於商用傳播。在以短影片和片段化內容為主的平台生態中,這種“自帶爆點”的生成方式將極大提升效率。04. 從節奏調度到風格控制創作可控性正在重塑AI視訊工具AI視訊是否能持續復用、風格是否統一、鏡頭是否可控,是關鍵難題。從這一層面看,兩款模型代表了創作路徑的不同側重。在節奏調度方面,Seedance 2.0在李小龍風格動作片這類快節奏場景中,鏡頭切換自然、動作銜接流暢,具備很強的“剪輯感”,很適合強調動感、爽感的內容創作。相較之下,Vidu Q3在鏡頭穩定性上表現較為均衡。在風格控制能力上,Vidu Q3支援特效參數設定與多參考素材輸入,創作者可細緻調節光效、鏡頭節奏、角色穩定性等維度,可控影響最終的生成內容。兩種路徑的分化,本質上是效率與風格的抉擇,也為不同階段、不同類型的創作者提供了工具層面的適配方案。一邊是絲滑節奏與高上手效率,一邊是多參控制與風格一致性,兩種創作思路均圍繞“可控性”這一核心能力進行各自演進,共同推動AI視訊從生成工具進化為創作工具。05. 中國雙雄並起,國產AI視訊模型正攜手走上全球第一梯隊在生成視訊這條賽道上,中國模型正在超越國際水準。Seedance 2.0和Vidu Q3分別代表了創意調度與高水準輸出的兩個高點,也代表了國產模型從技術追趕到能力破圈的階段性躍遷。從性能角度看,據全球權威評測平台Artificial Analysis資料顯示,Vidu在商業內容生成級模型中目前排名全球第一,其生成速度比OpenAI的Sora 2快10倍,相較Google Veo 3 Fast和Grok-imagine-video也有2倍優勢。生數科技在2025年12月開放原始碼的TurboDiffusion框架,也將生成效率提升至單張RTX 5090顯示卡1.9秒生成5秒視訊,效率相比傳統擴散路徑提升100-200倍。相比海外模型,Vidu和Seedance走出了一條更加面向成片落地的道路,強化結構控制與多角色協同,在短劇、廣告、劇情類內容中更具適用性,國產AI視訊模型正攜手走上全球第一梯隊。06. 結語:一登榜首,一爆火出圈國產AI視訊模型正在形成集體突破從登頂全球權威榜單的Vidu Q3,到在海內外爆火的Seedance 2.0,無論是生成速度、結構控制、情緒表現,還是風格自由度,國產AI視訊模型正在多個核心維度上持續接近甚至超越海外同類產品,逐步站上全球第一梯隊。它們不僅證明了中國模型在技術能力上的躍升,也為AI視訊在商業化與創作生態中的深度落地打開了想像空間。國產AI視訊的全球登頂,或許只是一個更大變局的起點。 (智東西)
字節跳動,又放了一個大招
臨近春節,字節跳動新一代AI視訊生成模型Seedance 2.0迅速出圈。遊戲科學CEO馮驥甚至感慨它是當前地表最強的視訊生成模型,沒有之一。然而,在驚豔業界的同時,Seedance 2.0也引發了對深度偽造(Deepfake)濫用和虛假視訊氾濫的廣泛擔憂。2026年開年,朋友圈被字節跳動旗下視訊生成模型Seedance 2.0刷屏。“董宇輝功夫對戰成龍”“滅霸對戰中國神話人物”等AI視訊給人一種前所未有的“炸裂感”。有使用者測評之後坦言,“功能太強大,真被嚇壞了”。在一片驚嘆聲中,資本市場的情緒也被點燃。2月10日,傳媒類股集體走強,不少相關公司直接漲停。這並非一次簡單的話題炒作。作為2026年第一個出圈的視訊大模型,Seedance 2.0的橫空出世,不僅正在重塑AI視訊創作的行業格局,也迅速撬動了產業鏈上下游的想像空間。不少業內人士感嘆,視訊領域的“DeepSeek時刻”,終於來了。Seedance 2.0有多厲害?2月7日,字節跳動低調上線其新一代AI視訊生成模型Seedance 2.0,並在即夢、豆包、小雲雀等旗下產品開啟小範圍內測。目前僅向即夢會員有限次開放,非會員僅能獲得少量免費試用機會。儘管官方尚未正式官宣,但其展現出的“工業級”生產力讓行業劇震。Seedance 2.0之所以能快速出圈,核心原因在於它擺脫了之前產品“技術炫技”的套路,成為一個高度貼近現實應用場景的產品。該模型不僅支援文生視訊、圖生視訊,更具備強大的“多模態參考”能力,可同時上傳圖片、視訊、音訊等最多12個檔案。使用者只需輸入一句自然語言描述,或上傳一張靜態圖片,就能自動生成具備多鏡頭切換、連貫敘事、同步音效的原生1080p電影級視訊,部分場景可支援2K解析度。更重要的是,其生成的畫面在清晰度、色彩還原、景深與動態模糊等方面,已完全貼合商用級創作標準,且物理引擎升級後,流體、布料、人體動作呈現更符合物理規律,避免畫面失真。影視颶風創始人潘天鴻(Tim)第一時間對Seedance 2.0進行了實測。他發現,該模型在大範圍運動畫面、分鏡切換、音畫匹配等方面表現突出,其中分鏡設計具備“明顯的角度切換”,能夠“像真人導演一樣,不斷改變攝影機的位置”。真正拉開差距的是Seedance 2.0對“生成+編輯”流程的重構。不同於以往“生成即定稿”的AI視訊模型,Seedance 2.0允許使用者在生成後直接對局部片段進行修改,無需借助第三方軟體,大幅降低廢片率,顯著提升創作效率。與此同時,它還系統性地解決了困擾AI視訊領域已久的三大痛點:嘴型與音訊不同步、角色面部畸變、長視訊內容穩定性不足。實測顯示,其角色對話口型誤差已可控制在0.1秒以內,足以支撐短劇、廣告、遊戲CG等商用場景。隨著更多使用者的實測視訊在社交平台擴散,行業評價迅速升溫。2月9日晚,國產3A遊戲《黑神話:悟空》製作人、遊戲科學CEO馮驥在微博直言, Seedance 2.0是“當前地表最強的視訊生成模型,沒有之一”,並感慨“AIGC的童年時代,結束了”。馮驥還感到慶幸,“至少今天的Seedance 2.0,來自中國”。多家券商也在研報中對Seedance 2.0給出積極評價。開源證券指出,Seedance 2.0的驚豔,在於自運鏡和分運鏡、全方位多模態思考、音畫同步生成、多鏡頭敘事能力等幾個關鍵能力上實現突破,給使用者提供“導演級”的控制精度,或將成為AI影視的“奇點”時刻。會帶來那些改變?Seedance 2.0的爆火,並不僅是一款科技產品的走紅,更被業內視為一次對視訊創作、傳媒影視等行業底層邏輯的強烈衝擊。首先是Seedance 2.0抹平了專業技術鴻溝,使“高品質視訊”不再是昂貴團隊的專利。電商廣告、產品預拍攝等對成本敏感的領域,正經歷從靜態圖向視訊態的全面轉化。其次是生產流程的系統性重構。對於傳媒、影視、短劇等行業而言,Seedance 2.0已開始被用於影視預演、廣告提案、IP可視化等環節。在短劇領域,“一鍵小說轉短劇”成為現實,在漫劇賽道,內容生產甚至可以實現24小時不間斷上線。中文線上已通過接入Seedance 2.0技術,在春節檔上線多部AI短劇,累計播放量突破5億,IP變現效率明顯提升。馮驥直言,一般性視訊內容的製作成本將逐步趨近算力的邊際成本,內容領域必將迎來史無前例的 “通貨膨脹”,傳統的組織結構與製作流程會被徹底重構。最後是IP價值的再啟動與新賽道的打開。Seedance 2.0使得網文、圖書、經典影視IP能夠被更低成本、更高頻率地轉化為視訊內容。例如,上海電影借助Seedance 2.0,將“葫蘆娃”“黑貓警長”等經典IP轉化為4K續作短片,上線三日播放量破億,探索出經典IP二次變現的新路徑。對讀客文化、掌閱科技等IP儲備大戶來說,這無異於掌握了快速跨入視訊賽道的“入場券”。中信建投證券在研報中指出,Seedance 2.0有望與字節跳動旗下豆包、Seedream等模型協同,形成全模態內容矩陣,加速AI視訊商業化落地,推動傳媒行業進入新的發展階段。不過,Seedance 2.0所暴露出的風險,同樣引發了專業人士的集中討論,其中隱私保護、版權歸屬與內容可信度成為爭議焦點。影視颶風創始人潘天鴻(Tim)在測評時,多次用“恐怖”一詞形容自己的體驗。他發現,僅上傳自己的人臉照片,系統便可生成與其本人高度相似的聲音。在上傳一棟建築的正面照片後,AI運鏡竟能自動切換至建築背面,背面景象與現實幾乎一致。“它知道我背後的東西是什麼,即便我們沒有告訴它。 ”他詫異道。由此,他推測Seedance 2.0可能在訓練過程中大量使用了其團隊過往的視訊素材,而他本人並未收到明確授權或獲得報酬。儘管平台使用者協議中可能存在相關條款,但這種“隱性授權”模式,仍引發了行業對版權邊界的廣泛討論。馮驥在肯定技術突破的同時,也直言自己最擔憂的是“假視訊氾濫與信任危機”。在他看來,逼真的假視訊將變得毫無門檻,現有的智慧財產權與審查體系,會面臨空前衝擊。因此,馮驥鄭重建議:“請大家盡快提醒父母與不熟悉AI的親友,未來一切缺乏官方權威管道背書的視訊內容(尤其是包含個人形象與聲音的)都可能是偽造的。請務必通過多管道交叉確認,避免上當。”使用者的擔憂已在產品端得到反饋。2月9日,即夢平台緊急發佈通知,暫不支援輸入真人圖片或視訊作為主體參考。針對上述爭議,業內一些專家指出,基於公開資料訓練模型是全球AI行業的通行做法,但視訊與聲音的高辨識度,使得資料使用邊界問題被急劇放大。如何在技術進步與隱私保護之間建立新的平衡,將成為2026年全球監管者繞不開的課題。總體而言,Seedance 2.0點燃的,或許不只是一個市場概念,而是整個行業的重構周期。 (財經天下WEEKLY)
Seedance 2.0著實恐怖了些
這個周末,字節跳動的新視訊生成模型在全網被炒得沸沸揚揚。“殺死比賽”、“效果爆炸”等AI時代已經被用爛了的詞瞬間又飄得滿屏都是。有人說,字節的Seedance 2.0可能會是繼Google的Veo 3和OpenAI的Sora 2之後的又一款革命性、里程碑式的AI視訊生成產品。正當我懷疑這些司空見慣的說法,是不是年前AI企業引流的又一次概念炒作時,知名B站UP主“影視颶風”凌晨一點發佈的一條視訊給出了一個確切的答案:Seedance 2.0的能力強到有些恐怖。01 強者,無需多言先來看看官方文件中給出的一些視訊demo:提示詞:男人@圖片1下班後疲憊的走在走廊,腳步變緩,最後停在家門口,臉部特寫鏡頭,男人深呼吸,調整情緒,收起了負面情緒,變得輕鬆,然後特寫翻找出鑰匙,插入門鎖,進入家裡後,他的小女兒和一隻寵物狗,歡快的跑過來迎接擁抱,室內非常的溫馨,全程自然對話。我對視訊和電影創作並無深刻理解,幾乎完全無法分辨這到底是AI的生成還是人類的創作。生成一些萌寵的動畫短片也是不在話下:提示詞:在“貓狗吐槽間”裡的一段吐槽對話,要求情感豐沛,符合脫口秀表演:喵醬(貓主持,舔毛翻眼):"家人們誰懂啊,我身邊這位,每天除了搖尾巴、拆沙發,就只會用那種“我超乖求摸摸”的眼神騙人類零食,明明拆家的時候比誰都凶,還好意思叫旺仔,我看叫“旺拆”還差不多哈哈哈“旺仔(狗主持,歪頭晃尾巴):"你還好意思說我?你每天睡18個小時,醒了就蹭人類腿要罐頭,掉毛掉得人類黑衣服上全是你的毛,人家掃完地,你轉身又在沙發上滾一圈,還好意思裝高冷貴族?"除此之外,“影視颶風”發佈的視訊中還展示了蜜雪冰城的雪人大戰外企咖啡店機器人、奧特曼打怪獸、功夫高手以一敵多、女運動員長跑和拳擊的商業短片等場景,伴隨著流暢的視覺效果和毫無破綻的多角度運鏡。發佈僅僅兩天,就已經讓各大專業影評人讚不絕口、讓普通使用者忘記了AI視訊生成的邊界。在字節發佈的Seedance 2.0文件中,研究團隊用很克制的語言描述了驚人的技術突破:物理規律更合理、動作更流暢、多模態參考能力支援文字、圖片、音訊和視訊的自由組合。針對以往視訊生成的難題,Seedance 2.0也做了針對性的最佳化:使用者可以通過上傳參考視訊實現高難可控的運鏡和精準的動作復刻,在一致性提升的基礎上實現視訊延長、音樂卡點、多語言配音、創意劇情補全等使用功能。若是從眼光將3D世界轉向2D動畫,Seedance 2.0則能給出更多驚喜:它能將漫畫分鏡自動轉變為動畫,能識別2D角色的眼睛、頭髮、服飾為獨立可動的圖層,避免早期AI將平面圖像誤判為偽3D的問題。一時間,AI圈沸騰了:民用級視訊生成即將跨越臨界點,技術執行問題已經被解決,擺在人們面前的已經是創作決策問題。不過,技術的高光時刻,背後往往伴隨著陰影。02 令人不安的“巧合”見識過Seedance 2.0的強大後,“影視颶風”視訊的後半段卻給出了一個奇怪的案例:出鏡者Tim將自己的臉部照片和提示詞一併上傳給模型,模型自然返回了一段以他為主角的AI科普視訊。可是,視訊中出現的不僅有他的形象,還有和他幾乎一樣的聲音。而在一段實景視訊中,背景中的建築更是與他的公司大樓極其相似。更詭異的是,評論區裡還有一位測試者,同樣只提供了臉部照片並要求模型生成夜跑場景。結果畫面中的人物,穿著這位測試者上周剛買的跑鞋,連顏色和鞋款版型都分毫不差,儘管他沒在提示詞中透露任何相關資訊。作為技術愛好者,我堅定認為這不是什麼“靈異現象”。於是,我馬上去仔細讀了一遍字節發佈的文件,官方的解釋是這樣的:模型展現出了此類能力可歸因於“多模態參考”和“一致性提升”。“多模態參考”指模型能夠同時解析圖像、音訊等異構資料,實現跨模態特徵對齊。“一致性提升”則依賴對海量視訊中人物、物體、場景共現規律的統計學習。從純理論角度上來說,模型能夠生成與Tim和那位測試者極其相像的視訊並非不可能,因為它在問世之前已經見過足夠多“人臉+聲音+服飾+環境”的組合樣本。不過,理論層面上的合理恐怕無法消解個人體驗的不適。如果AI真的能在毫無明確提示的情況下猜中跑鞋,則必然是獲取到了購買記錄等相關資訊;能夠準確模擬聲音和建築,則證明它已經多次欣賞過Tim拍攝的相關視訊。這種精準雖然令人瞠目結舌,但也早已超越統計機率的舒適區間,帶給人們一個不安的猜想:我們的生活,是否早已成為訓練資料中的一部分?答案是肯定的。因為抖音的使用者服務協議中早已寫明:“全球範圍內、免費、非獨家、可多層次再許可的權利”這個表述,或多或少體現出了一定的模糊性。我們無從得知這裡面是否包括AI模型的自動化訓練,但可以確信的是,人們的生活切片正在被用於建構“複製自己”的生成模型。評論區裡充斥著不滿的呼聲:“誰還敢在社交平台分享生活?”這並非過度恐慌,而是人們潛意識中資料主權意識開始逐漸覺醒。我們早已習慣技術帶來的便利,卻總是無視資料控制權的悄然流失。03 創作的末路:創意被演算法稀釋Seedance 2.0突如其來的技術衝擊,受到影響的可遠遠不止人們的日常生活。由此變得支離破碎的,還有創作者的精神世界。短短9分鐘的視訊,評論區卻體現出人生百態。一位自由畫師寫下留言:“我被迫使用AI工作流進行創作,卻絲毫感受不到任何快樂,因為我只是在重複生圖、拼接、再生圖的流程。在我的認知中,它根本不是我的作品,因為我沒有參與任何細節的推導。”這位畫師懷念的不僅是繪畫技術本身,更是人們參與藝術創作過程時身臨其境的感受。每一處細節的反覆推敲和修改、委託人收到作品時表現出的認同和喜愛、自我價值的實現,這些充分體現藝術創作內在價值的時刻,不該由“提示詞→生成→篩選”的流程所替換。而作為程式設計師,我也深有體會。剛上大學接觸專業課的那段時間,一個課程設計會讓全班大部分同學焦頭爛額。從資料結構,到運行邏輯,再到UI介面設計,初出茅廬的新生們少則幾周,多則一個月,才能完成一個基礎功能完備,介面談不上多美觀的小應用。那種運行上百遍,最後一次終於不報錯成功運行的釋懷感,我已經很久沒有感受過了,因為這些任務在AI眼裡,都是僅需幾分鐘即可完成的東西。科技進步利多了人類,但也讓以前需要經年累月積累的專業壁壘加速瓦解。無論是那個行業的從業者,看到自己辛苦學了多年的知識和技術被輕輕鬆鬆實現和超越,都難免因為“努力貶值”而感到失落。更深層的憂慮來自於行業結構的極端化。米哈游創始人蔡浩宇曾經給出過一個有點誇張的預言:AI時代,遊戲創作將只屬於兩類人——0.0001%的頂級專業團隊能創造出前所未有的遊戲作品,99%的業餘愛好者可以根據自己的喜好自由創作遊戲。其餘的開發者,建議轉行。這個預言能否成真並不重要,但Seedance 2.0的創作能力與之描述的如出一轍。當AI能夠輕鬆復刻電影等級的運鏡和情緒演繹,創作就會被演算法系統性地結構,而不再是人類獨有的優勢。強大的工具已經發到了每個人的手上,但面對“費半天勁做出來的東西還不如AI”的質問時,我卻不知道該如何回答。04 從“技術改變生活”到“生活改變技術”開篇那句“技術執行問題已經被解決,擺在人們面前的已經是創作決策問題”,至此得以解釋。人們已經無需擔心“AI能不能做出視訊”,只需要判斷“那條AI生成的視訊更好”,再把選擇反饋給AI,即可完成多模態資料的流動閉環。在無數次循環往復中,AI不僅僅能生成內容,還將學會定義何為“優質創意”、篩選出適合指定風格視訊的使用者。如此一來,人類就從創作的主體變成了被演算法評估的客體。我很認同評論區的一句話:當AI能夠輕鬆實現所有人的“創意”,甚至是復刻人類自己,創意就會失去價值,個體將反過來變成AI挑選的對象。技術不再服務於人,而是重構人的價值觀,這種虛無感實在有些令人不寒而慄。Seedance 2.0的發佈實則是AIGC技術從工具向價值的一次越界嘗試。它不再侷限於按部就班地執行使用者指令,而是開始試圖理解和復現人類創作中難以用言語精準表達的特質,像是情緒的變化、風格的延續或是跨模態的隱喻關聯。這種能力的躍遷值得所有人肯定,但也請不要忘記,躍遷所需要的能量正是來自於我們日常生活中的點點滴滴。“技術改變生活”,這是一句數字時代以來流傳了很久的樂觀敘事。但Seedance 2.0的技術演進似乎在暗示:生活正在以我們難以察覺的方式改變著技術。面容、聲音、消費記錄和社交痕跡都開始成為演算法的養料,但資料主權意識和制度保障尚未完全建立。技術並無善惡之分,但資料的流向決定了權力的歸屬。人類是否還有自己資料的最終解釋權,取決於AI時代“創作”這個詞的定義:它可以是演算法對生活的精準復刻,也可以是人類意志的無限延伸。Seedance 2.0正在讓所有人都直面一個根本問題:是否願意用生活的全部細節,來交換技術的無限便利?對如此強大的視訊生成能力,我們似乎沒有拒絕使用的理由。而面對如此快速的技術演進,不知道我們是否還能有拒絕使用的權利。 (錦緞)