2026,會是傳統電影的“最後一年”嗎?

去年5月我發過一條朋友圈:不負責任地盲猜,最晚2026年,會有一部漫威質量的純AI製作電影全球上映。然後,大量媒體開始寫:好萊塢死了。

這兩天,一個爆火的新模型,讓我感覺這一天越來越近了。

我甚至看到網上有人說:2026,會是傳統電影的“最後一年”。我們正在見證全新電影的誕生。

真有那麼誇張嗎?寫篇文章,記錄一下,順便帶你回顧是怎麼回事。

01 改變視訊行業的AI,快來了

這兩天,我朋友圈被一條條震撼視訊刷屏了。

這是字節旗下的即夢內測最新視訊模型Seedance2.0。按理說,新模型發佈我們已經不稀奇了,幾個禮拜一個幾個禮拜一個。今早看到吳曉波老師一句話:中國AI人,已經三年沒過好年了。我會心一笑。別說研發者了,我們這種媒體,都已經連續好幾年春節在家寫稿,年年撞上“突然發佈的現象級大模型”。

然而,Seedance2.0的效果,還是有億點點超預期。

在X上,已經有一大堆使用者測評,給出極高的評價。

它只用一兩句提示詞,就能生齣電影級大片。它能讓蜜雪冰城和星巴克等好幾個咖啡品牌,在東方明珠下貼身肉搏。把咖啡大戰“具象化”。哎呀,文字實在表達不出感覺,我從Tim(影視颶風)的視訊裡截一小段,你一看就明白。

它厲害在那?具體來說,在至少3個方面有了極大提高。

1、運動時的人物精細度

以前很多AI視訊,定格畫面還行。但只要一動,五官就像在拍《午夜凶鈴》,到處亂飛。

但你看Seedance2.0生成的內容,衣服的光澤很自然、髮絲的陰影很自然。如果你暫停看,甚至能發現,連門鎖金屬的反光都很自然。

2、細滑且高級的運鏡

很多視訊人都有個口頭禪:這個視訊有“廉價感”。其實基本差就差在運鏡上。以前的AI視訊,要麼是動的固定機位,要麼是無邏輯的亂晃。

但你看這個,這是我用年度演講現場照片生成的視訊。

注意它的視角,就像是架在一台專業搖臂上。而且它不是機械平移,甚至可以環繞和俯衝。我們真實現場攝影師拍的效果,也差不多就是這樣了。

3、充滿敘事邏輯的分鏡

Tim的視訊裡也有提到,過往的視訊模型是沒有什麼“分鏡思維”的。都是為了切鏡頭而切鏡頭,最多給點特寫,鏡頭間是毫無邏輯的。

但你看這段“星際穿越”的視訊,你能看出,鏡頭的切換明顯是有邏輯的,它能理解“當前的畫面在幹什麼”,用各種鏡頭語言幫你理解“什麼是現在的重點”。它知道什麼叫“導演邏輯”。

當然,它也說不上完美無瑕。比如,上面那個蜜雪冰城大戰咖啡人的視訊,你仔細看能看到,前一秒東方明珠是被雷射擊中了的。下一秒,它又完好無損的出現在背景裡。

但總之,考慮到這是只給了“一句話”就生成的視訊,已經足夠震撼。

02 為什麼能這麼厲害?因為“兩隻手畫畫”

我趕緊去研究了一下,為什麼它能這麼厲害?究竟是靠什麼技術?我試著用大白話給你說明白。

傳統視訊經常“畸形”,就是因為在視訊生成領域,有兩個目標一直在打架:

目標1:內容一致性,俗稱“長得像”。

AI得盯著你上傳的那張照片,不能把你的眼睛畫大,也不能把你的衣服換了。

目標2:動作自然度,俗稱“動得順”。

AI得讓你的身體動起來,比如揮手、走動,還要保持光影自然。

過往的視訊大模型,只有一條“處理流水線”(專業術語叫“分支”),所以往往會顧此失彼:要麼為了讓你動起來,臉就變形了。要麼為了保住你的臉,整個人就僵在那像個 PPT。

但這次的Seedance2.0,用了一種“雙分支擴散”技術。它就像給AI配了兩條一起協作的流水線。

流水線1:動作分支。

它負責“構思動作”。根據指令(比如“在街頭漫步”)去計算像素該怎麼動,確保物理連貫,手臂不會不自然的彎曲。

流水線2:內容分支。

它負責“盯著照片”。它提取特徵。包括面部、髮型、膚質。確保像素級一致。臉部不再恐怖變形。

而且,這兩條流水線並不是各跑各的,它們之間有一個“跨注意力機制”,它是兩個分支之間的協調員,不停進行資訊交換。這樣,Seedance2.0就可以通過調節這兩個分支的“發言權”,確保動作不走形。比如,設定“長相上100%聽內容分支的,動作上100%聽動作分支的”。

這就解決了前面那個難題:以前動起來就臉崩,現在因為外觀分支擁有“絕對話語權”,所以臉被死死“鎖”住了。

就像兩隻手作畫,右手畫皮,左手畫骨。動作分支問:我現在要讓這個身體轉個身,該怎麼畫?內容分支答:給,這是他轉身後側臉該有的輪廓,別畫錯了。

驚豔的效果,就在這樣實現的。

03 用本人授權,解決安全隱患

昨天看到了一大堆討論和測試視訊,又聽說這個“真人人臉”的功能好像一度被下架。我好奇極了,按住發癢的雙手想試試,結果,果然沒成功。

仔細一看,原來Seedance2.0下方標註了一行小字:暫不支援真人人臉。

我很奇怪,用自己的臉拍電影,這才有趣啊?為什麼不支援。一搜之下,馬上明白了人們的擔憂。

這個模型的效果真的太好了,好到你甚至很難通過“尋找破綻”來安慰自己。以往那種僵硬的表情、漂移的五官消失了,取而代之的是極致的真實。這在技術上叫“突破”,但也會讓人擔憂。

你會不自覺地打個冷顫:“如果螢幕那頭,一個長得和我一模一樣、聲音分毫不差的人,正對著我年邁的父母談笑風生,他們該如何分辨?”

字節的夥伴告訴我,在內測階段,就有很多人在討論,會不會被壞人利用?《黑神話:悟空》之父馮驥也評價說,這是當前地表最強視訊生成模型,沒有之一。但同時也在擔憂,會不會造成假視訊氾濫?

幸好,這是個技術問題,不是路線問題。通過技術調整,很好找到解決方案:活體檢測。

字節的夥伴告訴我,你試試手機APP版,做一下本人的授權驗證,就沒問題了。

我試了試,果然,它讓我打開攝影機,先讀一段數字,再把臉向左轉、向右轉。通過驗證後,上傳視訊,給指令,做一段我開著敞篷跑車在海邊吹風,就能看到這樣的結果。

怎麼樣?是不是有點意思。

很多年後,回頭來看,也許我們會發現,很多行業的邏輯,都會被改變。

比如,電影行業。原本的生產方式,可能被徹底重構。

現在的影視劇,如果演員後期台詞改了,或者某個鏡頭要補拍,場地、演員、燈光,隨便一弄就是六位數七位數的成本。在一些特殊情況下,像《速度與激情》的保羅·沃克,在拍攝過程中去世,就會留下永久的遺憾。

但現在,只要獲得本人或者親屬的授權,就可以AI補拍。甚至,真的還需要明星真人出鏡嗎?都不一定了。這就是為什麼有人說:2026,是“傳統電影”的最後一年。

比如,心理諮詢行業。我們有可能獲得一個“24小時的理想傾聽者”。

現在的心理諮詢,非常昂貴且受限於時間。然而,在得到你本人(或者你信任的人)授權後,AI可以生成一個你最信任、最能給你安全感,還完美掌握前沿心理學知識的“數字分身”。

它長著一張你最親近的臉,用最溫柔的語氣和你對話。許多抑鬱症患者、孤獨老人、焦慮人群,都會因此受益。

但這一切都有個前提:只要是真人,就要確保必須得到本人或者親人的授權。一定要有這樣的機制。

好在,字節的夥伴,已經充分意識到了這一點。

有了這道安全感,我們再來看那些被重構的未來,才會覺得是驚喜,而不是驚嚇。

最後的話

十年以後,面對大螢幕,當我們以現在無法想像的全新形式看著電影,也許會回憶起2026年春節前,這個遙遠的下午。

網上有一句非常扎心的話:

我們總是以為,技術的進步,會減少普通人和高手間的差距。然而殘酷的現實是,每次,它都會拉大差距。

因為技術只是一根“槓桿”。它把普通人的努力放大了10倍,卻把高手的洞察放大了1000倍。這難免讓人感到“冒犯”。所以,每一項偉大的發明誕生時,人類的第一反應往往不是歡呼,而是恐懼。

電燈發明時,總被擔心“光對眼睛有害”。微波爐發明時,總被擔心有“死亡射線”。照相機發明時,甚至有人擔心它會“吸走靈魂”。

然而,就像照相機沒有殺死繪畫,它只是殺死了“作為複印機的畫家”,然後催生了梵高、高更、莫奈。

當導演的門檻降到零,剩下的,也就只剩大導演們對世界獨一無二的理解。

斯皮爾伯格如果不是猶太裔,沒有經歷過猶太家庭從小的耳濡目染和深入骨髓的民族傷痕,就拍不出《辛德勒的名單》

卡梅隆如果不是對深海有著近乎偏執的狂熱,沒有在無數次深潛中,直面過那種足以毀滅一切的孤獨與靜謐,就拍不出《泰坦尼克號》。

王家衛如果不是從上海移居香港,沒有在那代人特有的漂泊感中長大,沒有在燈紅酒綠的疏離中體會過那種“欲言又止”的孤獨,就拍不出《花樣年華》。

這些東西,AI永遠學不會,因為它沒有經歷過你所經歷的寒冬,也沒有見過你所見過的盛放。

2026年,也許真的是傳統電影行業的最後一年。但那又怎樣?技術殺死的只是膠片,而人那顆不可模擬的靈魂,才是永不落幕的電影。 (劉潤)