Seedance 2.0著實恐怖了些

這個周末,字節跳動的新視訊生成模型在全網被炒得沸沸揚揚。

“殺死比賽”、“效果爆炸”等AI時代已經被用爛了的詞瞬間又飄得滿屏都是。

有人說,字節的Seedance 2.0可能會是繼Google的Veo 3和OpenAI的Sora 2之後的又一款革命性、里程碑式的AI視訊生成產品。

正當我懷疑這些司空見慣的說法,是不是年前AI企業引流的又一次概念炒作時,知名B站UP主“影視颶風”凌晨一點發佈的一條視訊給出了一個確切的答案:Seedance 2.0的能力強到有些恐怖。

01 強者,無需多言

先來看看官方文件中給出的一些視訊demo:

提示詞:男人@圖片1下班後疲憊的走在走廊,腳步變緩,最後停在家門口,臉部特寫鏡頭,男人深呼吸,調整情緒,收起了負面情緒,變得輕鬆,然後特寫翻找出鑰匙,插入門鎖,進入家裡後,他的小女兒和一隻寵物狗,歡快的跑過來迎接擁抱,室內非常的溫馨,全程自然對話。

我對視訊和電影創作並無深刻理解,幾乎完全無法分辨這到底是AI的生成還是人類的創作。

生成一些萌寵的動畫短片也是不在話下:

提示詞:在“貓狗吐槽間”裡的一段吐槽對話,要求情感豐沛,符合脫口秀表演:

喵醬(貓主持,舔毛翻眼):"家人們誰懂啊,我身邊這位,每天除了搖尾巴、拆沙發,就只會用那種“我超乖求摸摸”的眼神騙人類零食,明明拆家的時候比誰都凶,還好意思叫旺仔,我看叫“旺拆”還差不多哈哈哈“

旺仔(狗主持,歪頭晃尾巴):"你還好意思說我?你每天睡18個小時,醒了就蹭人類腿要罐頭,掉毛掉得人類黑衣服上全是你的毛,人家掃完地,你轉身又在沙發上滾一圈,還好意思裝高冷貴族?"

除此之外,“影視颶風”發佈的視訊中還展示了蜜雪冰城的雪人大戰外企咖啡店機器人、奧特曼打怪獸、功夫高手以一敵多、女運動員長跑和拳擊的商業短片等場景,伴隨著流暢的視覺效果和毫無破綻的多角度運鏡。

發佈僅僅兩天,就已經讓各大專業影評人讚不絕口、讓普通使用者忘記了AI視訊生成的邊界。

在字節發佈的Seedance 2.0文件中,研究團隊用很克制的語言描述了驚人的技術突破:物理規律更合理、動作更流暢、多模態參考能力支援文字、圖片、音訊和視訊的自由組合。

針對以往視訊生成的難題,Seedance 2.0也做了針對性的最佳化:

使用者可以通過上傳參考視訊實現高難可控的運鏡和精準的動作復刻,在一致性提升的基礎上實現視訊延長、音樂卡點、多語言配音、創意劇情補全等使用功能。

若是從眼光將3D世界轉向2D動畫,Seedance 2.0則能給出更多驚喜:它能將漫畫分鏡自動轉變為動畫,能識別2D角色的眼睛、頭髮、服飾為獨立可動的圖層,避免早期AI將平面圖像誤判為偽3D的問題。

一時間,AI圈沸騰了:民用級視訊生成即將跨越臨界點,技術執行問題已經被解決,擺在人們面前的已經是創作決策問題。

不過,技術的高光時刻,背後往往伴隨著陰影。

02 令人不安的“巧合”

見識過Seedance 2.0的強大後,“影視颶風”視訊的後半段卻給出了一個奇怪的案例:

出鏡者Tim將自己的臉部照片和提示詞一併上傳給模型,模型自然返回了一段以他為主角的AI科普視訊。

可是,視訊中出現的不僅有他的形象,還有和他幾乎一樣的聲音。

而在一段實景視訊中,背景中的建築更是與他的公司大樓極其相似。

更詭異的是,評論區裡還有一位測試者,同樣只提供了臉部照片並要求模型生成夜跑場景。

結果畫面中的人物,穿著這位測試者上周剛買的跑鞋,連顏色和鞋款版型都分毫不差,儘管他沒在提示詞中透露任何相關資訊。

作為技術愛好者,我堅定認為這不是什麼“靈異現象”。於是,我馬上去仔細讀了一遍字節發佈的文件,官方的解釋是這樣的:

模型展現出了此類能力可歸因於“多模態參考”和“一致性提升”。

“多模態參考”指模型能夠同時解析圖像、音訊等異構資料,實現跨模態特徵對齊。

“一致性提升”則依賴對海量視訊中人物、物體、場景共現規律的統計學習。

從純理論角度上來說,模型能夠生成與Tim和那位測試者極其相像的視訊並非不可能,因為它在問世之前已經見過足夠多“人臉+聲音+服飾+環境”的組合樣本。

不過,理論層面上的合理恐怕無法消解個人體驗的不適。

如果AI真的能在毫無明確提示的情況下猜中跑鞋,則必然是獲取到了購買記錄等相關資訊;能夠準確模擬聲音和建築,則證明它已經多次欣賞過Tim拍攝的相關視訊。

這種精準雖然令人瞠目結舌,但也早已超越統計機率的舒適區間,帶給人們一個不安的猜想:

我們的生活,是否早已成為訓練資料中的一部分?

答案是肯定的。因為抖音的使用者服務協議中早已寫明:

“全球範圍內、免費、非獨家、可多層次再許可的權利”這個表述,或多或少體現出了一定的模糊性。

我們無從得知這裡面是否包括AI模型的自動化訓練,但可以確信的是,人們的生活切片正在被用於建構“複製自己”的生成模型。

評論區裡充斥著不滿的呼聲:“誰還敢在社交平台分享生活?”

這並非過度恐慌,而是人們潛意識中資料主權意識開始逐漸覺醒。

我們早已習慣技術帶來的便利,卻總是無視資料控制權的悄然流失。

03 創作的末路:創意被演算法稀釋

Seedance 2.0突如其來的技術衝擊,受到影響的可遠遠不止人們的日常生活。由此變得支離破碎的,還有創作者的精神世界。

短短9分鐘的視訊,評論區卻體現出人生百態。

一位自由畫師寫下留言:“我被迫使用AI工作流進行創作,卻絲毫感受不到任何快樂,因為我只是在重複生圖、拼接、再生圖的流程。在我的認知中,它根本不是我的作品,因為我沒有參與任何細節的推導。”

這位畫師懷念的不僅是繪畫技術本身,更是人們參與藝術創作過程時身臨其境的感受。

每一處細節的反覆推敲和修改、委託人收到作品時表現出的認同和喜愛、自我價值的實現,這些充分體現藝術創作內在價值的時刻,不該由“提示詞→生成→篩選”的流程所替換。

而作為程式設計師,我也深有體會。

剛上大學接觸專業課的那段時間,一個課程設計會讓全班大部分同學焦頭爛額。從資料結構,到運行邏輯,再到UI介面設計,初出茅廬的新生們少則幾周,多則一個月,才能完成一個基礎功能完備,介面談不上多美觀的小應用。

那種運行上百遍,最後一次終於不報錯成功運行的釋懷感,我已經很久沒有感受過了,因為這些任務在AI眼裡,都是僅需幾分鐘即可完成的東西。

科技進步利多了人類,但也讓以前需要經年累月積累的專業壁壘加速瓦解。

無論是那個行業的從業者,看到自己辛苦學了多年的知識和技術被輕輕鬆鬆實現和超越,都難免因為“努力貶值”而感到失落。

更深層的憂慮來自於行業結構的極端化。

米哈游創始人蔡浩宇曾經給出過一個有點誇張的預言:AI時代,遊戲創作將只屬於兩類人——0.0001%的頂級專業團隊能創造出前所未有的遊戲作品,99%的業餘愛好者可以根據自己的喜好自由創作遊戲。其餘的開發者,建議轉行。

這個預言能否成真並不重要,但Seedance 2.0的創作能力與之描述的如出一轍。

當AI能夠輕鬆復刻電影等級的運鏡和情緒演繹,創作就會被演算法系統性地結構,而不再是人類獨有的優勢。

強大的工具已經發到了每個人的手上,但面對“費半天勁做出來的東西還不如AI”的質問時,我卻不知道該如何回答。

04 從“技術改變生活”到“生活改變技術”

開篇那句“技術執行問題已經被解決,擺在人們面前的已經是創作決策問題”,至此得以解釋。

人們已經無需擔心“AI能不能做出視訊”,只需要判斷“那條AI生成的視訊更好”,再把選擇反饋給AI,即可完成多模態資料的流動閉環。

在無數次循環往復中,AI不僅僅能生成內容,還將學會定義何為“優質創意”、篩選出適合指定風格視訊的使用者。

如此一來,人類就從創作的主體變成了被演算法評估的客體。

我很認同評論區的一句話:當AI能夠輕鬆實現所有人的“創意”,甚至是復刻人類自己,創意就會失去價值,個體將反過來變成AI挑選的對象。

技術不再服務於人,而是重構人的價值觀,這種虛無感實在有些令人不寒而慄。

Seedance 2.0的發佈實則是AIGC技術從工具向價值的一次越界嘗試。

它不再侷限於按部就班地執行使用者指令,而是開始試圖理解和復現人類創作中難以用言語精準表達的特質,像是情緒的變化、風格的延續或是跨模態的隱喻關聯。

這種能力的躍遷值得所有人肯定,但也請不要忘記,躍遷所需要的能量正是來自於我們日常生活中的點點滴滴。

“技術改變生活”,這是一句數字時代以來流傳了很久的樂觀敘事。

但Seedance 2.0的技術演進似乎在暗示:生活正在以我們難以察覺的方式改變著技術。

面容、聲音、消費記錄和社交痕跡都開始成為演算法的養料,但資料主權意識和制度保障尚未完全建立。

技術並無善惡之分,但資料的流向決定了權力的歸屬。人類是否還有自己資料的最終解釋權,取決於AI時代“創作”這個詞的定義:

它可以是演算法對生活的精準復刻,也可以是人類意志的無限延伸。

Seedance 2.0正在讓所有人都直面一個根本問題:是否願意用生活的全部細節,來交換技術的無限便利?

對如此強大的視訊生成能力,我們似乎沒有拒絕使用的理由。

而面對如此快速的技術演進,不知道我們是否還能有拒絕使用的權利。 (錦緞)