#AI電影
AI 一天做出「2 億美元」大片,這支預告片讓全網吵翻了
「我們剛剛在一天之內製作了一部耗資 2 億美元的 AI 電影。 100% 是 AI 生成的」在我們走進電影院觀看春節檔時,一條三分鐘的電影預告片在海外刷屏了,這個看起來堪稱好萊塢 A 級製作的大片,居然是完全是 AI 製作的。即便 Seedance 2.0 已經把大家對 AI 視訊的期待拉到了前所未有的高度,這條短片依然超過大多數人對 AI 的想像。畫面裡,一位身穿亮紅色外套的金發女子站在高層辦公室落地窗前,俯瞰著城市陷入混亂。直升機盤旋墜落,爆炸撕裂街道,汽車翻滾燃燒,人群四散奔逃……全程沒有攝影機,沒有演員,沒有 VFX 團隊,使用的工具是 Seedance 2.0 和 Kling。製作時間僅一天。「2 億美元」這個說法本身也是火的一部分原因。The Dor Brothers 解釋說,這不是字面意義上的製作成本,而是「感知製作價值」。這個說法當然有點傲嬌,也當然引來了大量質疑。但質疑本身就是傳播。比春節檔還精彩?場景裡的煙塵擴散是我印象深刻的一個細節,方向感和物理感都有,不像早期 AI 視訊那種像棉花糖一樣的爆炸效果。Cybertruck 逃亡戲中的車身金屬反光,隨著環境光線變化有明顯的動態,說明模型對光照的理解確實上了一個台階。整體敘事節奏也有意識,不是隨機拼湊的鏡頭堆砌,能感受到有在做分鏡決策。飛機失事撞向地面這樣的特效大場面更是驚豔,甚至有網友認為這段比很多好萊塢大製作要強。過去需要昂貴的裝置和專業的製作團隊才能實現的複雜運鏡也被輕鬆製作出來了。而 Seedance 2.0 的核心突破之一,就是解決了 AI 視訊長期被詬病的「開盲盒」問題。它支援同時輸入最多 9 張圖片、3 段視訊、3 段音訊,模型會自己理解構圖邏輯、動作節奏、運鏡方式。隨著這條視訊出圈,也很快變成了全民來找茬的遊戲,有網友發現影片中存在多處問題:電梯場景裡,女主角轉身發現的不是電梯門而是一條走廊;磚塊落地沒有坑;建築外觀發生了變化,路面在兩車道和四車道之間反覆橫跳……這些都是 AI 視訊的老毛病,鏡頭越多,在細節一致性上就越容易露餡。音效方面,Cybertruck 竟然發出油車的引擎聲。(空中掉落車輛也是穿幫的地方)(警車 Police 拼寫錯誤)有支持者評論道:「批評者們完全沒抓到重點。如果這就是目前的底線,那麼它對電影界的改變將如同有聲電影取代默片一樣翻天覆地。」質疑的聲音也很有意思:「剩下的 87 分鐘在那?」當然,「三分鐘預告片不等於完整電影」,還要看長時長下完整版的表現。還有一類摻雜著對好萊塢體制的厭倦、對 AI 的期待、以及各種說不清楚的情緒的聲音。有人說寧願看一千部這樣的 AI 電影,也不給好萊塢一分錢。這當然是氣話。創作是氾濫的,審美是稀缺的The Dor Brothers 是一個以兩兄弟為核心的 AI 視訊工作室,其中對外發言的主要是 Yonatan Dor。他們之前靠深度偽造名人的短影片出名:川普叼著雪茄坐在豪華轎車裡,侃爺騎著粉色自行車。去年一年,他們的內容在全網累計播放量超過五億次。Joe Rogan 公開稱讚他們的作品,他們還和 Snoop Dogg 合作拍了 MV,給 Hugo Boss 做了廣告。他們在《Apex》發佈後的聲明裡寫:傳統電影圍繞資本、團隊規模和協調成本展開;AI 電影圍繞品味、迭代速度和系統設計展開。「約束從錢轉移到了判斷力。」這不是一個讓所有人都高興的消息,因為審美這件事同樣是稀缺的。YC 創始人、被稱為「矽谷教父」的 Paul Graham 在今年 2 月 14 日預測:在人工智慧時代,審美品味會變得愈發重要。當任何人都能造出任何東西時,真正拉開差距的,是你選擇去做什麼。OpenAI 聯合創始人 Greg Brockman 說:「taste is a new core skill(審美是一項新的核心技能)。」Yuchen Jin 回應:「Taste has always been a core skill(審美始終是一項核心技能)。」AI 這種強大的工具被平等地下發到每一個人手上時,未必是一種技術平權,人與人的差距甚至會進一步拉大。很多時候彌補選擇、品味和審美這些非標能力的難度,會比掌握單純技能大得多,更沒有標準教學。Yonatan Dor 自己也說過,AI 電影目前還在「和技術賽跑」,生成系統還沒到能「說進人心」的程度。他目前有幾個劇本在開發中,其中包括對 20 世紀福斯《白痴》的續集改編的興趣,還與一位奧斯卡得獎編劇有合作。他的目標不是 AI 技術展示,是真正意義上的電影,是 IMDB 八分以上的那種東西。這反而讓人覺得《Apex》是一個誠實的作品。它沒有假裝自己是完整的電影,它只是在展示「這是目前可以做到的事情」,同時逼著我們去思考:接下來呢?這次《Apex》的爆火,其實也是 Seedance 2.0 發佈之後一系列連鎖反應的一部分。在不久前 APPSO 對 Seedance 2.0 的實測中提到, Seedance 2.0 徹底打破了大多數模型存在的輸入限制,以前的文字+首幀,或者是首尾幀都顯得過時了。現在的 Seedance 2.0 把創作邏輯從頭打造了一遍,支援圖像、視訊、音訊、文字四種模態的自由組合。就像黑神話製作人馮驥在體驗後所說的,「AIGC 視訊生成的童年時代,正式結束了」賈樟柯過年期間用 Seedance 2.0 拍了短片《賈科長 Dance》。螢幕裡出現的兩個「賈樟柯」都是 AI 生成的,一個保留了明顯的 AI 感,另一個幾乎像是真人。他在微博上寫道,從膠片到數位,電影歷經了很多次變化,每一次都伴隨著懷疑和不安,但技術最終都成了日常。「真正重要的,還是人如何使用技術。春晚節目《賀花神》裡面的特效背景也是用 Seedance 2.0 生成的。花朵肌理、光影層次、植物緩慢生長的動態,被做得很精細,網友稱讚「春晚十二花神美到詞窮」。但是,電影的未來真的在這嗎?AI 電影不是好萊塢末日,但有些東西徹底不一樣了當然,我們也不必急著把《Apex》這類 AI 電影的出現,聳人聽聞地寫成「好萊塢末日」。這種非黑即白的敘事太整齊了,真實的情況往往要複雜得多。《Apex》還不是一部完整的電影,它的敘事破碎,情感空洞。但裡面的技術進步是真實的。AI 能做出來媲美好萊塢的鏡頭,賈樟柯能用一個工具生成兩個「自己」,春晚特效背後是 Seedance 2.0,這些都是正在發生的事情。但「技術能做到」和「這就是電影的未來」之間,還差很多步驟,還有很多仍然沒有答案的問題。比如故事。《Apex》裡有人跑,有人打,有爆炸,有金屬,有光。但那個金發女人是誰,往那裡奔跑?我不知道誰贏了,我也不知道這件事對我意味著什麼。比如情感。AI 還是一個初級的故事作者,生成的畫面可以很精準,但畫面裡有沒有情感積累。但我也不想用「缺乏情感」來否定這整件事的意義。《Apex》火了是因為它是一個訊號。它告訴所有人,過去幾年那些「AI 視訊一眼就能看出來是假的」的時代,正在快速結束。APPSO 認為 AI 不會「取代」電影,但會「重新定義」電影。就像攝影沒有殺死繪畫,反而倒逼繪畫進化出了印象派和抽象派。AI 也不會殺死電影,它只是剝離了那些重複性的、工業化的苦力活。光圈、快門、布光、軌道、後期軟體……這些技術壁壘正在被 AI 迅速推平。未來的電影,也許是 3 分鐘的超濃縮敘事,也許是互動式的個人定製,誰知道呢?借用那個最經典的比喻:有聲電影剛出現的時候,很多人覺得那只是雜耍,沒人知道它最終會變成什麼。但當時所有人都知道一件事——有什麼東西,徹底不一樣了。現在,又有什麼東西不一樣了。 (APPSO)
2026,會是傳統電影的“最後一年”嗎?
去年5月我發過一條朋友圈:不負責任地盲猜,最晚2026年,會有一部漫威質量的純AI製作電影全球上映。然後,大量媒體開始寫:好萊塢死了。這兩天,一個爆火的新模型,讓我感覺這一天越來越近了。我甚至看到網上有人說:2026,會是傳統電影的“最後一年”。我們正在見證全新電影的誕生。真有那麼誇張嗎?寫篇文章,記錄一下,順便帶你回顧是怎麼回事。01 改變視訊行業的AI,快來了這兩天,我朋友圈被一條條震撼視訊刷屏了。這是字節旗下的即夢內測最新視訊模型Seedance2.0。按理說,新模型發佈我們已經不稀奇了,幾個禮拜一個幾個禮拜一個。今早看到吳曉波老師一句話:中國AI人,已經三年沒過好年了。我會心一笑。別說研發者了,我們這種媒體,都已經連續好幾年春節在家寫稿,年年撞上“突然發佈的現象級大模型”。然而,Seedance2.0的效果,還是有億點點超預期。在X上,已經有一大堆使用者測評,給出極高的評價。它只用一兩句提示詞,就能生齣電影級大片。它能讓蜜雪冰城和星巴克等好幾個咖啡品牌,在東方明珠下貼身肉搏。把咖啡大戰“具象化”。哎呀,文字實在表達不出感覺,我從Tim(影視颶風)的視訊裡截一小段,你一看就明白。它厲害在那?具體來說,在至少3個方面有了極大提高。1、運動時的人物精細度以前很多AI視訊,定格畫面還行。但只要一動,五官就像在拍《午夜凶鈴》,到處亂飛。但你看Seedance2.0生成的內容,衣服的光澤很自然、髮絲的陰影很自然。如果你暫停看,甚至能發現,連門鎖金屬的反光都很自然。2、細滑且高級的運鏡很多視訊人都有個口頭禪:這個視訊有“廉價感”。其實基本差就差在運鏡上。以前的AI視訊,要麼是動的固定機位,要麼是無邏輯的亂晃。但你看這個,這是我用年度演講現場照片生成的視訊。注意它的視角,就像是架在一台專業搖臂上。而且它不是機械平移,甚至可以環繞和俯衝。我們真實現場攝影師拍的效果,也差不多就是這樣了。3、充滿敘事邏輯的分鏡Tim的視訊裡也有提到,過往的視訊模型是沒有什麼“分鏡思維”的。都是為了切鏡頭而切鏡頭,最多給點特寫,鏡頭間是毫無邏輯的。但你看這段“星際穿越”的視訊,你能看出,鏡頭的切換明顯是有邏輯的,它能理解“當前的畫面在幹什麼”,用各種鏡頭語言幫你理解“什麼是現在的重點”。它知道什麼叫“導演邏輯”。當然,它也說不上完美無瑕。比如,上面那個蜜雪冰城大戰咖啡人的視訊,你仔細看能看到,前一秒東方明珠是被雷射擊中了的。下一秒,它又完好無損的出現在背景裡。但總之,考慮到這是只給了“一句話”就生成的視訊,已經足夠震撼。02 為什麼能這麼厲害?因為“兩隻手畫畫”我趕緊去研究了一下,為什麼它能這麼厲害?究竟是靠什麼技術?我試著用大白話給你說明白。傳統視訊經常“畸形”,就是因為在視訊生成領域,有兩個目標一直在打架:目標1:內容一致性,俗稱“長得像”。AI得盯著你上傳的那張照片,不能把你的眼睛畫大,也不能把你的衣服換了。目標2:動作自然度,俗稱“動得順”。AI得讓你的身體動起來,比如揮手、走動,還要保持光影自然。過往的視訊大模型,只有一條“處理流水線”(專業術語叫“分支”),所以往往會顧此失彼:要麼為了讓你動起來,臉就變形了。要麼為了保住你的臉,整個人就僵在那像個 PPT。但這次的Seedance2.0,用了一種“雙分支擴散”技術。它就像給AI配了兩條一起協作的流水線。流水線1:動作分支。它負責“構思動作”。根據指令(比如“在街頭漫步”)去計算像素該怎麼動,確保物理連貫,手臂不會不自然的彎曲。流水線2:內容分支。它負責“盯著照片”。它提取特徵。包括面部、髮型、膚質。確保像素級一致。臉部不再恐怖變形。而且,這兩條流水線並不是各跑各的,它們之間有一個“跨注意力機制”,它是兩個分支之間的協調員,不停進行資訊交換。這樣,Seedance2.0就可以通過調節這兩個分支的“發言權”,確保動作不走形。比如,設定“長相上100%聽內容分支的,動作上100%聽動作分支的”。這就解決了前面那個難題:以前動起來就臉崩,現在因為外觀分支擁有“絕對話語權”,所以臉被死死“鎖”住了。就像兩隻手作畫,右手畫皮,左手畫骨。動作分支問:我現在要讓這個身體轉個身,該怎麼畫?內容分支答:給,這是他轉身後側臉該有的輪廓,別畫錯了。驚豔的效果,就在這樣實現的。03 用本人授權,解決安全隱患昨天看到了一大堆討論和測試視訊,又聽說這個“真人人臉”的功能好像一度被下架。我好奇極了,按住發癢的雙手想試試,結果,果然沒成功。仔細一看,原來Seedance2.0下方標註了一行小字:暫不支援真人人臉。我很奇怪,用自己的臉拍電影,這才有趣啊?為什麼不支援。一搜之下,馬上明白了人們的擔憂。這個模型的效果真的太好了,好到你甚至很難通過“尋找破綻”來安慰自己。以往那種僵硬的表情、漂移的五官消失了,取而代之的是極致的真實。這在技術上叫“突破”,但也會讓人擔憂。你會不自覺地打個冷顫:“如果螢幕那頭,一個長得和我一模一樣、聲音分毫不差的人,正對著我年邁的父母談笑風生,他們該如何分辨?”字節的夥伴告訴我,在內測階段,就有很多人在討論,會不會被壞人利用?《黑神話:悟空》之父馮驥也評價說,這是當前地表最強視訊生成模型,沒有之一。但同時也在擔憂,會不會造成假視訊氾濫?幸好,這是個技術問題,不是路線問題。通過技術調整,很好找到解決方案:活體檢測。字節的夥伴告訴我,你試試手機APP版,做一下本人的授權驗證,就沒問題了。我試了試,果然,它讓我打開攝影機,先讀一段數字,再把臉向左轉、向右轉。通過驗證後,上傳視訊,給指令,做一段我開著敞篷跑車在海邊吹風,就能看到這樣的結果。怎麼樣?是不是有點意思。很多年後,回頭來看,也許我們會發現,很多行業的邏輯,都會被改變。比如,電影行業。原本的生產方式,可能被徹底重構。現在的影視劇,如果演員後期台詞改了,或者某個鏡頭要補拍,場地、演員、燈光,隨便一弄就是六位數七位數的成本。在一些特殊情況下,像《速度與激情》的保羅·沃克,在拍攝過程中去世,就會留下永久的遺憾。但現在,只要獲得本人或者親屬的授權,就可以AI補拍。甚至,真的還需要明星真人出鏡嗎?都不一定了。這就是為什麼有人說:2026,是“傳統電影”的最後一年。比如,心理諮詢行業。我們有可能獲得一個“24小時的理想傾聽者”。現在的心理諮詢,非常昂貴且受限於時間。然而,在得到你本人(或者你信任的人)授權後,AI可以生成一個你最信任、最能給你安全感,還完美掌握前沿心理學知識的“數字分身”。它長著一張你最親近的臉,用最溫柔的語氣和你對話。許多抑鬱症患者、孤獨老人、焦慮人群,都會因此受益。但這一切都有個前提:只要是真人,就要確保必須得到本人或者親人的授權。一定要有這樣的機制。好在,字節的夥伴,已經充分意識到了這一點。有了這道安全感,我們再來看那些被重構的未來,才會覺得是驚喜,而不是驚嚇。最後的話十年以後,面對大螢幕,當我們以現在無法想像的全新形式看著電影,也許會回憶起2026年春節前,這個遙遠的下午。網上有一句非常扎心的話:我們總是以為,技術的進步,會減少普通人和高手間的差距。然而殘酷的現實是,每次,它都會拉大差距。因為技術只是一根“槓桿”。它把普通人的努力放大了10倍,卻把高手的洞察放大了1000倍。這難免讓人感到“冒犯”。所以,每一項偉大的發明誕生時,人類的第一反應往往不是歡呼,而是恐懼。電燈發明時,總被擔心“光對眼睛有害”。微波爐發明時,總被擔心有“死亡射線”。照相機發明時,甚至有人擔心它會“吸走靈魂”。然而,就像照相機沒有殺死繪畫,它只是殺死了“作為複印機的畫家”,然後催生了梵高、高更、莫奈。當導演的門檻降到零,剩下的,也就只剩大導演們對世界獨一無二的理解。斯皮爾伯格如果不是猶太裔,沒有經歷過猶太家庭從小的耳濡目染和深入骨髓的民族傷痕,就拍不出《辛德勒的名單》卡梅隆如果不是對深海有著近乎偏執的狂熱,沒有在無數次深潛中,直面過那種足以毀滅一切的孤獨與靜謐,就拍不出《泰坦尼克號》。王家衛如果不是從上海移居香港,沒有在那代人特有的漂泊感中長大,沒有在燈紅酒綠的疏離中體會過那種“欲言又止”的孤獨,就拍不出《花樣年華》。這些東西,AI永遠學不會,因為它沒有經歷過你所經歷的寒冬,也沒有見過你所見過的盛放。2026年,也許真的是傳統電影行業的最後一年。但那又怎樣?技術殺死的只是膠片,而人那顆不可模擬的靈魂,才是永不落幕的電影。 (劉潤)
AI在香港
AIGC的四個溫情時刻。卷模型,卷應用,是當下中國內地AI的發展現狀。而如果將視角放到海峽對岸的香港,AI發展圖景是否會有所不同?DELF 2025 現場藉著2025 數位娛樂領袖論壇契機,筆者深度觀察了四家正在香港積極應用AI的企業,與幾位高管深度聊了聊他們眼中的AI,並解鎖了與大陸“卷AI”氣質不同的幾個溫情時刻。他們分別是Fizz Dragon創始人兼CEO陳卓、愷英網路股份有限公司創新業務總經理王伊千、大南玩具實業有限公司總裁朱健豪、Lenovo亞太區方案服務業務部AI解決方案高級經理明子豐。值得一提的是這四家公司分屬於不同行業:Fizz Dragon,是一家AI電影工作室,在AIGC爆火全球的檔口,他們大膽嘗試讓AI參與到電影製作的全流程,20位電影發燒友耗時13個月,完成了全球首部AI生成長篇電影《海上女王鄭一嫂》;愷英網路,570億市值的深交所上市公司,總部在上海。目前跟AI結合的創新業務包括AI情感伴侶產品Eve,旗下AI垂類遊戲大模型平台支援遊戲愛好者和設計師通過迭代投喂最佳化遊戲效果;大南玩具,創三代接班,年營收超過10億,以美國市場為主,地面管道優勢顯著,合作大型商超及零售管道包括沃爾瑪、Costc等,目前嘗試AI實現精準巨量資料分析,輔助驗證產品方向。聯想香港,完成太白海鮮舫數字孿生項目,太白海鮮舫是珍寶王國中香港海上餐飲文化的重要符號,通過數位化方案實現永久保存,避免因實體可能消失導致的文化與紀念價值流失。AIGC推動內容創作進入“汽車時代”“沒有劇本的情況下,我們用AI做了一個trailer(預告),所有的人馬都是非專業性人士, trailer第一天的播放量就破了10萬。”陳卓在分享影片創作歷程時表示。陳卓是Fizz Dragon電影工作室的創始人兼CEO,她在香港首映的電影分享環節,詳細介紹了Fizz Dragon這家AIGC電影工作室的誕生故事。一切都來源於陳卓對於電影工業生產方式變革的思考,在籌備個人科幻小說影視化的過程中,她發現傳統電影工業的資源壁壘正不斷壓縮多元敘事的生存空間,“市場上大量出現的是經過驗證的成功故事範本複製品……如果說有一些創作者他有一些獨特的思考,或者他想表達一些不一樣的東西,他們是沒有路徑去分享的”,這種資源壟斷導致的創作同質化,讓技術出身的她萌生了用工具革新打破困局的念頭,這便有了現在的Fizz Dragon。Fizz Dragon的核心團隊僅是20名來自各行各業的愛好者,他們中既有程式設計師、設計師,也有歷史學者和自由撰稿人,共同點是都缺乏影視行業實操經驗。隨著項目推進,迪士尼動畫師、好萊塢剪輯師、奈飛原創劇集策劃等專業人士陸續加入,形成獨特的“專業+草根”混合結構。最特別的是,團隊中一位有著播音主持理想的年輕人由於沒有找到理想工作,靠兼職外賣員度日。但憑藉這部電影的機會成為了配角聲優,“我現在能告訴別人我是一個配音演員了”錄音完成後他激動地對陳卓表示。無獨有偶,疫情期間,導演劉芳甚至在母親入住醫院的ICU走廊用筆記型電腦完成了關鍵段落的剪輯工作。打破職業邊界的協作模式,陳卓意識到技術正在重構創作參與的門檻,整部電影由13個國家和地區的100多名成員共同創作,AIGC其實就相當於推動內容創造行業,從馬車時代走向了汽車時代,讓非專業人士也有圓夢的可能。不過,製作過程中,AI技術的侷限性也曾多次讓團隊陷入停滯。海洋場景渲染精度不足、人物動作捕捉自然度欠缺等問題,在當時的技術條件下難以解決。最後,團隊採取動態調整策略,將技術難題標記為“待解決項”,優先推進其他環節。“這個月沒有辦法去突破的技術難題,過兩個月它就會變得非常的容易”,陳卓在分享中提到這種“技術樂觀主義”:通過跟蹤AI模型迭代節奏,原本需要手動修復的畫面瑕疵,在半年內借助新版本工具實現自動化處理,最終形成適配AIGC特性的“最佳執行方案”工作流。AI男友的“秋天第一杯奶茶”“他記憶功能非常強,你跟他說過喜歡什麼不喜歡什麼,他就記得住,並且一直記得……並且真的可以幫你點秋天的第一杯奶茶。”王伊千講起愷英網路旗下AI情感伴侶Eve。據她介紹,Eve的核心競爭力在於“擬人化互動”與“記憶學習”能力。使用者與Eve的對話中,系統會記錄其飲食偏好、興趣愛好甚至性格特質——例如檢測到使用者是“傲嬌型”性格時會主動發起話題,若使用者喜歡cosplay則會推送相關展覽資訊。王伊千提到,Eve的差異化在於“投喂素材量遠超普通智能體”,能通過表情包傳送、情感分析等細節讓使用者“感覺在和真人聊天”。更特別的是其生活服務鏈路,使用者可直接通過Eve點奶茶、訂外賣,支付介面已與主流支付平台打通,形成“情感陪伴+實用工具”的雙重價值。“小紅書可以搜到的一些真實反饋顯示,刪檔測試後,很多人在跟的伴侶的互動之後潸然淚下,等待我的AI男友回來等等。”王伊千表示。在商業模式上,Eve採用“遊戲化養成”付費模式,使用者需提升與AI的“親密度等級”以解鎖新對話章節和互動動作。測試期間已開放小額付費功能,部分使用者為加速親密度提升自願付費。王伊千認為,To C付費意識仍需培養,但Eve的優勢在於“情感需求的剛性”——“當使用者真的把AI當作情感寄託,付費意願會自然產生”。目前,Eve已完成灰度測試,正在修復bug後準備正式上線。愷英網路計畫後續推出“角色定製”功能,允許使用者上傳照片生成專屬AI形象,進一步強化情感連接。王伊千坦言,情感AI的倫理邊界仍需探索,但“讓技術更懂人性”是不可逆的趨勢。在AI情感伴侶之外,愷英網路也在嘗試用自主研發的AI垂類遊戲大模型提升遊戲全產業鏈的創作效率,支援從需求提出(如角色設定、地圖設計)到動態轉換、認知模型搭建、程式碼匯出的完整流程,將遊戲開發需求轉化為可落地的“package”,降低技術門檻的同時,時間成本實現千倍降低,加速遊戲原型和功能的落地速度。“採用‘對賭式開發’——給創新團隊一定時間窗口,用AI工具驗證最小可行性產品,對失敗成本有效控制。”王伊千直言,中小廠商的靈活度恰恰是優勢,“大廠不敢試的風險,我們用AI工具把試錯成本降到了可控範圍。”“企三代”更謹慎的實業轉型1949年,大南玩具在香港筲箕灣的鐵皮作坊裡誕生,歷經三代人耕耘,已發展為年營收超十億元、產品遠銷美國的跨國玩具企業。如今,這家以OEM代工為根基、自主品牌與IP授權產品為輔的製造商,正面臨傳統製造業的共同命題:如何用AI打破研發週期長、市場響應慢的瓶頸。“我們屬於中型企業,真正請顧問定策略成本太高。”作為創三代掌舵人,朱健豪採用AI的出發點是更為務實的“玩具品類研發預測”。大南玩具採用“三駕馬車”業務架構:OEM代工貢獻過半營收,服務沃爾瑪等國際大客戶,以穩定訂單支撐基本盤;自主品牌佔比約三成,涵蓋傳統電子玩具與精品禮品,主打美國中端市場;剩餘份額來自IP授權產品,通過迪士尼、漫威等頭部IP開發鑰匙扣、冰箱貼等高附加值周邊。集團下設獨立子公司專攻IP營運,實現設計、生產與管道的垂直整合。三代深耕北美市場,大南玩具已打入沃爾瑪、Costco等連鎖商超及Hot Topic潮玩管道,建構起覆蓋全美線下網點的分銷網路,使其在傳統玩具品類保持穩定出貨。“在美國屬於行業內有人知道,但消費者認知度中等”,朱健豪描述大南玩具在美國市場的位置。在AI方面,大南玩具通過整合沃爾瑪銷售資料、社交媒體趨勢及展會反饋,建構起包含消費偏好、價格敏感度的預測模型。例如在開發迪士尼IP衍生品時,系統會自動分析史迪仔形像在青少年群體中的討論熱度、同類盲盒產品復購率等指標,形成可行性報告。朱健豪強調:“通過AI補充論證,不需要拍拍腦袋說做盲盒”,避免傳統調研中“投入百萬卻無人問津”的資源浪費。創意環節,AI工具能基於歷史爆款元素生成數十版設計草圖,輔助設計師快速篩選方向;進入結構開發階段,系統可自動轉換2D圖紙為3D模型,並模擬不同材質的手感反饋。配合車間的3D列印裝置,原本需要兩週的手板製作週期被極大壓縮。而對於內建AI機芯的智能玩具,朱健豪持謹慎態度,“AI應用在產品上反而是次要的,最佳化內部流程更重要。”朱健豪直言,“玩具一看到就要知道好玩在哪裡,複雜功能更適合遊戲。”在他看來,過度依賴技術可能削弱玩具的直觀吸引力,多數家長仍傾向為孩子選擇操作簡單、體驗純粹的傳統品類。給傳統文物上份“數字保險”港式飲食文化的黃金印記珍寶海鮮舫於今年3月份在被拖往東南亞維修的途中,沉入南海,自此成為港人的珍貴記憶。有此前車之鑑,同屬珍寶王國海上餐飲重要地標的太白海鮮舫啟動了“數位化”處理程序——通過數字孿生技術進行永久定格,以解決建築老化與營運壓力等物理保存難以為繼的問題。“這麼有紀念價值的地標,現在旅遊的人過來又看東西,可能明天就沒有了。我們現在用一個數位化把它變成是一個digital的方案。”聯想亞太區方案服務業務部AI解決方案高級經理明子豐表示。據他介紹,該項目採用“空-地”協同採集策略:無人機負責捕捉建築外立面的整體輪廓與光影變化,手機3D scanner則深入船艙內部,對木雕、壁畫等微觀結構進行毫米級記錄。“用我們自己的一個AIGC這種深層次的AI技術把照片變成是一個3D模型,在大語言模型其實是非常精確的,就是說可能到釐米級的一個3D模型。”模型最終部署於輕量化3D引擎,支援VR裝置直連與網頁端嵌入。技術團隊透露,該模型已通過API介面開放給旅遊平台測試,遊客未來可通過手機AR功能“走進”虛擬船艙,甚至與電影場景進行時空疊加。“以後比如說我們要再做其他的東西要把它放在最古的體驗或者是直接放到一個遊戲網頁裡面,其實都是可行的。”明子豐表示。數字模型不僅復刻了建築形態,更通過語義標註還原文化語境。使用者可點選特定區域查看《食神》拍攝場景的歷史照片,或放大觀察裝飾的細節。明子豐透露,不止是香港,數字孿生“復活”文物在東南亞也廣受歡迎,“他們都在發展這個東西,慢慢剛才提到的一些VR的體驗再慢慢會變得更普遍一些”。這種“採集-建模-應用”的標準化流程,為多元文化遺產保護提供了可複製範本。裝置門檻的降低正在加速技術普及,傳統3D建模需數十萬元專業裝置,而現在手機掃描+雲端AI處理的模式,使中小文旅機構也能負擔文化數位化工程。除了上述四家企業的AI落地深入交流,在DELF 2025 (2025 數位娛樂領袖論壇)現場,還體驗到了MateZ Lab 敦煌虛擬導覽《AI 敦煌有禮》及 HTC 巴黎聖母院 VR 體驗《永恆聖母院》等,AI在以更輕量化、可感知、可互動的方式走進普通香港市民的生活。正如香港財政司司長陳茂波於開幕致辭時所說:“在數位娛樂領域,人工智慧正為內容創作與體驗帶來變革。從自動化劇本編寫與音樂創作,到更智能的非玩家角色(NPC)及遊戲中的極致逼真的視覺效果,人工智慧不僅加快了製作流程、降低製作成本,更實現內容的個性化以更精準地迎合使用者的喜好。”可以說,AI技術正以"潤物無聲"的方式重構生活圖景:不仰賴天賦門檻的創作平權、在數字中實現永生的歷史文物……或許真正進入平常百姓家的技術革新不在於突破算力極限,而在於讓每個微小個體的情感與尊嚴,這些都成為文明拼圖中不可替代的碎片。 (鈦媒體)