#技術支援
豆包除夕AI互動19億次 Seedance2.0為春晚提供技術支援
字節跳動旗下AI助手豆包與央視總台春晚聯動,面向全國觀眾送出10萬份科技好禮,並推出多項AI互動玩法。豆包方面披露,除夕當天豆包AI互動總數達19億次。春節場景下的AI圖片生成、拜年祝福等玩法吸引使用者參與。資料顯示,“豆包過年”活動在除夕幫助使用者生成超過5000萬張新春主題頭像、生成超過1億條新春祝福。今年是總台春晚歷史上第一次用AI驅動全民即時創作互動。據字節跳動統計,除夕當天,豆包大模型的峰值TPM(每分鐘token數)出現在21時46分,正是在春晚主持人宣佈用豆包進行第二輪互動之後。這一分鐘內,豆包大模型的推理吞吐量達到633億tokens。字節跳動旗下火山引擎通過算力靈活調配和系統深度最佳化,全程保障了豆包AI互動的穩定流暢。作為總台春晚獨家AI雲合作夥伴,火山引擎為春晚提供先進的多模態大模型和雲端運算技術支撐。最近火遍全球的豆包視訊生成模型Seedance 2.0,在發佈前就已用於多個春晚節目的視覺創作中。據火山引擎介紹,《馭風歌》節目希望動態演繹國寶級水墨畫,Seedance 2.0不僅精準保留了水墨畫的筆觸、墨韻,還完成了一系列高難度的運動與鏡頭調度,保證馬匹奔跑動作生動自然的同時,也維持了原作的力量感與節奏感。在《賀花神》節目中,該模型又展現了極致的細節把控能力。在蜀葵花和金魚的製作中,Seedance 2.0為每位演員定製了“一月一人一景,一花一態一觀”的視覺奇觀,以“AI生成影像+實景舞台擴展”的模式,建構出一種全新的舞台視聽敘事結構。目前,Seedance 2.0和最新的豆包大模型2.0 Pro均已上線豆包App、電腦客戶端及網頁版。使用者可以通過“專家模式”和“Seedance 2.0”入口體驗。此外,火山引擎還通過多項AI技術為春晚舞台和抖音直播體驗賦能。通過空間視訊技術,《夢底》打造了演員3D數字分身同台表演的震撼效果,當鏡頭移動、現場燈光變化時,分身的視角和光影也會即時同步;春晚上亮相的多款具身智慧型手機器人品牌,均搭載了豆包大模型,實現自然生動的語言交流;同時,依託豆包語音模型,抖音春晚直播間首次上線了全程即時無障礙字幕,覆蓋了主持串場、相聲、小品等所有無原生字幕的節目,讓春晚的歡樂實現了無障礙傳遞。 (新華社)
蘋果,低頭了
2026 年 1 月,蘋果與Google確認達成合作,Gemini 將成為 Apple Intelligence 體系的重要技術支撐之一,並用於包括新版個性化 Siri 在內的多項系統級 AI 功能。這並不是一次簡單的 API 接入,而是涉及模型能力、雲端計算以及系統層級整合的深度合作。對外界來說,這個消息的衝擊力,甚至超過了很多具體功能本身:過去三年裡,蘋果在 AI 領域畫過的餅太多,但真正落地的成果太少。WWDC 上展示過的「更懂上下文的 Siri」「能跨應用執行複雜操作的 Siri」更是一次次延期,直到 2026 年,這些能力依然沒有完整交付。圖片來源:Apple而這一次,蘋果沒有繼續強調「完全自研」,而是選擇直接引入 Gemini 作為核心能力來源。更有消息稱,這個全新的 Siri 不久後就會在 iOS 27 的測試版中亮相。考慮到 Siri 和 Apple Intelligence 的畫餅歷史,雷科技對更智能的 Siri 始終持懷疑態度。而這次蘋果與Google的合作,至少說明了一件事——蘋果已經不再堅持「凡事都要自己來」了。Siri 也曾是先進技術的代表不過話又說回來,儘管國內使用者對 Siri 評價非常一般,但作為手機智能助手裡的「老資歷」,Siri 的誕生其實一點都不保守:2011 年,Siri 隨 iPhone 4S 正式發佈,是業內第一批被大規模推向消費級市場的語音助手。要知道在當時,語音互動還停留在指令式輸入的階段,Siri 已經開始嘗試提供語言理解、上下文關聯和服務整合。至少在那個階段,Siri 的出現是具備明顯前瞻性的。但問題在於,作為蘋果的技術產品,Siri 的發展路徑從一開始就被框在了一個保守的技術邊界內。蘋果很早就為 Siri 定下了幾個不容妥協的前提:優先保護隱私、儘可能在端側完成計算、系統行為高度可控。在傳統功能型語音助手時代,這套邏輯是成立的。因為當時的 Siri,本質上只是一個「語音入口」,負責把使用者指令轉譯成系統操作;但當 AI 進入大模型時代,更複雜的 AI 指令帶來了更大的算力缺口,Siri 也開始變得力不從心起來。與 AI 時代脫節不是「一日之寒」在雷科技看來,這種頂層路線的不合時宜,才是 Siri 在 AI 時代體驗「遙遙落後」的根本原因。首先,Siri 的模型規模與能力註定了它不可能好用。在大模型時代,聰明本身就是一種資源密集型能力。更強的理解力、更自然的對話、更複雜的任務拆解,本質上都依賴大規模模型和持續的雲端算力支援。圖片來源:Apple而蘋果在這件事上,一直保持克制:一方面,蘋果希望把 AI 能力儘量壓到端側,減少資料外流;另一方面,蘋果在自建雲端算力上的節奏,也明顯慢於Google、微軟這樣的雲服務原生廠商。這導致 Siri 背後的模型規模長期受限,能力提升緩慢,而使用者對 AI 的期待,卻在 ChatGPT、Gemini 等產品的推動下迅速被拉高。其次,是組織和人才的問題。過去幾年裡,蘋果 AI 團隊的人員流動並不小。從公開資訊來看,不少原本參與核心模型研發的工程師和管理層,陸續被 OpenAI、Google、Meta 等公司吸納。這種流失並不罕見,但在一個高度依賴長期積累的領域,會直接影響研發節奏。更不用說蘋果內部的保密文化對 AI 人才的限制了。在 AI 時代,任何一個技術突破都能在短時間內形成論文、成為研究人員的光鮮履歷和跳槽時的底氣。但在蘋果的保密文化下,除了極少數頭部負責人有在公眾面前露面的機會,大多數研究員都無法將技術與自己掛鉤。在這樣的文化背景下,蘋果 AI 團隊成員接連出走已成必然。而蘋果與 Google、Meta、OpenAI 等巨頭之間的能力差距,也逐漸消耗了外界對 Apple Intelligence 的耐心。能滿足蘋果條件的 AI 模型並不多當然了,蘋果也嘗試過自救,比如講 Apple Intelligence 接入 ChatGPT。但在雷科技看來,對蘋果來說,與Google合作確實是一個更合適當前局面的選擇。首先,OpenAI 的模型能力很大程度上依賴微軟 Azure 的算力。如果蘋果選擇深度繫結 OpenAI,實際上等於在核心 AI 能力上間接受制於微軟,這顯然不符合蘋果一貫強調的獨立性。而Google不僅擁有 Gemini 這樣的自研模型體系,同時也具備成熟的全球雲基礎設施,以及長期服務 Android 與 Pixel 裝置的經驗。在「如何把大模型穩定地嵌入移動系統」這件事上,Google是少數有實戰經驗的公司之一。圖片來源:Google其次,是多模態能力的契合度。Siri 的下一步顯然不是「更會聊天」,而是要理解螢幕、理解應用狀態、理解使用者正在做什麼。這種高度依賴多模態理解的能力,恰好是 Gemini 的強項之一。從這個角度看,Gemini 並不是來「替代 Siri」,而是成為 Siri 背後的理解層和推理層。當然了,既然是雙方合作,那Google的合作態度也非常重要。根據已披露的資訊,Siri 背後的 Gemini 並非直接運行在Google公有雲上,而是被部署在蘋果自建的私有雲端運算體系中。這意味著蘋果依然可以控制資料路徑,維持其隱私敘事。而像 Gemini 這樣同時滿足「模型能力」「雲算力」「隱私控制」這三點的合作方,確實不多。Gemini 能讓蘋果回到 AI 一線嗎?從能力上看,Gemini 的引入,確實有機會補上 Siri 在理解力和執行力上的短板。更複雜的指令拆解、更自然的上下文延續、更穩定的跨應用操作,都是現階段 Siri 明顯欠缺的能力。但這能否把 Siri 重新帶回 AI 助手的第一梯隊,雷科技認為 Gemini 的「藥效」還沒有這麼強。我們知道,AI 能力並不只取決於模型本身,「感知權限」同樣重要。如果蘋果想讓 Siri 重回一線,必然需要在系統層級,真正放權給 Siri。過去 Siri 的很多問題,並不是「不聰明」,而是「不能做」:權限受限、介面不開放、應用不配合,都會直接限制 AI 助手的實際價值。而對國內使用者來說,蘋果與Google的合作也讓 Apple Intelligence 國內落地的情況變得更複雜:Gemini 的引入,必然能為 Siri 帶來質變的提升;但海外模型國內落地的合規性依舊是一道無法繞過的門檻。在這個時間點切換模型,很可能會讓 Apple Intelligence 的入華工作清零。幸運的是,這種不確定性也為國內 AI 廠商創造了機會。圖片來源:豆包如果蘋果證明了一件事——系統級 AI 助手,必須依託頂級模型能力,那麼Android陣營的硬體廠商,也勢必會加快與頭部模型廠商的深度合作。無論是字節、阿里,還是其他大模型團隊,都會迎來新的談判空間。說到底,Siri 和 Gemini 的合作,其實也是蘋果在 AI 時代的一次路線修正。蘋果用直白的技術代差,證明了「有些事情自己真不一定能做」。說到底,iOS 27 能否真正補上那塊畫了三年的 AI 大餅,這個問題沒人說得準。但至少在 2026 年,蘋果終於站到了正確的道路上了。 (雷科技)