#openAI
螞蟻阿福、OpenAI,AI健康是不是好賽道?
前段時間,螞蟻阿福大規模宣傳的時候,我其實有點不理解。不是這個業務不行,而是國內也沒有對手,如此規模的宣傳,是否有必要。都沒有假想敵,演練什麼呢。結果,沒幾天,OpenAI也在ChatGPT裡增加了健康模式(Health),Google也要再次發力健康(Google對於健康一直唸唸不忘)。那麼,AI+健康,是不是好方向?有那些機遇和難點?1、AI健康的to BAI在to B領域的應用,已經相對成熟了。用AI看影像,效率高、精準率高;用AI做藥物研發、發現新藥物,也已經是熱門應用。GoogleAlphaFold也越來越出色。所以,to B的應用是毋庸置疑的。接下來主要聊聊to C。2、AI健康 to C 的機遇傳統醫療面臨著“不可能三角”:低成本、高品質(專家水平)、高可及性(隨時隨地)。AI 健康會帶來一些改變。A、專家預診比如之前我治療幽門螺桿菌,第一次沒經驗,花了兩百多掛了專家號,排隊了兩個小時,結果進去一分多鐘就結束了。出了診室才想起來,為什麼不多問問專家。而如果有了AI健康,那麼就可以在就診之前,先多瞭解一些。也許就知道其實不用掛專家號,大家的方法都差不多。從這個角度看,AI 健康,其實是給普通人多一些預診資訊,不至於一頭霧水、或者遇到一些專業名詞也沒時間搞清楚。一定程度解決醫療資源的錯配問題,讓輕症不出門,重症不耽誤。當然,這一點,和傳統搜尋差不多。但是,因為阿福等產品,用了更專業的資料庫,所以效果會更好一些。而且多模態技術,支援看圖、看片、語音輸入等方式,使用便捷性也更高。另外,有些醫生,也可以基於大模型結合自己的資料,訓練更專業領域的大模型,讓患者先和模型交流,節省一些預診精力。所以,整體來說,解決了 成本+質量+高可及性的預診。但是,對於需要實際診療的資源而言,影響不大。B、個性化健康管理這一點才是AI 健康最有機會和想像空間的。畢竟,健康和醫療還不太一樣。健康是一個長期關注、維護的,而不是像疾病一樣“出事兒才想到”。市面也有不少手環之類,但傳統的健康建議是通用的(“多喝水”、“少熬夜”、“沒睡好”),用處不大(就像睡沒睡好自己還能不知道嗎)。所以,健康對於C端使用者而言,會有兩個痛點:一是個性、精準;二是隱私(比如有些狀況,甚至也不願意讓醫生知道,而希望自己能解決)。而AI則有機會給出個性化建議。比如,它不再說“少吃糖”,而是說:“根據你剛才吃的那個甜甜圈和你現在的血糖反應,建議你立刻快走15分鐘。不再是通用的健身教練,而是根據你昨晚的睡眠質量,動態調整今天的訓練強度。對於模型廠商而言,痛點是資料。如何採集到使用者真實的資料。所以,僅有一個應用,是不夠的。還需要有硬體端能夠採集到即時的、真正的資料。這也是Google為什麼一直希望做出可穿戴裝置、記錄使用者健康資料的原因。以我自己為例,如果能早一點知道腰部壓力已經很大了,早點有對應的措施,也許就不會等到腰間盤突出了才想起來鍛鍊。從應用場景而言,健康經營,一直是個好方向,但未必是一個好的商業賽道。3、AI 健康的問題A、核心壁壘在沒有AI之前,我一般會下載默沙東健康詞典,有時候會對應看看問題。大部分健康醫療問題,都是有標準化資料的。從這個角度而言,如果資料庫不是排他、獨享的,那麼其他模型要追趕並不難。也就意味著,從能力角度,壁壘不高。B、如何從諮詢預診跨越到診斷大模型是機率預測,也就意味著幻覺,是一個數學問題,幾乎無法避免。如果使用者因為聽從了AI的建議,而遭受健康損傷,該如何界定責任?所以,大部分C端應用也只能做健康諮詢,不敢也不能介入醫療診斷。而如果不介入醫療診斷,也就意味著,還是不能解決醫療最核心的痛點。C、商業化難點中美健康管理是有一定差異的。美國醫療費用的高昂,導致健康管理也具備一定的商業化基礎。使用者願意付費來管理健康,避免疾病的重大支出。而國內,健康管理的意識、付費的意願,相對都比較低。所以,付費難度較大。D、使用頻率如果是疾病預診、諮詢,對於單個使用者而言,其實是一個很低頻的應用工具。低頻,也就意味著商業化方式更少了。健康管理是一個高頻場景,但缺少硬體介入、缺少日常更新的資料,也會導致成為一個低頻的場景。E、使用者獲得感知道不等於做到。即使一位真實醫生告訴你,要減肥、要鍛鍊某個部位,使用者未必都會聽。更何況是一個AI。也許過不了一周,使用者就會關掉AI的每日提醒、互動。所以,如何設計產品,讓使用者真的願意用、願意聽,更加核心。整體而言,面向C端的AI健康/醫療,在國內,依然是叫好不叫座。其公益性的社會意義也許更大。比如,可以幫助三四線的醫生,作為他們的助理,來看病,提高醫生的知識儲備、以及工作效率。對於產品而言,能在細分領域,獲得使用者認可、也讓使用者有獲得感,也許比通用型,更有效。 (董指導研究)
115萬片晶圓,決定2026年的“晶片戰”,蘋果、聯發科、OpenAI火線入局
“未來六個季度資料中心收入5000億美元。”黃仁勳在GTC25上說。2026年1月6日開幕的CES 2026,老黃又宣稱90%的ASIC項目會失敗,這實際上是對此前GoogleTPU為代表的ASIC晶片(專用積體電路)的口頭“討伐”,一場針對ASIC的全面圍獵已經悄悄開始。很多人會關心,GPU、ASIC競爭的終局如何?答案是取決於半導體戰爭的終極彈藥庫——台積電CoWoS先進封裝產能。這意味著,只要對台積電CoWoS產能預訂、分配情況,進行顆粒度拆解,就能精確測算出2026年AI算力晶片的出貨格局。可以說,2026年“晶片戰”,繫於台積電115萬片CoWoS晶圓產能。GPGPU與ASIC陣營對壘,圖片由AI生成01戰爭的起源我們先對GPU和ASIC的戰爭背景做一些鋪墊(有行業基礎可跳過本部分)。人工智慧對算力的需求擴張是共識,但必須明確:更先進的計算架構、工藝製程和先進封裝,是三個關鍵路徑。關於架構,談到最多的是GPGPU(通用圖形處理器),輝達在這條路上,借助CUDA生態的20年鋪墊,成為通用平行計算的絕對王者。硬體層面,輝達的核心武器有兩個:HBM記憶體極高的頻寬、GPGPU大規模流處理器陣列。從H200、GB200到2026年1月推出的“Vera Rubin”,都是這條路徑的產物,性能提升直接與視訊記憶體頻寬、NVLink互連規模掛鉤。GPGPU之外,以GoogleTPU為代表的ASIC晶片,探索出了另一條更精準、定製化的架構——雲端推理側的負載日益固化,為特定演算法(如Transformer)定製的ASIC晶片,能夠展現出碾壓級的能效比,即每瓦性能和總擁有成本(TCO)優勢。Google的TPU、亞馬遜的Trainium都是這條路徑的先鋒。博通、Marvell、Al chip等設計公司,正是通過為這些雲巨頭定製ASIC晶片,撕開了AI晶片兆市場的一道口子。相比架構競爭,工藝製程這條路徑顯得更好理解,從7nm、5nm、3nm到2025年底量產的2nm,每一次製程躍進都意味著電晶體密度和能效的提升。不過,工藝製程是一條高門檻的路徑:進化速度越來越慢,成本越來越貴,2nm晶圓代工價格高達3萬美元,入場費已非所有玩家都能承受。此外,工藝製程的微縮還將面臨“功耗牆”和“儲存牆”。架構、製程之外,第三個關鍵路徑是先進封裝,以CoWoS(Chip on Wafer on Substrate)為代表的先進封裝是台積電為高性能計算打造的“皇冠上的明珠”。CoWoS封裝概念圖,來源:台積電CoWoS的精髓在於異構整合,將多個小晶片,例如計算芯粒(GPU/ASIC核心)、高頻寬記憶體(HBM)、I/O芯粒等,通過中介層進行超高密度、超高頻寬互連,整合在一個封裝內。表1:CoWoS中介層面積變化趨勢這種方式可以突破單晶片光罩(掩範本)尺寸限制,中介層面積當前可達2800mm²,直接好處就是電晶體更多,HBM視訊記憶體更高。另外,由於CoWoS採用了矽中介層,上面的微凸塊(μBump)間距極小,芯粒間通訊頻寬激增,延遲和功耗大幅降低。正因如此,無論是追求極致性能的輝達GPU,還是追求最佳總擁有成本的雲巨頭ASIC,但凡涉足頂級AI算力,都離不開CoWoS。所以,在2026年這個時間點上,當製程進入2nm深水區,成本高企,架構路線出現根本性分叉時,CoWoS先進封裝的產能分配,就成了決定算力版圖的最關鍵變數,沒有之一。02產能圖譜:台積電CoWoS的供給格局表2:台積電CoWoS產能爬坡情況從我們掌握的情況來看,過去三年,台積電CoWoS產能一路從單月12K晶圓,逐步爬升至2025年底的80K/月,2026年年底的預估目標是120K/月左右。取一個全年有效平均值:96K/月,即2026年台積電CoWoS總有效產能約為:96K/月 × 12個月 = 1150000片晶圓,這是AI晶片戰的總彈藥基數。產能分配原則這1150000萬片晶圓如何分配,背後是一場基於技術、商業、地緣的複雜棋局。按照優先順序,輝達作為CoWoS最早期、最大膽的共同定義者和投資者,其架構(如NVLink)與台積電CoWoS工藝深度耦合,毫無意外可以拿到最多。按客戶層級,由於 蘋果、輝達、AMD是台積電前三大VVIP級客戶,其巨額預付款和長期協議鎖定了基礎產能。不過,蘋果要到2028年才有自研AI晶片。另外,博通、Marvell因承接Google、AWS、Meta等雲巨頭天量ASIC訂單,已躋身頂級VIP客戶行列。另外,對台積電來說,除了ASIC以外,AMD、英特爾乃至中國客戶,都是制衡輝達、分散客戶風險的重要力量,也會分得一部分產能。產能分配明細總體來看,產品需求最旺、單價最高、技術最領先的輝達有望拿到其中近60%的產能;AMD的預定量在90K左右,佔比接近8%,相比2025年有64%的增量,增幅幾乎與輝達一致。當然單一客戶CoWoS訂單激增,也包含了中介層放大的因素,但對於業績的貢獻必然是正面的。不過也要強調,更複雜、整合度更高的封裝(如整合更多HBM、更大中介層)初期良率較低,實際有效產出需打折。表3:CoWoS產能整體預訂和分配情況整個ASIC陣營,大致可以劃分為博通、世芯(AI Chip)、Marvell和聯發科幾家,其中博通是領頭羊。博通2026年預定量大幅增至200K,同比增122%,主要受GoogleTPU外供拉動,但博通主要負責TPU v6p以及v7p,偏向推理的v7e由聯發科負責,會在2026年下半年推出。未來TPU v8還是會遵循v7的模式,由博通與聯發科兩家下單CoWoS。博通的200K預定量,按客戶預訂情況大致拆分如下:第一大客戶GoogleTPU預計分得200K當中60~65%第二大客戶Meta的MTIA大約佔博通預訂量的20%左右第三大客戶OpenAI將於年底推出內部代號Titan晶片,台積電N3製程,預計佔今年博通預訂量的5-10%,2027年將達到20%+2028年,蘋果的AI ASIC晶片Baltra也將面世,目前由博通負責高速互聯,SerDes IP以及後端布線,預計2026年上半年進入流片階段。表4:ASIC陣營的CoWoS產能預訂和分配情況相比之下,由於AWS下一代Trainium 3轉單世芯(Al chip),Marvell顯得比較失意,主要客戶還是AWS的Trainium 2,好在新客戶微軟採用N3E製程的Maia 200加入,才避免了下滑,CoWoS預定量與2025年持平。世芯由於拿到了AWS Trainium 3訂單,CoWoS預訂量上升到60k,同比增加200%,大部分預定產能為N3製程的Trainium 3 Anita,加上Inferentia 2、微軟Maia 100以及少量的Intel Gaudi 3。Annapurna作為AWS的子公司,一直承擔AI ASIC開發任務,同時也向台積電直接預定CoWoS產能,Trainium 3的Mariana版本有別於Al chip的Anita版本,同時在台積電投片。聯發科是台積電2026年CoWoS的新進客戶,目前已調撥大量人力支援ASIC業務——未來將成為聯發科的重點類股——2026年下半年主要承擔側重推理的TPU v7e的出貨,並在2027年作為出貨主力年,同時2027年將疊加TPU v8e的訂單,有機會出現600%的CoWoS同比增幅。根據我們瞭解到的情況,聯發科目前已將AI ASIC視為未來核心業務,作為行業巨頭,其佈局AI晶片將很大影響目前ASIC設計的行業格局。剩下的台積電CoWoS客戶的量級都小於1萬片,其中微軟自研ASIC Athena的早期設計與流片還是微軟自己的團隊在小批次推進中。有了產能的分配資料,基於矽中介層面積,大致就能算出來,2026年,各家能夠出多少顆GPU/ASIC晶片。我們假設輝達的660000片晶圓當中,10%分配給Hopper架構,即6.6萬片,按單片切29顆來計算,預計今年整體H200的產出量可以達到190萬顆。回看整體台積電整體產能分配,拿下總共75萬片CoWoS產能的GPGPU陣營(NV+AMD),在面對還只有37萬片產能的ASIC陣營時,還是擁有絕對的火力優勢,甚至輝達一家的火力就超過全球其他企業的總和。03算力、營收:GPGPU具備碾壓優勢CoWoS是一個關鍵變數,但僅比較CoWoS還是會誤判戰局——不同的封裝方案,比如single-die以及dual-die方案,將導致中介層面積出現很大的不同。以Hopper為例,由於採用single-die,一片CoWoS晶圓可以切29顆,到了Blackwell由於採用dual-die方案,每片晶圓只能切14顆。所以,台積電CoWoS的產能增幅,不能單純定義為AI晶片出貨量的增加,也要考慮CoWoS矽中介層面積不斷放大的增量。從CoWoS到SoW,光罩面積及中介層變化,來源:台積電前面表1有提到,矽中介層面積越來越大的變化趨勢,是AI晶片明確的技術路線,目前中介層面積是光罩面積的3.3x,2026年的Rubin將提升到是4~5.5x,而2027年4-die合封的Rubin Ultra將達到9~9.5x。因此,以CoWoS的產能(消耗面積)增、減幅度來計算企業營收增、減幅度更為準確。所以,這場AI晶片戰爭的主導因素,除了要看誰消耗了更多的CoWoS產能,也要看誰貢獻了更多的算力,以及誰創造了更多的營收和利潤。算力維度的比較非常直觀,一顆輝達B300的FP8算力達10PFLOPS,而一顆定製推理ASIC的算力可能僅為其幾分之一,即便是最強的TPU v7p也只有輝達B300的一半,這沒有將今年要推出的Rubin考慮在內。就在2026年1月6日開幕的CES上,老黃說Rubin的性能比Blackwell在推理提升5倍,訓練提升了3.5倍,言外之意是GPU與ASIC的性能差距並沒有縮小。從算力維度可以得出結論——即使CoWoS切出來的晶片顆數接近,GPGPU陣營的總算力很可能仍大幅領先,這是GPU通用架構的“蠻力”優勢——來自CoWoS消耗面積(電晶體)的多寡。價值維度的比較則更為殘酷,輝達單顆GPU售價高達3萬美元以上,未來會提升到4-5萬美元。雲巨頭自研ASIC晶片的“成本”即便與GPU接近,“內部結算價”肯定賣不到GPGPU的市場價格。以Anthropic向博通採購210億美元的100萬顆TPU為例,扣除伺服器等諸多配置,單顆對外售價在1.5萬美元以下,不到輝達Blackwell系列的一半。結合算力和價值兩個點,可以更明確的得出結論——AI晶片是多維度的比拚,不單單比摩爾定律、比晶片工藝製程,還要比誰的面積更大,能放進更多電晶體,最終表現在性能上的差別,也決定了價格。輝達用60%的CoWoS產能,創造整個AI加速晶片市場70%以上的收入和90%以上的利潤,這才是文章開頭黃仁勳“6個季度,5000億美元”的底氣。04ASIC的本質:最佳化財務報表輝達的優勢,CUDA就不必說了,經常被忽略掉的是搭配的NVLink、NVSwitch所構成的系統級優勢,使用者買的不是晶片,而是一整套最強的“交鑰匙”解決方案。作為對比,ASIC晶片優勢在於,雲廠這類超大規模使用者,當其軟體棧完全自控且工作負載高度特化且穩定(如搜尋推薦、廣告排名、語音識別推理),自研能帶來極致的總擁有成本(TCO)最佳化。可以這樣說:AISC要講的故事——專用化換取“去輝達化”,最終最佳化財務報表。所以,能不能用ASIC的關鍵只有一點,規模(量)夠不夠大,沒有其他。首先,自研ASIC的資金、人力投入巨大;其次,便宜的TPU可不是買來就直接能用的,像Anthropic向博通採購210億美元直接採購GoogleTPU的方案,背後也需要配置一支極為強大的底層系統工程師團隊,並不斷進行深度遷移及適配。所以,僅僅開支這一項,也決定了ASIC只有超大型雲廠、超大規模企業才會使用,但即便是購買現成ASIC晶片,也就能拓展到Anthropic這體量的大模型企業,很難再往下了。再者,目前頭部AI叢集的功耗已從幾十千瓦邁向兆瓦級,未來晶片功耗將飆升至數千瓦,普通客戶無法承受這種規模。而且,在風冷已到極限,液冷(包括冷板、浸沒式)成為標配的背景下,資料中心的物理設計和最大叢集規模,都是必須綜合考量的因素。另外,GPGPU與AISC兩者的較量也不限於單晶片,基於CPO共封裝來解決“功耗牆”和“互連牆”,這種系統級的方案,以及華為的384顆NPU互連的CloudMatrix 384這種系統架構創新,也都至關重要。所以,CoWoS只是起點,更上層的互連網路(NVLink, CXL, UCIe)、光引擎(CPO)都是競爭的關鍵變數。而這些變數所需要的巨額資本支出,都不是小廠可以承受的。05終局推演:軍火商大贏家現階段輝達為代表的GPGPU(通用圖形處理器)市場,雖然部分被侵蝕,但隨著物理AI這些領域的推進,在可見的3-5年,輝達仍將統治AI訓練市場和高性能通用計算市場(訓練、新興應用、中小企業、科研)。但是,推理佔據未來AI算力實際消耗的大頭,且工作負載更固定,正是ASIC的用武之地,ASIC的勢頭只會越來越好。所以大家會看到,為了加固“護城河”,輝達斥資200億美元收購Groq,意圖將LPU融入自己的技術矩陣中。與此同時,輝達也在通過推出更細分領域的產品,如推理專用晶片、更靈活的訂閱模式(DGX Cloud)、以及更強大的系統級解決方案(如NVL144/288/576),來應對ASIC的“包圍”。目前的輝達依舊處於有利位置,依舊掌握著“AI晶片戰爭”的主動權,他們要解決的核心問題——市佔率與毛利的平衡。只要輝達不堅守極高的毛利率,願意犧牲毛利換取市場,他還是無堅不摧的王者。ASIC生態下,GoogleTPU外供,標誌著ASIC從“概念”和“試點”正式邁入“規模化部署”,其增長直接與這些雲巨頭的資本開支繫結。只要巨頭們持續投資AI基礎設施,且自研晶片的TCO優勢持續存在,ASIC晶片對CoWoS需求就會持續增長。博通,聯發科,Marvell作為頂級設計服務商將持續受益。很多人會關注,GPGPU和ASIC對CoWoS產能需求變化?從產品進化的角度來看,2026年的Rubin架構產品,率先採用5.5x光罩面積的中介層,2027年很快會推進到9.5x,ASIC產品的絕對性能沒有GPGPU那般極致要求,2026年預估也就在3.3x,甚至在2027年也大機率還如此。所以結論基本也是明確的:未來GPGPU對CoWoS產能的預定量會大幅度增長。而回到最終晶片的數量上,由於ASIC晶片的中介層普遍在2500mm²,單片CoWoS晶圓切出來的晶片數量,是GPGPU的兩倍,而GPGPU目前CoWoS預定量是ASIC的兩倍,所以今年兩種類型AI晶片的全球出貨量,也就大體相當。至於企業營收,那就與CoWoS出貨量成正比了,因為性能與面積(電晶體總數)成正比,同製程雙顆的dual-die性能必然高於single-die的晶片。所以,未來我們更可能看到的是一個 “GPU+ASIC”的混合算力世界:雲巨頭用輝達GPU進行前沿模型研發和訓練,同時用自研ASIC進行成本敏感的大規模推理部署。換句話說,這場戰爭並非一場你死我活的殲滅戰,而是一場持久且複雜的“劃界戰爭”。但不管兩種生態格局如何,作為這場晶片戰共同且唯一的“軍火商”,台積電坐擁CoWoS產能的定價權,將是無論那一方獲勝都不可或缺的終極大贏家。 (騰訊科技)
AI重構C端醫療
醫藥投資圈曾流行一種偏見,投資人普遍認為數字醫療是個偽命題。他們眼中的醫療需求存在一個“不可能三角”:低頻、高門檻、非標品。普通人不會天天看病,醫生需要十年培養,每個人的病歷都獨一無二。這導致網際網路醫療平台常年陷於買流量的泥潭——獲客成本極高,使用者留存極低。螞蟻阿福與OpenAI health打開C端AI醫療想像空間。然而,這一刻板印象正在被AI時代的資料洪流無情擊碎,C端的AI醫療需求實際上是極其驚人的,它一直都存在,只是過去缺乏一個足夠低門檻、低成本且足夠智能的互動容器來承接。當互動成本降至零,且反饋質量達到准專業級時,AI醫療這種沉默的剛需瞬間爆發了。在兩個AI超級巨頭的動作中看到了這種爆發,一個是中國的螞蟻集團,一個是美國的OpenAI。在中國,螞蟻集團旗下的“阿福”,其月活躍使用者數已在一個月內翻倍突破3000萬,單日提問量超過1000萬次。大洋彼岸,OpenAI於2026年1月7日正式推出OpenAI Health。OpenAI的資料顯示,全球每周有超過2.3億人次在ChatGPT上諮詢健康問題。這甚至發生在該產品推出之前,這種需求是溢出的,是迫切的。螞蟻阿福與OpenAI Health選擇單獨做一個入口,源於對C端醫療需求的精準把握。醫療資料的敏感性,它需要物理級的隔離,需要金融級的安全,需要讓使用者敢於把最隱私的病歷上傳。螞蟻阿福和OpenAI Health,正式確認搜尋引擎主導醫療資訊的時代結束了,智能體(Agent)接管個人健康的時代開始了。01. 螞蟻“阿福”的需求驗證2025年12月,螞蟻集團將旗下AI健康應用正式升級為“螞蟻阿福”。但隨後的資料表現超出了所有人的預期。在品牌升級後的短短一個月內,螞蟻阿福的月活躍使用者數從1500萬迅速翻倍至3000萬,日均使用者提問量突破1000萬次。這組資料背後隱藏著兩個關鍵的行業洞察。首先是AI對健康全鏈路生態的打通。螞蟻阿福不再僅僅是一個問答框,它打通了華為、蘋果、OPPO等十大品牌的智能裝置,將硬體資料與“健康小目標”結合,實現了從日常監測到線上問診、線下就醫的全鏈路覆蓋。它連結了全國5000家醫院和30萬真人醫生,讓AI不僅能“聊天”,更能“辦事”。其次是驗證下沉市場的巨大需求。資料顯示,阿福55%的使用者來自三線及以下城市 。在一二線城市,人們或許可以便捷地前往三甲醫院,但在醫療資源匱乏的下沉市場,人們極其渴望一個能夠隨時解答健康疑惑、且完全免費的“專家”。螞蟻阿福正是切中了這一痛點,它用AI技術填平了醫療資源分配不均的鴻溝,將低頻的嚴肅醫療轉化為了高頻的健康陪伴。02. OpenAI 的獨立入口邏輯2026年1月7日,OpenAI正式發佈ChatGPT Health。最引人注目的變化在於OpenAI決定:它將Health功能在側邊欄開闢了一個獨立的入口。為什麼要這麼做?核心邏輯在於大模型與隱私安全的衝突。OpenAI非常清楚,使用者在寫程式碼、寫文案時需要的是效率與創意,而在諮詢病情時需要的則是絕對的安全感與隱私保護。如果使用者擔心自己的病歷會被拿去訓練AI,或者擔心在演示工作時AI突然跳出關於隱私疾病的建議,那麼他們永遠不會把真實的健康資料交給AI。因此,OpenAI設計了一種近似物理隔離的架構。在儲存層面,Health空間內的對話、檔案與資料,全部與主介面分開儲存。Health擁有獨立的記憶系統,這些記憶絕不會“回流”到主對話中。這意味著,你在Health裡諮詢了心理疾病,轉頭去主介面進行程式設計演示時,AI絕不會洩露任何相關資訊。更關鍵的是,OpenAI明確承諾:Health中的對話資料不會被用於訓練其基礎模型。只有建立了這種信任,頂級醫療機構才敢與它合作,使用者才敢上傳自己的基因檢測報告。獨立入口,實際上是OpenAI為醫療AI建立的一道“信任防火牆”。03. AI醫療功能矩陣ChatGPT Health的野心遠不止於做一個聊天機器人,它試圖通過強大的生態連接,接管使用者健康的全生命周期。目前的醫療資料往往呈現極度碎片化的狀態,散落在醫院的電子病歷(EMR)、紙質報告、智能手錶的App以及各類垂直應用中。ChatGPT Health並未試圖自己去一家家醫院談介面,這在商業上是不經濟的。它選擇了一個關鍵的戰略合作夥伴——b.well Connected Health。b.well作為美國最大的即時聯網健康資料網路之一,基於FHIR標準建構了底層基礎設施。通過這一合作,ChatGPT Health得以解決大模型面對雜亂醫療資料時的“讀不懂”難題。使用者在Health中授權後,可以一鍵拉取自己在不同醫院的病歷,AI不僅能看懂結構化的化驗單,還能深入理解非結構化的臨床筆記與出院小結。除了靜態病歷,ChatGPT Health還通過Apple Health整合,接入了動態的生理體徵資料,這使得AI的建議具備了時間維度。當使用者抱怨“心悸”時,ChatGPT可以立即調取過去24小時的心率變異性(HRV)資料,結合使用者的既往病史,判斷這是否是需要立即就醫的緊急情況。此外,OpenAI還引入了Instacart、AllTrails等合作夥伴,打通了從“建議”到“行動”的最後一公里。AI可以根據你的代謝資料生成飲食計畫,並直接轉化為Instacart的購物清單;也可以根據你的體能狀況,在AllTrails上推薦合適的徒步路線。這種從資料匯聚到行動落地的閉環能力,正是AI Agent相對於傳統網際網路醫療的降維打擊。在12月更新的螞蟻阿福中,這些相似功能都有推出,並且進一步打通了從日常健康諮詢到線上問診、線下就醫的全鏈路服務,印證了東西方C端AI醫療需求的共性。04. AI醫療估值邏輯的重塑從螞蟻阿福到OpenAI Health,中美兩大科技巨頭的動作預示著行業競爭邏輯的根本性轉變。首先是流量入口的徹底重構。過去二十年,使用者獲取健康資訊主要依賴搜尋引擎,商業模式是基於關鍵詞的廣告競價。這種模式天然存在利益衝突,導致資訊質量良莠不齊。OpenAI Health代表了一種新的入口形態——對話式服務。如果使用者習慣了直接向AI索取基於個人資料的精準答案,WebMD、百度健康等傳統內容型平台的價值將被迅速稀釋,流量將不可逆轉地向擁有私有資料壁壘的AI Agent集中。其次是線下服務的價值重估。在AI時代,演算法本身正在變得廉價,算力可以購買,唯有真實世界的高品質資料是稀缺的,線下服務商將從單純的“人力服務者”轉型為“資料資產商”。最後是對“信任”的定價。OpenAI Health刻意強調的隱私隔離與不訓練承諾,實際上是在為信任定價。在AI時代,唯有信任是最昂貴的貨幣。使用者敢於將自己最隱秘的病歷上傳給OpenAI,是因為相信其隱私架構。這種信任將成為OpenAI Health未來商業化(如高級訂閱、保險合作)的核心溢價來源。未來的阿福或OpenAI Health,將是一個24小時線上、瞭解你一切生理資料、並能調動現實世界資源的超級健康管家,也成為了改變AI醫療生態的推動者。 (硬AI)
全球第二易主,Google逆襲登頂! OpenAI 500億股票池曝光,Ilya躺賺40億
【新智元導讀】剛剛,Google母公司成為全球市值TOP 2,市值已達3.885兆美元!在2026首個全球AI追蹤報告中,Gemini的市佔率也在瘋漲。被逼急的OpenAI,乾脆甩出500億美元的員工股票池,據說Ilya就分走了40億。今天,Google是捷報頻傳!就在剛剛,Google母公司Alphabet的市值超過蘋果,成為全球市值第二高的公司。Alphabet目前市值約3.885兆美元,略高於蘋果的3.846 兆美元。而輝達仍以4.595兆美元的市值遙遙領先,穩居全球第一。不僅如此,就在剛發布的2026年首個全球人工智慧追蹤報告中,Gemini的勢頭兇猛,ChatGPT開始狂跌。可以看出,從12個月前到現在,各家AI產品的攻守之勢開始轉換。 Gemini的市佔率已經超過了20%,而ChatGPT則跌破了65%大關。外媒紛紛發文按讚Google:它已經逆轉頹勢,把OpenAI踩在腳下了!市值反超蘋果谷歌重奪全球第二可以說,Google市值重回全球第二,這是它應得的。自去年夏末以來,谷歌的股價就持續走高。當時,一名聯邦法官裁定谷歌在搜尋業務中構成非法壟斷後,僅施加了相對較輕的處罰。這結果,就大大緩解了市場的擔憂情緒。而最近谷歌在AI領域的勇猛表現,證明它已經徹底追趕上OpenAI,讓投資人信心大增。2025年,Google股價累計上漲了65%,成為大型科技股中表現最好的公司;今年以來,它股價又持續上漲了2.9%。相較之下,蘋果股價表現明顯遜色。 2025年全年僅上漲8.6%,今年以來則下跌4%。這也是資本市場在用真金白銀投票:在AI定義的未來,Google顯然比蘋果更有想像。谷歌聯創謝爾蓋·布林(右)在年度開發者大會上與DeepMind部門負責人Hassabis交談一張流量圖,讓OpenAI拉警報如開頭所言,Similarweb的這張流量對比圖,揭示了一個讓OpenAI極其危險的信號——AI競賽的風向,變了!自去年11月Google發布Gemini 3 Pro:ChatGPT網站流量驟降,Gemini的網站流量快速上升。去年12月,Gemini的流量較上季成長28.4%,ChatGPT的流量則較上季下降5.6%。Menlo Ventures合夥人Deedy Das指出這組數據後,引發了科技圈的廣泛討論。顯然,使用者註意力,正在發生邊際轉移。雖然根據Similar Web的數據,12月各大AI網站的訪問量中,ChatGPT仍然穩居第一,但真正值得警惕的卻是增長率差異。從成長速度來看,ChatGPT為49.5%,Gemini達到了瘋狂的563.6%!這就意味著,Gemini正在經歷一個典型的「追趕爆發期」,而ChatGPT的成長已經在放緩。顯然,Gemini 3和Nano Banana發布後極高的市場評價,撬動了整個局面。不過,更讓OpenAI感到壓力的,是Google的結構性優勢。Google真正的王牌,不是模型,而是入口。它相對OpenAI的最大優勢,就是幾乎所有人都在用谷歌——搜索,瀏覽器,Android,Workspace,而Gemini可以無縫嵌入這些高頻場景。上面這張流量圖昭示出:AI競賽,已經進入第二階段。從前比拼的是模型能力,而現在,比的就是入口、產品型態和使用者習慣。2025,Google成功逆襲在曾經的AI熱潮中,保守的谷歌似乎是節慶敗退。很少有人預料到,Google會在2025年完成一場漂亮的反擊——用多年累積的科學研究基礎和數十億利潤,不斷砸向AI研發;Google大腦與DeepMind兩大研究組織合併;Nano Banana掀起全網熱潮;Gemini 3,直接擊敗OpenAI的最強旗艦模型。全端整合能力,讓Google從資料中心、TPU晶片到產品級生態都全面領先;搜尋、瀏覽、地圖、郵件等入口,讓它深度連結日常生活場景。這背後,是Google多年沈澱的技術與生態實力,短期內很難被那個實驗室追上。接下來,就是一場生態、流量與人類注意力的戰爭。OpenAI被逼急豪擲500億美元給員工眼看自己就要被落下,OpenAI最近也是乾脆拿出最後一招──砸錢搶人!外媒The Information爆料,OpenAI 在去年秋天悄悄預留了一筆高達500億美元的員工股票授予池,占公司總股本的10%。以當時5000億美元估值計算,這是一筆真正意義上的「天價激勵」。500億美元,是什麼概念?注意,這筆錢可不是「未來可能值這麼多」,而是已經按估值算清楚、直接劃出來的股票池。形式是受限股票單位(RSU),使用周期約5年,並且隨著估值上漲,理論上還會繼續升值!可以說,放在整個科技業裡,這個數字都極不尋常。例如Meta吧,它在2020年到2025年底,整整五年時間裡,用於股票薪酬的總支出才是660億美元。然而,Meta年營收可是OpenAI的15倍。真金白銀套現你或許認為,這500億美元只是在「畫餅」?更爆炸的來了:截至目前,OpenAI已經向員工發放了約800億美元的已歸屬股權。而且光是去年,員工就賣了約100億美元的股份!注意,這些可是已落袋的真金白銀。對於一家成立只有10年的公司,這種體量的員工套現,在整個科技史上,都極為罕見。去年秋天,OpenAI完成了一次關鍵的公司架構重組:將包括微軟在內的利潤分成單位,轉換為傳統意義上的股票。這次重組完成後,已歸屬員工股權(約800億美元)及未來員工股票授予池(500 億美元),合計占公司股份的26%。也就是說,在一次重組之後,員工拿走了26%的公司。Ilya身價曝光:40億美金而且,這還沒完。目前,OpenAI正在和投資人談判新一輪融資,融資規模最高1,000億美元。如果交易達成,這500億美元的員工股票池,將立刻水漲船高。公司內部也預測,到2030年,每年的股票薪資支出將接近210億美元!為什麼必須燒這麼多錢?原因就是,人比算力更稀缺。在通往AGI的路上,缺的不是GPU,而是能設計下一代模型架構、突破Scaling Law邊界的人。去年,Meta用「天價薪酬+ 巨額股權」從OpenAI和其他公司挖走多名核心研究員,光是簽約獎金和激勵就花了數億美元。而OpenAI聯創、前首席科學家Ilya在2023年底,就持有約40億美元的已歸屬股權。這個時代,頂尖研究員可不只是員工,而是自備估值的資產。當然,OpenAI的投資人心頭卻籠罩著陰影。原因在於,它還在每年燒掉數十億美元現金。其實OpenAI這套打法,本質上是在賭一件事:只要能搶到最頂級的人,稀釋、虧損、燒錢,統統都可以先放一邊。在AGI的競賽裡,輸掉人才就是提早出局。這場戰爭不是什麼「百萬年薪」的問題,起價,就是500億美元。(新智源)
【CES 2026】OpenAI、李飛飛同台,Lisa Su:AMD AI 晶片走到關鍵一步
2026 年 1 月 5 日,CES 開場。AMD 董事長兼首席執行長 Lisa Su 站上主舞台,沒有任何鋪墊,直指本質:AI 是過去 50 年最重要的技術。但她這次不是來講遠景的,而是帶著完整方案來的。不只是晶片,而是一整套工業級平台:面向資料中心的 MI455X,3200 億電晶體;面向企業部署的 MI440X,主打推理與節能;還有她這次主推的 Helios,為 Yotta 級 AI 時代打造的機架級平台。這不是在升級顯示卡,而是在重新劃出一個產業分界線。為了證明這不僅是 AMD 自說自話,Lisa Su 請來了一批頂級 AI 使用者同台背書:OpenAI、World Labs、Luma、Liquid、Absci 等行業領軍者,現場展示他們如何將核心業務部署在 AMD 平台上。更關鍵的是,Lisa Su 還預告了下一代 MI500 系列將在 2027 年登場,四年內性能增長 1000 倍。第一節:Yotta 級算力缺口,逼出新的產業邏輯過去一年,AI 模型變得更聰明了,但對算力的需求也更大了。2022 年全球 AI 運算需求是 1 Zettaflop,2025 年預計要超過 100 Zettaflops,Lisa Su 給出的預測更為大膽:未來五年,全球算力要再提 100 倍,邁向 10 Yottaflops。Yottaflop 是什麼概念?一個 Yottaflop 是 1 後面帶 24 個零,是現在全球算力的上萬倍。 這就像過去幾十年所有計算升級的總和,需要在五年內完成。這預示著未來 AI 應用將全面爆發:生成視訊:一個 10 秒視訊動輒十萬個 token,遠超文字模型;多模態智能體:不僅看圖、寫文、識音,還要自動調度工作流;企業部署:每個公司不再只要模型,還得有配套的開發工具和本地 AI 支援。這一趨勢在 OpenAI 總裁 Greg Brockman 那裡得到了資料印證:推理量兩年激增 100 倍的現實,讓“人手一個後台 GPU”的願景受困於基建短板。模當大模型從“嘗鮮”變成“常駐”,算力系統面臨的考驗也隨之升級:它不再需要為了跑分而生的短跑冠軍,而是需要能長期線上、安全維穩的馬拉松選手。這迫使晶片廠商重新思考產品形態:不是做出最強一顆晶片,而是建構起能支撐 AI 工業化的全套基礎設施:每個托盤能承載多顆 GPU、CPU、NPU 協同工作;每個機架能無縫擴展為成千上萬個單元的 AI 工廠;網路、記憶體、冷卻、供電都得為高密度、低延遲重構。這就是 AMD 推出 Helios 架構的核心思路:不靠一顆 GPU 單打獨鬥,而是打造一套可規模部署、長期線上、靈活適配的 AI 基礎設施。每個 Helios 機架擁有:超過 18,000 個 CDNA 5 GPU 計算核心;4,600 多個 CPU 核心;31TB HBM4 高速視訊記憶體;每秒 2.9 Exaflops 的運算能力。它不再是晶片堆疊,而是 AI 工業化的生產線。這一節,AMD 沒在講性能天花板,而是定了一個新基礎:如何讓 AI 成為真正能用、高性價比、工業級穩定的算力系統。第二節:Helios 不是最強機器,是能量產的標準件這次 CES 上,Lisa Su 發佈的不是一塊晶片,而是一整個計算工廠。舞台上,AMD 首次展示了 Helios,一個重達 3 噸的機架級計算平台,專為 AI 工業化設計。Helios 的三個關鍵詞:1、整合每個計算托盤,包含:4 塊 MI455X GPU,搭載 3200 億電晶體、432GB HBM4 高頻寬記憶體;1 顆 Venice CPU,擁有多達 256 個 Zen6 核心;1 顆 Pensando 網路晶片,負責資料流通。托盤之間通過 Ultra Accelerator Link 相連,72 塊 GPU 在一個機架內協同工作,形成統一的計算單元。而托盤 + 冷卻 + 電力 + 網路 + 算力調度,全都打包到一個整機裡。 不是一堆零件,而是一個能直接投產的 AI 工段。2、模組化Helios 沒選封閉架構,而是用的 OCP(開放計算項目)標準。每個元件都能替換、升級、擴展。更像一個搭積木的系統,而非一次性封裝的黑盒。這對大型 AI 公司很關鍵,模型還在快速進化,不能每次都從頭再建一套資料中心。Lisa Su 給出了 Helios 的定義:不是做一台最強機器,而是做一個能量產的算力範本。3、效率Helios 全液冷,能在高密度負載下保持穩定。每個機架配有 31TB 視訊記憶體,機架內部頻寬達 260TB/s,對外連接頻寬 43TB/s。AMD 還專門強化了 ROCm 軟體棧,能相容主流開源 AI 框架,如 PyTorch、vLLM、SGLang。開發者無需改程式碼就能上手。相比之下,NVIDIA 的 DGX 系列更強調整體性能,而 Helios 更注重模組化和開放性,是為整個行業打造的通用標準件。Lisa Su 不想讓客戶適配 AMD,而是要讓 AMD 適配客戶。這不是單機性能的發佈,而是一次架構觀的轉變。OpenAI 用 MI455 加速推理;Meta 和 AMD 聯合設計 Helios 架構;主要雲服務商正在將 Helios 納入新一代 AI 基礎設施。Helios 不再是一個產品,是下一輪 AI 工業化的最小構件。AMD 在發佈一個能複製的生產線,一個可以為 AGI 世界裝配的底層模組。第三節:OpenAI、Luma、李飛飛,為什麼選 AMD這次 CES 舞台上,AMD 不是在跟隨競爭,而是在定義新標準。過去兩年,大模型發佈節奏越來越快,但 AI 真正運行的地方,已經不是發佈會,而是後台:Greg Brockman:我們正從單純的被動問答,進化為自主執行複雜工作流。未來每個人都將擁有背景執行的 10 個智能體。那不再是臨時呼叫 AI,而是 AI 全天線上,背後對推理晶片提出了全新壓力。1、智能體不是概念,已經在現場運行了AI視訊公司 Luma CEO 的回答更有說服力:一段視訊模型推理 10 秒,Token 數量能達到 10 萬個。他們已經把模型部署到生產線上:一年時間內,Luma 有 60% 的推理負載遷移到了 AMD 平台;大模型只是起點,接下來的任務都是智能體結構;這些智能體不僅是回答問題,而是能修改世界、編輯視訊、自動創作一整部電影。而當這些任務真正落地時,GPU 的經濟性變得比絕對性能更重要。2、 Liquid AI:AI 的下一個入口,是主動助手MIT 孵化公司 Liquid AI 聯合創始人 Ramin Hasani 在正式推出兩款核心產品:一個是 LFM 2.5:12 億參數的小模型,在本地裝置上完成指令跟隨,在指令遵循能力上超過 DeepSeek 和 Gemini 2.5 Pro;另一個是 LFM 3:能聽、能看、能說、能即時翻譯的多模態助手,延遲低於 100 毫秒。這不是在雲上訓練模型,而是直接在筆記本本地運轉,持續監聽、協助使用者。Ramin 說:“現在,不是人類在召喚 AI,而是 AI 在默默為你做事。”這對晶片的要求,已經從模型規模大小,轉向部署速度、離線能力和功耗控制。3、 李飛飛帶來第三種維度:空間智能 + 世界建模World Labs CEO 李飛飛展示了另一種“AI 互動的新範式”的可能性。只需一張普通照片,模型就能還原完整 3D 空間,不只是識別房間,而是“建立世界”:將圖片輸入模型後,可以生成多個 3D 結構版本;即時拖動、編輯、重建世界細節甚至能把拉斯維加斯威尼斯人酒店的一張圖,生成可遊覽的完整空間世界。李飛飛強調:“人類的理解從不是文字開始,而是空間與動作。真正通用的 AI,必須能理解物理世界。”而空間智能的落地,需要高頻寬、低延遲、大記憶體、高並行,這些需求不是傳統圖形處理可以滿足的。三個案例,指向同一個趨勢: Luma 看重成本,Liquid 看重即時性,World Labs 看重大記憶體。這意味著算力競爭的邏輯變了:從比拚參數,變成了比拚體系。AMD 正在將硬體重塑為 AI 的“作業系統”,成為支撐萬物智能的算力底座。第四節:從雲到端,AI 落地的最後一公里如果說 Helios 是主電站,那麼接下來的問題就是:電怎麼輸送下去,怎麼在每個終端點亮。AI 要無處不在,需要把算力帶到雲端之下的每一層。個性化、現場化、連續性,是這個過程的三個關鍵詞。從醫院、工廠、學校,到你桌上的那台電腦,AI 要進入真正複雜的人類環境。1、從 AI PC 到 Halo:把 AI 帶到桌面過去兩年,大語言模型幾乎都在雲上運轉,但這帶來兩大問題:成本高,每次呼叫都要顯示卡費用;延遲長,每次問答都要聯網。AMD 推出 Ryzen AI Max 和 Halo,就是要把 AI 搬到本地。Ryzen AI Max 配備 128GB 統一記憶體,能在本地運行 200B 參數模型,讓創作者和開發者可以在工作站上直接部署 AI 工具。性能上,它在高端筆記本場景超過 MacBook Pro,在小型工作站場景以更低價格達到 NVIDIA DGX Spark 的性能,運行 GPT 開源模型時每美元每秒生成的 Token 數是後者的 1.7 倍。Halo 則是世界最小的 AI 開發機,手掌大小卻能運行 200B 參數模型,預裝 ROCm 軟體棧,專為開發者和研究團隊設計。關鍵技術是 AMD 把 CPU、GPU 和 NPU 做成統一記憶體架構,三者直接共享資料。這意味著你在筆記本上呼叫 Copilot、摘要會議、編輯視訊,都可以完全離線完成。2、醫療:AI 已經在救人OpenAI 總裁 Greg Brockman 講了個假期真實案例:有人腿疼,醫生初診說沒事,回家用 ChatGPT 輸入症狀,建議立即回醫院。結果是嚴重血栓,如果沒有 AI 提醒可能致命。醫療行業已成為 AI 落地最快的領域之一。現場三家公司展示了實際應用:Absci 用 AI 從零設計新藥,使用 AMD MI355 單日篩選超過 100 萬種候選藥物,攻克脫髮和女性健康疾病。Illumina 每天產生超過 YouTube 的測序資料量,用於癌症早篩和精準醫療,系統使用 AMD EPYC CPU 和 FPGA 即時處理。AstraZeneca 大規模使用生成式 AI 設計分子、篩選藥物,候選藥物交付速度提升 50%,臨床成功率也在提高。這些公司把 AI 當作主力工具,而不是在試水。3、工業機器人:邊緣 AI 的觸覺協作Generative Bionics 創始人 Daniele Pucci 帶來了人形機器人 Gene One。它能感受人手的力度、方向和協作意圖,這背後是觸覺反饋和即時決策能力。AMD 提供了完整算力路徑:機器人本體用 Ryzen AI Embedded 和 Versal Edge 晶片,模型訓練用 MI 系列顯示卡,多機協作靠 Pensando 網路晶片。邊緣裝置的 AI 不能等待聯網,必須本地決策、立刻響應。這就是 AMD 從雲到端的連續計算結構。4、新興場景:不能等、不能斷、不能慢除了雲端和邊緣,AI 正向更多新興場景滲透。空間智能、機器人導航、虛擬世界建構,都需要高頻寬、低延遲、大記憶體和即時響應。這些場景的共同特點是:不能等,不能斷,不能慢。5、AI 落地的未來:從標準晶片變成場景原生平台這一整輪發佈,其實是 Lisa Su 帶領 AMD 轉型的路線圖。在雲端,Helios 機架、MI455 顯示卡和 Venice CPU 構成了大規模訓練與推理的基礎設施,服務 OpenAI、Meta 等頭部 AI 公司。在企業級,MI440X 和 MI430X 提供更高精度的計算能力,專門面向主權 AI 和超級計算場景,滿足科研機構和政府部門的需求。在開發層,Ryzen AI Max 和 Halo 讓開發者能在本地進行模型開發和智能體原型驗證,不必每次都依賴雲端資源。在消費端,Ryzen AI 400 系列處理器讓普通 PC 也能運行 Copilot、主動助手和內容創作工具,把 AI 真正帶進日常生活。從雲到端,AMD 不是在賣晶片,而是在鋪設 AI 時代的基礎設施。結語:把晶片做成地基MI455 是晶片,Helios 是平台,但真正讓 AMD 搶佔位置的,是 Lisa Su 給出的產業邏輯:不是建一台最強機器,而是搭一套能量產的工業系統;不是問能跑多大模型,而是問能不能支撐百萬級智能體同時工作。OpenAI 訓練模型,Luma 生成視訊,Absci 設計新藥,Generative Bionics 驅動機器人。而 AMD,正在成為這一切背後的算力基礎設施。2026 年這場 CES,Lisa Su 押注的是最底層的命題:讓 AI 真正落地,既要性能夠強,也要成本可控,還要長期穩定。 (AI 深度研究員)
好萊塢的葬禮在雲端舉行:當“偽造現實”的年收超越全球票房
2026 年 1 月 3 日,或許是人類歷史上“真實”概念死亡的日子,也是好萊塢舊世界崩塌的開始。當全世界在社交媒體上圍觀委內瑞拉總統馬杜洛身穿“白色睡衣”被押上美軍運輸機的畫面時,很少有人意識到,這不僅是一場地緣政治的“絕對決心行動”,更是一場針對電影工業的降維打擊。那張騙過了數百萬人的照片,沒有動用一台攝影機,沒有一名演員,成本不到一美分。在 Wavers 看來,這不再是關於“AI 輔助創作”的溫和討論,而是一場殘酷的資本遷徙。當生成式 AI 能夠以極低成本即時建構“現實”,我們發現了一個驚人的財務交叉點:AI 基礎設施巨頭的年化收入,已經正式超越了全球電影票房的總和。1. 現實的定價權:從膠片到 GPU要理解這場變革,我們不能只看技術參數,必須看錢流向了那裡。傳統的電影工業依賴於物理資產:攝影棚、外景地、龐大的劇組。而新時代的“影業巨頭”不再擁有片場,他們擁有的是資料中心。請看下圖,這是截至 2025 年底至 2026 年初的 AI 關鍵玩家收入追蹤:圖1 跟蹤人工智慧的年化收入從圖中我們可以清晰地看到幾條陡峭的增長曲線,這不僅僅是收入,更是“算力即權力”的宣言:Microsoft Azure ($185億) :作為 AI 的物理承載平台,其年化收入已突破 185 億美元。如果把未來的電影視為“計算產品”,Azure 就是新的派拉蒙片場,它出租的是生成現實的“土地”。OpenAI ($130億):憑藉 Sora 和 ChatGPT,它正成為全球最大的“視覺特效公司”,年化收入創下 130 億美元新高。Anthropic ($70億):這是一個極易被忽視的關鍵資料點。作為 OpenAI 的勁敵,Anthropic 並不只是追隨者,其 70 億美元的年化收入且保持每兩個季度翻番的增速,證明了市場對長文字和高邏輯性劇本生成(Context Window)的巨大需求。CoreWeave ($55億):作為“數字軍火商”,這家提供 GPU 算力的公司營收暴漲 100%,達到了 55 億美元。2. 算力經濟體 vs. 票房經濟體為了直觀展示這種力量對比,我們製作了下表。當我們將這四家核心 AI 基礎設施(Azure AI部分, OpenAI, Anthropic, CoreWeave)的營收相加,總額接近 440 億美元。而根據 Statista 及行業資料,2024-2025 年全球電影票房大盤僅維持在 340 億美元 左右。資本已經用腳投票,認定“生成端”(算力)比“放映端”(影院)更具價值。好萊塢作為資金流動中心的地位很快會被矽谷取代。3. 泰勒·佩裡的 8 億美元教訓與“人海”的消失這種宏觀資料的變化,在微觀層面引發了劇烈的陣痛。最典型的案例莫過於美國獨立電影大亨泰勒·佩裡(Tyler Perry)。在目睹了 Sora 的演示後,他直接叫停了在亞特蘭大擴建攝影棚的 8 億美元 投資計畫。佩裡的邏輯是冷酷而理性的:為什麼還要花錢去搭建實體的建築、運輸卡車和僱傭工人?回顧 1 月 3 日委內瑞拉事件中那段“百萬人揮舞國旗”的 AI 視訊。在傳統好萊塢,拍攝這樣的《悲慘世界》等級的群眾戲是後勤的噩夢。但在 AI 時代,這是一場不需要人類參與的群眾運動。當演算法能以不到 100 美元的成本生成讓觀眾熱淚盈眶的宏大場面,傳統的“臨時演員公會”和龐大的劇組工種,實際上已經面臨“結構性失業”。這不是效率提升,這是產業鏈清洗。4. 未來的分岔路:90% 的垃圾與 10% 的奢侈品那麼,人類電影就此消亡了嗎?不完全是。Wavers 分析師認為,電影市場將迎來極其劇烈的“K型分化”。Anthropic 的 70 億美元 營收告訴我們,市場不僅需要視覺奇觀(OpenAI),還需要深度邏輯和長文字敘事。未來,90% 的視訊內容(新聞、短劇、廣告、快消娛樂)將由 AI 全自動生成,成本趨近於零。而剩下的 10%,將是好萊塢最後的堡壘——“有機電影”(Organic Cinema)。就像現代農業高度工業化後,人們願意花高價購買有機食品一樣。未來的觀眾支付昂貴的票價,不是為了看逼真的畫面(AI 已經能做到完美),而是為了看真實的湯姆·克魯斯真的跳下了懸崖。5. 結語我們不再需要那個擁有擁堵高速公路、昂貴稅收和繁重供應鏈的舊好萊塢。隨著 Microsoft Azure, OpenAI, Anthropic 和 CoreWeave 建構起年收 440 億美元的新經濟體,電影工業的物理形態已經消散在雲端。對於投資者而言,看清這一點至關重要:未來的“票房冠軍”可能不再誕生於紅地毯,而誕生於資料中心的伺服器機架之間。 (capitalwatch)
OpenAI 高中生天才的降維打擊:揭秘自上而下學習法
最近,一位被 OpenAI 錄用的高中生(是的,你沒看錯,高中生)在技術圈引發了討論。不僅因為他的年齡,更因為他分享的一種反直覺的學習方法——從上到下(Top-Down)學習模式。想想我們傳統的學習方式(由下而上):買一本厚厚的教材,從第一章開始啃,背誦定義、公式、文法。學了三個月,還沒做出一個能用的東西,熱情耗盡,從入門到放棄。你要學習機器人技術,就必須按步就班的學習下面從0到1的基礎知識。線性代數與物理Linear Algebra & Physics↓程式語言Python & C++↓嵌入式系統Embedded Systems (MCUs, RTOS)↓感測器與執行器Sensors & Actuators (IMU, encoders, motors)↓控制理論Control Theory (PID → LQR → MPC)↓狀態估計State Estimation (Kalman, EKF, UKF)↓感知Perception (cameras, LiDAR, SLAM)↓規劃Planning (A*, RRT, trajectory optimization)↓仿真Simulation (Gazebo, MuJoCo, Isaac)↓分佈系統ROS2 & Distributed Systems↓硬體整合與安全Hardware Integration & Safety↓在現實世界的部署Deployment in the real world恭喜你,5年過去了,你現在成為了過時的機器人專家!之所以過時,是因為人工智慧正處於快速更新期,每天都有新演算法,每年都上一個新台階,每3-5年就會有一次底層技術框架的革新。現在大模型的底層框架transform是2017年谷歌發明的,接下來很可能改成以強化學習為中心的底層框架。按Bottom-Up的學習方法,專家總是過時的~這位天才的做法完全相反。他不從地基開始砌磚,而是先構想一棟大樓,然後在建造過程中缺少什麼補什麼。他的方法可以拆解為4 個可複製的步驟,如果你能掌握,這套邏輯將幫你節省80% 的無效學習時間。步驟1:以終為始,鎖定最終結果拒絕模糊的願景,擁抱具體的產品。很多人學習失敗,是因為目標太廣泛。❌錯誤目標:「我想學 Python。」(太虛,學到那算完?)✅正確目標:“我想寫一個自動篩選簡歷並發送面試邀請的腳本”為什麼要這樣做?當你有一個具體的成品作為靶子,你的大腦會自動過濾掉那些暫時用不上的90% 的知識,只聚焦那 10% 能讓你把東西做出來的核心技能。學習路徑瞬間從迷宮變成了直線。步驟2:運用AI 輔助進行知識遞歸當你確定了目標,一定會遇到盲點。這時候,千萬不要去翻那本500 頁的書,而是把 AI 當作你的蘇格拉底導師。在寫程式碼或解決問題卡住時,不要只當伸手黨要答案,要進行深度追問:· 問邏輯: “這段程式碼/方案背後的運行邏輯是什麼?請用大白話解釋。”·問原理: “為什麼要用這個數學公式/演算法?有沒有更簡單的替代方案?”這就是知識遞歸,馬斯克稱為第一原理。AI 會根據你的具體問題,把枯燥的理論像剝洋蔥一樣,配合具體的例子傳授給你。這種隨選學習的效率,是傳統課堂的十倍。步驟3:培養直覺,而非死記硬背影片中提到一個殘酷的真相:大學不再壟斷基礎知識。在這個時代,背誦公式是最廉價的技能。真正稀缺的是直覺──也就是你對事物運作機制的敏銳感知。不懂微積分?讓人工智慧畫圖給你看。不懂神經網路?讓它用水管和閥門做類比。直到你能在腦海中建立那個模型,完全理解它在你的專案中是如何發揮作用的。先有直覺,再補細節,這才是高手的進階之路。步驟4:快速失敗,在回饋循環中進化自上而下的本質,就是建立一個高速的回饋循環。當你開始動手做項目,你會報錯,會失敗,程式會跑不通。太好了!這正是學習發生的時刻。為了修復這些漏洞,你會被迫深入研究最底層的知識。為了修一個網路錯誤,你學會了HTTP 協定;為了優化運行速度,你學會了資料結構。這種由 「修復痛苦」 驅動的學習,記憶深度遠遠超過任何教科書。這個時代,知識的獲取成本幾乎是零。真正拉開差距的,不再是誰背的書更多,而是誰能更快地將知識轉化為作品。從今天開始,試著換個活法:“不要準備好了再出發,在出發的路上,你自然會準備好一切。”請粉絲們回答:你目前最想用AI 做出來的東西是什麼?四叔在評論區回答了自己的答案。(42號智能)
巴倫周刊—OpenAI今年可能會戳破AI泡沫,但這兩隻科技股仍有望上漲 (巴倫科技)
一個是Google,另一個是亞馬遜。一個股價去年漲幅居“七巨頭”之首,另一個去年則表現墊底。人工智慧熱潮今年是否會遇冷,是投資者最關心的問題之一。美國市場研究公司Pivotal Research Group的分析師給出了肯定的答案,並且認為若行業出現動盪,Google母公司Alphabet與亞馬遜將脫穎而出成為贏家。當談及AI領域可能出現的風險時,矛頭指向ChatGPT開發商OpenAI或許並不意外。該公司1.4兆美元的長期合作承諾既推動了相關技術支出,但同時也暗藏潛在隱患。Pivotal Research的分析師Jeffrey Wlodarczak(傑佛瑞・沃達扎克)在一份研究報告中寫道:“2026年OpenAI的市場份額可能大幅下滑,其能否履行巨額中長期承諾的能力將受到質疑,且可能導致2026年年中AI相關個股出現階段性回呼。”這對依賴OpenAI基礎設施支出的企業(如甲骨文、CoreWeave)及其主要投資方微軟而言並非好消息,但卻有望引導投資者聚焦Google與亞馬遜的核心優勢。樂觀者可能認為,OpenAI據稱高達1000億美元的融資規模足以支撐公司及相關個股走勢,但沃達扎克認為,這對投資者來說可能是個“陷阱”。他指出:“OpenAI將完成1000億美元融資,但這筆資金大機率以供應商融資為主(例如來自微軟、晶片供應商),這會增加義務而非帶來真正的財務靈活性。在我們看來,這無法撼動Google在規模、資料、整合能力及雄厚資金實力方面的固有優勢。事實上,若OpenAI此次融資交易成為2026年AI類股的短期高點,我們並不會感到意外。”如果AI熱潮將遭遇挫折,投資者可能會質疑為什麼還要繼續留在科技類股,而不是轉向其他領域。事實上,許多人已經開始重新佈局,轉投能源、材料、零售和住宅建築等類股。但沃達扎克認為,隨著AI智能體的普及,Google和亞馬遜作為雲端運算服務商仍將受益。AI智能體指的是能夠接受指令並完成多步驟任務的軟體,這將推動對AI算力的需求增長。“這一趨勢主要有利於Google和亞馬遜雲服務(AWS),因為它們擁有定製晶片,可以以更低成本實現規模擴展,並且擁有更廣泛的模型生態系統,有助於它們在雲端運算市場擴大份額。而主權雲和混合雲等替代方案只佔據小眾領域,從而確保在AI廣泛應用的背景下,大型科技公司依然佔據主導地位,”沃達扎克補充道。沃達扎克給予Alphabet股票“買入”評級,目標價為400美元;也給予亞馬遜“買入”評級,目標價為300美元。周一美股收盤,Alphabet股價微漲(+0.6%),報317.32美元;亞馬遜上漲較多(+2.9%),報233.06美元。 (Barrons巴倫)