#Ai
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)
SemiAnalysis:AI價值鏈已向模型大廠全面遷移
核心論點:過去一年AI價值鏈正發生劇烈遷移:AI實驗室從幾乎"零毛利"躍升為價值大贏家。Anthropic ARR從9B暴漲至44B+,推理毛利從38%飆至70%。而身處供給瓶頸的TSMC與Nvidia卻仍未對定價做出明顯反映。01. AI價值鏈的劇烈遷移"AI的一天,勝過其他行業的一年"模型發佈、軟體突破、硬體迭代,正把其他行業以年為單位的周期壓縮到以"周"為單位。過去幾個月,Agentic AI跨過了真正的拐點——Token的"價值"經歷了一次躍升,而生產Token的"成本"卻在同步快速下降。這股需求洪流來自終端使用者從消費Token中獲得的巨額ROI。僅以本年為例,Anthropic的ARR從9B暴增至44B+,與此同時其推理基礎設施毛利率從38%躍升至70%以上。獨特現象:"AI浪潮在堆疊的所有層都創造了價值——但過去一年裡,幾乎所有價值都在向AI實驗室集中,而它們一年前幾乎沒有獲取任何價值。"終端使用者的"生產力豐收"過去需要數十人時、耗費數千美元的工作,如今幾分鐘、價值幾美元的Token就能完成。Token產生的商業價值正在劇烈改善企業經營。SemiAnalysis自身在Anthropic Claude Token上的年化支出已高達1095萬美元,但由此獲得的價值讓其能夠在與所有競爭對手的競爭中勝出並擴大市場份額。2023年5月 ── AI交易元年Nvidia首次"重磅炸彈"業績公告,盤後大漲25%,正式拉開AI交易序幕。2024年 ── 電力成為新瓶頸Vistra +265%、GE Vernova +146%,躋身S&P 500表現最佳個股。2025年 ── 儲存搶鏡SanDisk、Western Digital、Seagate、Micron全部錄得200%+漲幅。2025年12月 ── Agentic AI"真正可用"的拐點Agentic AI開始真正發揮效用,從程式設計蔓延至建模、Excel轉Dashboard、財務分析等場景。2026年至今 ── 價值"全面回流"模型層從硬體層向模型層的價值大遷徙正在發生,AI實驗室成為新主角。02. Agentic AI改變了遊戲規則SemiAnalysis的"自家實測":Token用量已是Meta的5倍Agent早已不止於程式設計。SemiAnalysis分析師每天用Agent把Excel轉為儀表盤、自動生成圖表、建構財務模型、分析公司財報——這些任務此前要麼根本做不了,要麼需要初級分析師花費數小時,擠佔其本可投入更高價值工作的時間。"貼牌價"vs"真實混合價":Opus 4.7的隱藏邏輯Opus 4.7的官方掛牌價為$5/$25 per MTok(input/output),但其在Agentic任務上的真實混合價僅約$0.99/MTok。原因有二:03. Token生產成本崩塌式下降Opus降價≠毛利下降:Anthropic利潤仍在擴張Anthropic在2025年11月以低於前代3倍的價格發佈Opus 4.5,引發市場驚愕。但事實是——由於Trainium與Nvidia GPU上的軟體改進、以及用Blackwell替換Hopper的硬體升級,其Opus Token的毛利率反而上升了。04. 為何模型利潤不會被競爭"卷"掉理由一:前沿模型仍保有定價權無論benchmark怎麼說,在真實知識工作場景下,開源模型與閉源前沿模型仍存在顯著差距,而這一差距沒有理由很快收斂。Kimi K2.6 ($0.95/$4) 對Opus定價幾乎構不成下行壓力。理由二:算力供給約束 → 沒有任何一家能"獨食市場"Anthropic已開始用$100+/月的Claude Code訂閱牆、遮蔽OpenClaw等第三方harness來主動疏離部分使用者。Token需求將在可預見的未來遠超供給,這意味著任何能提供前沿質量的實驗室,都可以按"Token產生的經濟價值"而非"內卷價"來定價。05. TSMC與Nvidia——兩個未漲價的霸主需求"複利式增長",但供給方仍在用舊框架定價Anthropic ARR已達$44B+(我們上次更新時還是$30B),GLM、Kimi等開源模型也在擴大可定址算力總池。AI實驗室與Neocloud的融資正在直接轉化為增量GPU部署。而Nvidia仍在用一套"為單位算力支付意願會隨時間衰減"的舊假設來定價——這個假設已經不成立。需求不是線性,而是複利級。SemiAnalysis觀點:"TSMC本可以大幅漲價,但他們沒有。這是戰略失誤。退一步,他們至少應該要求更大額的預付款。Jensen本人在2024年就說過TSMC的晶圓該貴一點——他是真心的。"06. SOCAMM:Nvidia下一個利潤槓桿為什麼是"記憶體"而不是"算力"?SOCAMM (System-On-Chip Attached Memory Module)是 VR NVL72 上一種基於 LPDDR 的可插拔(Socketed)模組化記憶體方案。它專為機櫃級系統而生,具備更高容量、模組化、能效以及——獨立於算力的可定價能力。在GB300中,DRAM被銲接(soldered)上板,與系統毛利捆綁。但在Rubin中,SOCAMM2是Socketed模組——這意味著Nvidia可以把記憶體"拆出來單獨定價",在板級毛利不變的前提下,單獨調高記憶體毛利。SOCAMM 60% 毛利完全合理(來自SemiAnalysis測算)SOCAMM合約價路徑(Nvidia採購)資料來源:SemiAnalysis Memory Model · 實際SOCAMM應較移動LPDDR5X存在溢價為何客戶會接受Nvidia在SOCAMM上索取60%毛利:① 供應鏈籌碼:DRAM全面緊缺,Nvidia鎖住最大份額② 平台護城河:VR NVL72是性能/TCO最佳平台,客戶被迫接受③ 成本傳導合理:Nvidia自身也面臨SOCAMM2進價上漲07. Capex/W:GB300 →VR NVL72 的反常停滯系統躍遷巨大,但Capex/W幾乎沒動這與AMD/Nvidia/ASIC歷史代際趨勢完全相反——意味著Nvidia"留了一手"08. Neocloud被歧視性定價的"祭壇"SN5610交換機:Neocloud買價竟是Hyperscaler的2倍Nvidia在GPU上幾乎不做客戶分級定價,但在網路裝置上對Neocloud實施明顯的歧視性定價。原因不是Hyperscaler採購量更大,而是Hyperscaler有直接對接OEM/ODM、自建網路方案的工程能力,而Neocloud只能選擇Nvidia的Turnkey方案。即:網路裝置的94%差價被攤薄成10%總capex差異——Nvidia已最大化壓榨這一槓桿,繼續往下摳的空間已經不多。09. One Chart to Rule Them All VR NVL72租賃定價框架成本基礎定價 (Floor) 滿足Neocloud項目最低IRR的租金,低於此線則不會有新部署價值基礎定價 (Ceiling) 基於$/PFLOP的代際平價,客戶在新舊GPU間無差別選擇的臨界點從"成本定價"到"價值定價"——Nvidia的下一跳Nvidia當前仍在用"成本框架"定價。但隨著推理ROI越來越被廣泛接受,定價基準會自然向"價值定價"遷移——這正是反壟斷阻力下降、Nvidia可以堂堂正正漲價的窗口。需要強調,以上分析僅基於"租金/FLOP"。但推理性能/TCO的代際改善,速度比FLOP還要快得多——VR NVL72的真實"價值天花板"可能比我們當前測算更高。Nvidia可以捕獲的價值空間,遠沒有觸頂。RISK 風險與潛在反方向變數反壟斷:Nvidia在GPU、互聯、軟體全端的支配地位已招致更嚴密的反壟斷審視。激進漲價可能加劇監管壓力,這正是Nvidia與TSMC都傾向"克制定價"的核心原因。客戶多元化加速:過快搾取價值會促使客戶加速遷移至TPU、Trainium等替代算力;但這些方案同樣受N3晶圓與DRAM上游約束。前沿模型質量收斂:若開源模型在真實知識工作場景下顯著縮小與閉源前沿的差距,AI實驗室的定價權將受到壓縮——但目前沒有證據顯示這一收斂正在發生。DRAM周期反轉:當前DRAM緊缺局面是支撐Nvidia在SOCAMM上索取高毛利的關鍵。若供給端在2027年大幅釋放產能,記憶體定價槓桿會被削弱。(FinHub)
飆升173.5%!AI晶片,突傳利多!
全球AI晶片產業,傳來利多消息!AI對晶片的需求依舊強勁。5月1日披露的資料顯示,韓國4月份半導體出口額同比飆升173.5%,達到319億美元,連續13個月刷新月度紀錄。AI資料中心的大規模投資,使得市場對高頻寬儲存器、DDR5、NAND快閃記憶體等產品的需求激增。此前一天,三星電子披露的財報顯示,該公司第一季度淨利同比增長474.3%至47.22兆韓元,主要得益於其晶片業務的強勁表現。該公司預計,伺服器記憶體需求將在下半年保持強勁勢頭。韓國晶片出口飆升儘管中東戰爭持續發酵且美國關稅變數猶存,韓國出口仍連續兩個月突破800億美元,為史上首次。全球科技公司人工智慧投資擴大帶動半導體及固態硬碟需求激增,成為韓國的出口主力。據韓國產業通商資源部5月1日發佈的《2026年4月進出口動向》,韓國4月出口額為858.9億美元(約合127兆韓元),同比增長48.0%。這是繼3月刷新歷史最高紀錄866億美元之後,月度出口額第二高的水平,連續兩個月出口額超過800億美元。按工作日計算的日均出口額為35.8億美元(約合5.3兆韓元),連續三個月超過30億美元。韓國4月進口額增長16.7%,達到621.1億美元。由此,韓國4月貿易收支實現237.7億美元(約合35兆韓元)順差。這一順差額較去年同期擴大189.7億美元。自去年2月以來,韓國貿易收支已連續15個月保持順差。半導體是韓國出口增長的主要動力。4月份,韓國半導體出口額同比飆升173.5%,達到319億美元。繼3月的328億美元之後,連續兩個月出口額超過300億美元,並連續13個月刷新月度紀錄。這一增長歸因於AI伺服器投資擴大,帶動了對高頻寬儲存器、DDR5、NAND快閃記憶體等高附加值儲存產品的需求激增。實際上,與一年前相比,儲存產品的固定價格已大幅上漲:DDR4 8Gb上漲870%,DDR5 16Gb上漲662%,NAND 128Gb上漲766%。AI基礎設施擴張的利多也延伸至包括固態硬碟在內的電腦出口。4月份,韓國電腦出口額飆升515.8%,達到40.8億美元,連續兩個月創下月度新高。在新產品銷售的帶動下,無線通訊裝置出口額也增長11.6%,達到16.2億美元。韓國產業通商部長官金正官表示:“儘管中東戰爭已持續兩個多月,但我們歷史性地實現了連續兩個月出口額超過800億美元、貿易順差超過200億美元的成就。”他補充道,“這一成果源於在全球AI投資擴張和油價上漲背景下,我們的企業主動確保了供應鏈。”他進一步表示:“鑑於核心產品競爭加劇和原材料供應不穩定導致出口波動性增加,我們將通過行銷、金融和保險支援以及出口市場多元化政策,最大限度減輕企業負擔。”三星電子淨利暴增本周四,三星電子公佈的財報顯示,公司第一季度營收同比增長69%,達到133.9兆韓元,超出市場預期;營業利潤為57.23兆韓元,同比增長756.1%,超出預期的55.28兆韓元;淨利潤為47.22兆韓元(約合318億美元),同比增長474.3%。該公司表示,隨著客戶在人工智慧領域的支出增加,預計明年嚴重的供應短缺將加劇,從而推高其記憶體晶片的價格。三星電子創紀錄的盈利主要得益於其晶片業務的強勁表現,該公司是儲存晶片、半導體代工服務和智慧型手機的主要生產商。這家全球最大的記憶體晶片製造商表示,已與客戶簽署多年期約束性合同,希望鎖定供應,但未透露客戶身份或具體條款。AI資料中心建設的蓬勃發展促使三星電子和其他晶片製造商將產能轉向先進晶片。即便如此,晶片製造商仍難以滿足市場需求,同時這也加劇了傳統晶片的供應緊張。三星電子儲存晶片業務高管Kim Jaejune在財報電話會議上告訴分析師:“我們的供應遠不能滿足客戶需求。僅根據目前收到的2027年需求來看,2027年的供需缺口預計將比2026年進一步擴大。”他表示,人工智慧技術的持續發展將轉化為持續的需求增長,但考慮到新建工廠所需的時間,供應在短期內仍將受到限制。在供應有限的情況下,輝達等晶片製造商推動了對HBM的需求。三星電子預計,隨著超大規模資料中心持續推進人工智慧應用,以及對智能體人工智慧的需求加速增長,伺服器記憶體需求將在下半年保持強勁勢頭。三星電子表示,中東衝突並未影響晶片生產,因為公司已確保庫存充足並實現了生產用氣體來源多元化。然而,該公司也指出,油價上漲可能導致運輸成本增加,並表示將與韓國政府合作,確保電力供應穩定。三星電子透露,公司已於今年2月開始為輝達的Vera Rubin平台量產銷售業界首批HBM4晶片,並預計今年HBM晶片的收入將比去年增長三倍以上。公司還表示,預計今年將大幅增加資本支出,以滿足人工智慧的需求。 (券商中國)
撕開Claude Code真相:讓它好用的98.4%,是工程不是AI
當普通人還在鑽研「最強提示詞咒語」時,矽谷頂級實驗室已經把AI基建跑成了生產線。你還在ChatGPT的聊天框裡反覆調prompt?最近,一位X使用者發了條推文,開頭就是一個驚呼:頭部大廠偷偷在用的Claude Code項目範本外洩!這已經不是寫提示詞了。這是AI工程基礎設施。整套打法圍繞一個檔案「CLAUDE.md」展開,而它的核心原則只有三條:每次Claude犯錯→你加一條規則;每次你重複自己→你加一個工作流;每次出bug→你加一道護欄。這樣做,是要把項目經驗沉澱成它每次啟動都會讀取的長期上下文和自動化約束。整個架構,像是一家AI公司的崗位編制:CLAUDE.md是入職手冊,skills/是工作SOP,hooks/是合規部,docs/是公司章程,tools/是後勤組,src/才是真正出活的業務部門。你不再是在和AI聊天了,而是在建構一個瞭解你程式碼倉庫的AI。最瘋狂的部分是,你只需要配置一次,Claude就會自動審查程式碼,並按指令重構、強制執行架構規則、撰寫發佈說明、從技能中運行工作流、記住過去錯誤等。而且它會越用越聰明。大多數人,都是打開ChatGPT,寫提示詞,複製貼上,反覆;而在這套打法下,你只需要打開終端,跑一個skill程式碼已交付。這等於是在自己的程式碼庫裡養了一隊AI同事。這條推文背後,傳遞的是這個時代正在悄悄翻篇的一個小訊號,大多數人可能還沒反應過來。一張不算洩露的「洩露截圖」撕開一個真相@ai_rohitt曬出來的這張截圖,是Anthropic官方文件裡公開推薦的Claude Code標準範式。CLAUDE.md是Claude Code在每次會話開始時自動讀取的項目記憶檔案。.claude/skills/和.claude/hooks/是官方支援的擴展機制。這些都是社區已經討論了幾個月的公開做法,並不是什麼人偷出來的「內部範本」。但它之所以能讓一些資深開發者主動轉發,說明它得到了一些天天用Claude的開發者們的認同。其中相當一部分人,可能這兩天才意識到原來它還能這麼用。而矽谷頂級團隊,已經把這件事跑成了生產線。第一個例子,是OpenAI Frontier團隊。OpenAI官方披露的Frontier團隊實驗中,一個從空repo起步的內部beta,在約5個月內由Codex生成了約100萬行程式碼和約1500個PR;團隊從3人擴展到7人,人工不直接寫程式碼。帶隊的Ryan Lopopolo在後續訪談中進一步提到,這套工作流已經接近「0 人工程式碼、0 人工 review」的極限形態。他認為與其節省token,不如利用模型極高的並行能力和極低的成本來代替人類有限且昂貴的同步注意力。第二個例子,是Stripe內部的自動化程式碼代理系統Minions。Stripe內部的Minions每周生成並推動超過1300個PR合併,這些程式碼從頭到尾由AI生成,但仍經過人工review。這裡還有一對資料:1.6%vs98.4%,它來自Mohamed bin Zayed AI大學VILA-Lab發表的一篇論文。https://arxiv.org/pdf/2604.14228研究者係統性扒了Claude Code v2.1.88版本51.2萬行TypeScript原始碼,給出的結論是:只有1.6%是AI決策邏輯,剩下的98.4%是確定性的工程基礎設施。具體說就是權限閘道器、上下文管理、工具路由、錯誤恢復這四類。這組數字不是說模型只貢獻1.6%的能力,而是說明Claude Code作為產品,大量複雜度不在模型本身,而在權限、上下文、工具路由、恢復機制等確定性工程基礎設施上。@ai_rohitt那張圖裡的CLAUDE.md/skills/hooks結構,就是普通開發者也能搭一套的「入門版基建」,它和OpenAI、Stripe那套生產級架構是同一種範式,只是規模小得多。CLAUDE.md暴露的秘密過去3年,所有人都在問「GPT什麼時候能更聰明」「Claude什麼時候出新版本」。但真正在生產環境跑通AI程式設計的團隊,他們更關心的可能根本不是這個,而是如何讓AI記住自己上次踩過的坑,怎麼讓AI在動手前先看一眼項目的架構約束,怎麼讓AI犯錯的時候自己被工具擋住。CLAUDE.md正是這一切的承載體。Anthropic官方對它的定義只有一句:一個markdown檔案,放在項目根目錄,Claude Code在每次會話開始時自動讀取。https://code.claude.com/docs/en/memory聽上去很簡單,圍繞它展開的那幾層結構,才是它真正厲害的部分。CLAUDE.md是項目大腦。架構決策、命名約定、測試要求、那些反覆踩過的坑,都堆在這裡。它是AI每次啟動時第一眼看到的「員工手冊」。.claude/skills/是可復用工作流。Claude Code的建立者Boris Cherny在社區裡反覆強調一句話:「如果你每天做某件事超過一次,把它變成skill或command。」一個skill就是一段可執行的方法論。Code review、生成commit message、寫發佈說明,這些都不該是每天手敲提示詞的活,應該是skill調一下就出結果。.claude/hooks/是自動護欄。這是最關鍵的部分。它不依賴AI自己判斷,由確定性程式碼在AI犯錯之前就擋住它。這就是為什麼敢讓AI「無人監督」地跑,因為出錯的邊界由hooks卡死了。docs/decisions/是架構決策記錄。讓AI不僅知道程式碼「是什麼」,還知道程式碼「為什麼是這樣」。這一項最容易被忽略,但也是AI協作最大的槓桿點。tools/和src/是執行層。這套架構真正值得注意的地方,不在於某個開發者搞出了一個漂亮目錄,而是越來越多獨立團隊正在收斂到同一個方向:把模型放進一套由上下文、工具、權限、評估和反饋循環組成的harness裡。GitHub上已經能看到不少類似項目:rohitg00的awesome-claude-code-toolkit、diet103的claude-code-infrastructure-showcase、affaan-m的everything-claude-code,都在圍繞agents、skills、hooks、rules、MCP configs等元件搭建Claude Code的工程化工作環境。這說明,真正成熟的AI程式設計工作流,不是只靠一個更強的模型,也不是只靠一條更長的prompt,而是把模型嵌入一套可復用、可約束、可恢復、可審計的工程系統裡。至於具體目錄結構,各家實現並不完全相同。OpenAI實驗室的極限實驗2026年2月11日,OpenAI官方部落格發了一篇文章:《Harness engineering: leveraging Codex in an agent-first world》。https://openai.com/index/harness-engineering/Anthropic圍繞這個概念重新調整了Claude Code的架構思路;Martin Fowler的網站把它凝練成一個公式:「Agent=Model+Harness。」Harness這個詞來自馬術。它指的是馬的整套挽具,韁繩、馬嚼子、馬鞍、籠頭。一匹馬可以跑得很快很有力,但它自己不知道往那兒走:整套挽具決定了它的方向。類比到AI程式設計:模型本身能力很強,但它不知道在你的程式碼庫裡該往那兒走。Harness就是你為它造的方向盤+剎車+導航。OpenAI Frontier團隊那個「100萬行0人工」的實驗,本質就是把Harness做到極致。他們的關鍵工程實踐包括以下幾條。層級架構強約束。從Types到Config到Repo到Service到Runtime到UI,依賴關係單向流動,由linter在CI層強制執行。Agent寫出違反層級關係的程式碼?直接建構失敗。linter錯誤資訊本身是修復指令,這也是最反直覺的細節。普通項目的lint錯誤是「violation detected」,給人看的;OpenAI Frontier的lint錯誤是「use logger.info({event: 'name', ...data}) instead of console.log」,給Agent看的、可以直接讀懂並修復的指令。文件作為單一事實來源。所有架構圖、execution plans、設計規範都在倉庫內部的docs/目錄。Agent不需要任何外部知識庫,一切就在repo裡。這套東西效果有多厲害?模型沒有換,但LangChain調整了harness,包括系統提示、工具、中介軟體和推理模式,最終把Terminal Bench 2.0分數從52.8提到66.5。你今天就能做的事是為AI造一個項目大腦問題回到普通開發者這裡:如果範式已經轉移,作為一個普通工程師,今天就能做點什麼。第一件事,在你最重要的項目根目錄建一個CLAUDE.md。不需要完美,也不需要很長。寫下你團隊的架構規則、命名約定、測試要求、那些反覆踩過的坑,10分鐘能寫完一個能用的版本。下次AI犯錯的時候,先不要手動修,而是問自己一句:CLAUDE.md裡缺了什麼?第二件事,把每天重複做的事改造成skill。這裡要注意Boris Cherny的金句:「如果你每天做某件事超過一次,把它變成skill或command。」Code review、生成commit message、寫發佈說明、修一類重複的bug,這些都該是skill,不該是每天手敲提示詞。第三件事,在容易踩坑的地方加一個hook。Hook是98.4%裡最有槓桿的那部分。它不依賴AI變聰明,它依賴確定性程式碼做強制檢查。這是把人類工程師的判斷力翻譯成機器可讀約束的過程。這件事的核心不在寫程式碼,而在寫規則。Karpathy今年1月在推特上的那句被廣泛轉發的話:「我已經從80%手動寫程式碼變成了80%交給Agent寫。」未來五年,工程師的能力曲線正在從「我能寫多少行程式碼」轉向「我能為AI設計多嚴格的工作環境」。寫程式碼的活兒正在被Agent接管。但設計那個讓Agent能寫出好程式碼的世界,還是人的工作。而且比以前更難、更重要、也更有意思。 (新智元)
永別了,終端!OpenAI瘋狂升級Codex,接管Mac人類全程0操作圍觀
OpenAI剛剛投下了一枚重磅炸彈:原本作為程式設計師「副駕駛」的Codex迎來史詩級更新,正式從程式碼工具進化為通用個人助理,奧特曼親自下場帶貨。開發者實測後驚呼:Codex接管整台Mac,人類全程0操作圍觀,太炸裂了!OpenAI重大更新!OpenAI的智能體Codex,這次直接硬剛Claude Cowork。Codex是OpenAI的旗艦程式碼生成模型,支援GitHub Copilot等產品,已成為全球開發者不可或缺的AI助手。這次的更新,非常重磅。YouTube創作者Mike Russell發佈了一條實測視訊,效果炸裂。他把自己的Mac完全交給了OpenAI最新升級的Codex,讓GPT-5.5操控Adobe Audition修複音頻、用Photoshop做封面、再用Adobe Firefly生成AI視訊。從頭到尾,人類全程零操作。這不是Demo,不是PPT,是一個真實創作者把自己的生產力工具鏈完整交給AI跑了一遍。OpenAI聯創、總裁Greg Brockman直接喊話:「Codex人人可用,電腦任務全可做!」是的,一個寫程式碼的工具,突然要搶所有人的鍵盤了。AI大V歸藏表示,一下午,一句話,Codex就幫自己開發了一個完整的遊戲。最讓人驚訝的是Codex處理素材的方式:他提供了一個包含上千張圖片的素材包,並未說明篩選方法。Codex卻自動將每個資料夾內的圖片整合成一張總覽圖,附帶檔案名稱。這樣一來,只看一張圖就能掌握全部素材風格,選中後再直接呼叫檔案即可。這個操作實在令人震驚,讓他直呼Codex太牛了!網友直呼,Codex終於迎來自己的「Claude Code高光時刻」——一個複雜的完整的Mac應用,整合了攝影機、麥克風、錄屏,它一次就搞定了。用過Codex的網友,根本停不下來!Codex變了:從程式碼助手到電腦管家總之,過去大家對Codex的認知很清晰——就是一個寫程式碼的工具。它能幫你補全函數、偵錯bug、生成指令碼,是程式設計師的副駕駛。這次升級直接把邊界炸開了。OpenAI官方公告裡最核心的一句話:Codex現在支援Slack整合和Google Workspace全家桶整合。翻譯成人話就是——它不光能寫程式碼,還能讀你的郵件、回你的Slack消息、操作你的Google Docs和Sheets。這句話,讓OpenAI的野心藏不住了:它不再把Codex定位為開發者工具,而是——通用電腦操控agent。就在昨天,Codex就忽然官宣了一大波更新。它能跨Slack、Gmail、Calendar自動總結變化、做資料分析、輔助決策。可以組織研究材料、製作電子表格和簡報。可析資料匯出、標記更改的內容,起草解讀報告。還能根據標準對比多個選擇、跟蹤權衡取捨。OpenAI聯創Greg Brockman,這位習慣了20年黑屏命令列終端、視程式碼如生命的頂級駭客,公開宣佈:我徹底愛上了Codex App,它已經取代了我用了20年的終端。開發者懂的都懂,這是什麼份量。如此強大的更新,讓奧特曼直接發帖直呼:「Codex正在經歷ChatGPT時刻!」繼昨天的這一大波更新之後,今天凌晨,OpenAI Codex核心成員Tibo在X上發帖稱「Feeling codexy today」,預示著Codex又將迎來史詩級更新。此帖一出,程式設計師圈瞬間沸騰了!果然,沒過多久,OpenAI又開始放出新的case了。使用Codex處理日常工作,從未如此輕鬆。你可以選擇你的角色,連接每天使用的應用,並嘗試推薦的提示詞。無論是調研與規劃,還是文件、簡報、電子表格等,Codex都能提供幫助。Codex會根據你的角色推薦有用的外掛,並指導你連接各種應用程式,比如SlackHQ、GoogleWorkspace、Microsoft365等等。它如同你的私人助理,可以彙總來自不同應用程式和文件的資料,規劃下一步,起草工作,組織研究,或建立項目計畫。你可以一目瞭然地看到正在發生的事情,包括任務進度、使用的檔案和工具以及接下來要做的事情。從草稿到成稿,你可以在Codex中隨著內容逐步成形進行審閱。打開檔案,提出修改意見,並在同一個對話線程中不斷最佳化和調整。開發者大V表示,Codex和Claude Code非常不一樣。如果限額即將結束,那就可以執行一個長時間任務,即使限額已經結束,Codex都會繼續執行這個任務,直到任務完成。這個帖子直接被奧特曼轉發。Tibo還表示,在良好的使用者體驗和最佳化利潤率之間,OpenAI選擇了前者。甚至,OpenAI專門放出一個官方部落格指南,介紹如何在日常工作中使用Codex。Claude Code頭號粉絲轉向Codex,奧特曼鼓掌就在Codex升級的同一天,另一場好戲開演了。在X上,有使用者說出自己的心聲:Claude Code生成質量在最近三周內明顯下滑了,精準率暴跌,因此她90%的時間都在用Codex,感覺非常滿意。奧特曼很快出現,以星戰梗回應道:「歡迎加入光明面!」果然,又有更多開發者站出來表示,真的不喜歡用Claude,因為它很笨拙,使用者介面也總是不對勁,bug也很多。這一次,開發者自己用腳投了票。Codex實測太瘋狂了!Codex App開發人員Andrew Ambrosino直言:「Codex 搞定一切!」這次更新,Codex為當前任務自動適配動態UI,體驗更佳:幻燈片和表格體驗更佳支援在瀏覽器、工件和程式碼中直接標註上手更簡單整體設計更簡潔性能全面提升在Codex應用內瀏覽器中還加入了裝置工具列,讓建構和測試響應式應用變得更加便捷——瀏覽器使用的速度(在主觀測試中約提升30%)。不過,「大家好才是真的好」,全網第一波實測已經來了。讓我們一睹為快吧!接管整台Mac,人類全場0操作圍觀Mike Russell的實測才是這次升級最直觀的證明。他給Codex下了三個任務:任務一:音訊修復。 一段錄音有明顯的背景噪聲和齒音問題。Codex自動打開Adobe Audition,識別噪聲特徵,應用降噪濾波,調整EQ參數,匯出成品。Russell事後回聽評價:「專業級修復,比我手動調得還乾淨。」任務二:播客封面設計。 Codex打開Photoshop,根據播客主題自動選擇配色方案、排版標題文字、調整圖層混合模式,輸出一張可以直接上傳的封面圖。任務三:AI視訊生成。 Codex呼叫Adobe Firefly,根據文字描述生成視訊素材片段,自動拼接、加轉場。三個任務,跨三個Adobe專業軟體,全自動完成。Russell在視訊裡反覆強調一個細節:他全程沒碰滑鼠,沒碰鍵盤,甚至沒有切換過窗口。Codex自己在作業系統層面完成了所有軟體間的切換和協調。「這不是AI在幫我工作,」Russell說,「這是AI在替我工作。」Codex這次升級打中的不是程式設計師,是所有依賴電腦工作的人。當AI能操控你的整台電腦,「會不會用軟體」這個技能本身就在貶值。當然,Russell的實測並非完美。Firefly生成的視訊素材有幾幀出現了明顯的畫面抖動,Codex沒有自動識別並修正。Photoshop封面的文字排版在第一次嘗試時出現了字型大小不一致的問題,Codex自己發現後做了第二次調整才過關。Russell的總結很實在:「它不是100分,大概85到90分。但問題是——達到這個水平它用了8分鐘,我自己做要2個小時。」85分乘以8分鐘,和100分乘以2小時。大多數場景下,前者贏。Codex幫你0成本無限次拍攝網友Matthew Berman直接介紹如何用Codex無限次的拍攝產品,一個網路連線就能轉化為完整的電商照片:以前: 一套電商產品圖要5,000 - 25,000美元,耗時4周。現在:輸入一個 URL,10 分鐘出片,成本為0。他把整套系統封裝成了 「品牌商拍工具包(Brand Shoot Kit)」。它如何把一個網頁連結變成一整套電商攝影庫?只需以下 7 個 Agent(智能體)技能:人類的鍵盤,終於要淘汰了?以往,全面用手動方式偵錯UI的方式,往往非常消耗心力。每次都要一點一點地檢查AI有沒有破壞其他不相關的部分,這種壓力是無聲的。但如果我們能把執行階段的UI行為測試也交給AI去做,那人類這邊的負擔就能得到合理減輕。現在,Codex終於帶來了希望!顯然,Codex,已經能用滑鼠逐一檢查UI介面或行為是否正常——整個過程完全自動化。網友感嘆:「這感覺就像是「人們一直期待AI能做到的事情」終於到來了。」「我感覺我們正在逐漸接近下一個重大轉變的臨界點。」在視訊最後,Russell說了這樣一句話:「當AI能操控你的整台電腦,會不會用軟體這個技能本身就在貶值。」這次,Codex打中的不是程式設計師,畢竟程式設計師早就習慣了AI寫程式碼。這次打中的是所有依賴電腦工作的人——做PPT的、寫郵件的、剪音訊的、修圖的、做報表的。以前的邏輯是,人學會用工具,工具放大人的能力。現在的邏輯開始變了:AI學會用工具,人只需要說清楚自己要什麼。可以說,Codex不是在升級功能,它是在重新定義「使用電腦」這件事本身。在Russell的45分鐘實測裡,那台Mac上發生的一切——滑鼠自己在動、軟體自己在切換、音訊自己在渲染——這個畫面大概會成為2026年最具象化的一幕。以前人類用滑鼠呼叫軟體,現在AI用API呼叫軟體。下一步呢?不可想像。 (新智元)
Google增長領跑對手,科技巨頭AI支出總額升至7250億美元
Meta因資本開支上升而股價下挫;Alphabet的雲業務增速快於競爭對手亞馬遜和微軟。Google(Google)第一季度財報顯示,其雲業務增長快於競爭對手。這家搜尋巨頭及同類大型科技公司今年再次上調AI基礎設施支出計畫至7250億美元。預計四大“超大規模雲服務商”——包括亞馬遜(Amazon)、Meta、微軟(Microsoft)和Google母公司Alphabet——合計資本支出將比去年的創紀錄4100億美元增長77%。儘管投資者過去對巨額投入持懷疑態度,但他們總體歡迎這份財報:AI和資料中心需求推動營收和利潤大幅躍升,其中Google雲(Google Cloud)收入增長63%居首。“AI經濟很健康。”傑富瑞(Jefferies)的分析師布倫特•希爾(Brent Thill)表示。他補充說,最近的收入增長表明,大型玩家能夠承擔巨額資本開支成本。“唱空論點就是垃圾。”資本支出柱狀圖顯示:大型科技公司的一季度資本開支創下紀錄,達到1300億美元Alphabet股價在盤後交易中上漲7%,有望在周四以創紀錄的4.3兆美元市值開盤。亞馬遜上漲3%,而過去一個月已上漲18%的微軟則持平。Meta的氣氛更為低迷:儘管收入躍升三分之一,但使用者下滑、資本支出增加,以及首席執行長馬克•祖克柏(Mark Zuckerberg)對推出改進版AI模型的時間表含糊不清,仍推動其股價在盤後交易中下跌6%。SLC Management的董事總經理德克•馬拉基(Dec Mullarkey)表示:“投資者仍然擔心,祖克柏的印鈔機曾經是輕資本型,現在可能在演變成一台資本密集型的焚化爐。他們對不計代價的增長並不感興趣。”相比之下,投資者為Google的盈利顯示出由AI驅動的強勁增長跡象而喝彩。Google的DeepMind實驗室孵化了人工智慧技術,但此前該公司因為允許OpenAI和Anthropic將這項技術更快商業化而遭批評。第一季度淨利潤躍升81%,至626億美元;營收增長22%,至1100億美元,均超出預期。一筆未實現的369億美元股權證券收益提振了利潤資料。Google未指明具體涉那些投資,但其持有SpaceX和Anthropic的大量股份。這兩家公司在私募市場的估值分別約為1.25兆美元和3800億美元,且正考慮於今年公開上市。搜尋業務收入增長19%,至604億美元;Google雲的銷售額同比增加77億美元,至200億美元。瑞銀(UBS)分析師Stephen Ju表示,這些結果“將有助於投資者增強對投資回報可持續性的信心”。在規模5000億美元、競爭激烈的雲端運算市場中,Google從對手手中贏得了更多份額。但與亞馬遜和微軟相比,它的體量仍小得多。亞馬遜本季度雲業務新增銷售額83億美元,季度總額達到376億美元;而微軟旗下Azure雲部門新增營收79億美元,升至347億美元。標普全球(S&P Global)旗下Visible Alpha Research負責人梅麗莎•奧托(Melissa Otto)表示,結果表明“Google雲開始拿到一些市場份額……它可能正在緊追不捨”。Google雲業務負責人托馬斯•庫裡安(Thomas Kurian)上周在接受英國《金融時報》採訪時表示,Google之所以取得進展,源於其長期堅持在內部自研定製AI晶片、基礎模型和產品的戰略。他稱,這讓公司在成本和研究方面具備優勢,而其雲端運算與AI同行公司一直很難自行打造晶片和前沿模型。Google周三表示,其租用資料中心機位的合約積壓達4600億美元,這也讓市場更能接受其今年資本開支指引上調500億美元,至最高1900億美元。首席財務官阿納特•阿什克納齊(Anat Ashkenazi)表示,相關支出將在2027年再次“顯著增加”。亞馬遜表示,其合同儲備在3月底已達到3640億美元,並將因最近與Anthropic簽訂的1000億美元計算合同而進一步擴大。首席執行長安迪•賈西(Andy Jassy)在與投資者的電話會議上表示:“這在範圍上相當廣,不只是一個或兩個客戶。”他補充說,最近與OpenAI達成的一筆交易將帶來更多收入。“沒有一款(AI)工具可以統治全球。(客戶)希望有選擇。”微軟首席財務官艾米•胡德(Amy Hood)表示,為滿足需求,需要在資料中心進行更多投資。在雲業務銷售額增長40%的推動下,微軟總營收創下829億美元的紀錄,淨利潤達到320億美元。年度營收同比增速(%)柱狀圖。在資料中心業務中,Google增速更快,領先競爭對手微軟預計2026年日歷年的資本支出為1900億美元,高於分析師1520億美元的平均預期。胡德還警告稱,儲存晶片和其他元器件價格上漲,導致該創紀錄資本開支預算中有250億美元用於相關支出。她說:“即便有這些新增投資,以及持續加快讓圖形處理器(GPU)、中央處理器(CPU)以及儲存容量上線的努力,我們預計至少2026年全年仍將受限。”胡德補充說,隨著更多資料中心上線,雲業務增速將在下半年加快。微軟首席執行長薩蒂亞•納德拉(Satya Nadella)表示,本周結束與OpenAI的獨家合同,將對公司有利。納德拉稱:“我們現在擁有一個前沿模型,免版稅,享有全部智慧財產權,並可一直訪問至2032年,我們完全打算加以利用。”Meta還將支出計畫增加100億美元的原因歸結於“更高的元件成本,尤其是記憶體價格”,以及為建設資料中心而在土地、電力和技術工人上的投資競爭。該公司如今預計今年的資本支出最高可達1450億美元。這一新聞令華爾街不安,儘管Meta本季度營收躍升33%至563億美元,因為其在AI助力下提升了廣告定價與使用者參與度。其股價在盤後交易中大幅下挫,預計在周四金融市場開盤時將蒸發1130億美元市值。在被追問何時推出承諾中的一系列文字、圖像和視訊AI模型(作為本月早些時候發佈的Muse Spark模型的後續)時,祖克柏表示,他更在意“質量”,而不是趕在最後期限前發佈。祖克柏說:“現在外面有很多人正在為不同用途打造各式各樣的智能體,但能讓我願意交給我母親使用的卻不多。” (FT中文網)
巴倫周刊—美股4月大反彈,頭號牛股狂飆114%,這只巨頭卻慘跌24%
4月,英特爾、Sandisk和希捷等AI概念股領漲標普500指數,而特許通訊、Nike等股票則墊底。4月美股強勢反彈,納斯達克綜合指數和標普500指數分別大漲15%和10%,均創下2020年以來最佳單月表現。科技股領漲4月行情,尤其是AI熱潮背後的晶片及硬體供應商表現突出。看看本月標普500指數中表現最好與最差的個股,更能印證這一趨勢。領漲股英特爾:4月大漲114%,成為4月標普500大盤成分股中的頭號大牛股。投資者押注CPU(中央處理器)的增長前景,該部件已成為下一波AI浪潮不可或缺的關鍵。英特爾先後與SpaceX、特斯拉簽署協議,並深化了與Google的戰略合作。上周公司強勁的財報驗證了市場預期,推動股價創下歷史新高。英特爾此前也被Barron's納入推薦選股名單。AMD:作為CPU市場中英特爾最直接的競爭對手,4月大漲74%。儘管英特爾當月表現更佳,但華爾街分析師對AMD的CPU業務更為樂觀。AMD股價自3月31日起連續13個交易日上漲,並在英特爾財報公佈後再漲14%。AMD將於下周二公佈業績。閃迪(SanDisk):4月大漲73%,但這僅是其自去年2月從西部資料分拆以來表現第三好的月份。這家快閃記憶體供應商自分拆後股價累計上漲近3000%。Sandisk股票在4月被納入納斯達克100指數,使其進入了一系列指數基金和交易型開放式指數基金(ETF)的配置範圍。公司將於周四盤後發佈季度財報。希捷科技:作為資料儲存公司,4月大漲72%。AI既需要更多資料,也會產生更多資料,對希捷儲存解決方案的需求持續供不應求。公司周三發佈超預期季報並給出強勁季度業績指引後,股價僅在單日就大漲 20%。森特納(Centene):是前五名中唯一的非科技股,4月上漲64%。這家醫療管理機構一季度每股收益達3.37美元,遠高於華爾街預期的2.23美元。公司與多個州政府簽約負責醫療補助計畫的營運管理,美國銀行證券(BofA Securities)認為,隨著風險保障池趨於穩定,該項業務未來數年將持續改善。落後股特許通訊(Charter Communications):4月下跌24%,成為標普 500 當月跌幅最大成分股。該股在 4 月 24 日單日暴跌,此後持續遭拋售。下跌導火線是公司披露一季度網際網路使用者流失規模超出預期,市場開始擔憂固定無線寬頻、光纖寬頻業務帶來的激烈競爭衝擊。農機用品零售商Tractor Supply:4月下跌22%。這家銷售牲畜飼料、割草機等產品的公司上周公佈的第一季度盈利不及預期,並維持全年業績指引不變,股價隨之下滑。4月21日該股收跌12%,成為標普500指數當日表現最差的股票。醫療器械企業Insulet:因旗下Omnipod 5胰島素輸注系統召回範圍持續擴大,4月股價下跌18%。4月10日,Insulet擴大了其3月份關於Omnipod 5的安全警報。發現某些批次產品存在內部管路撕裂,可能導致患者胰島素輸注不足。監管機構周三正式將其列為一級召回,已有476起嚴重傷害可能與該缺陷相關。Nike:4月下跌16%。公司月初股價大幅下跌,此後這家運動服飾零售商預測到年底銷售額將出現低個位數百分比的下滑,股價繼續走低。管理層提到中國需求疲軟,並表示公司轉型舉措的進展慢於預期。埃帕姆系統(EPAM Systems):同樣下跌16%,位列跌幅前五。這只軟體股因業內對AI顛覆的普遍擔憂而受到打擊,也是IT服務類股整體拋售潮的受害者。同行如HCL Technologies本月發佈了謹慎的業績指引,理由是宏觀經濟波動和可自由支配支出減少。 (Barrons巴倫)
允許梁文鋒再「偉大一次」
一個技術理想主義者,如何被中國AI的“工程現實”重新定義。過去幾年,梁文鋒幾乎拒絕了所有網際網路時代熟悉的劇本。別人融資,他拒絕;別人搶入口,他開源;別人卷參數,他卷效率;別人把AI當成生意,他卻一直在談AGI。DeepSeek因此看起來更像一家“研究機構”,而非創業公司。直到2026年春天,事情開始變化。GPT-5.5發佈不到24小時,DeepSeek-V4預覽版上線。發佈後不到五天,接連三次降價,昨天,DeepSeek“識圖模式”又開始灰度測試,補上了多模態這塊缺失最久的拼圖。DeepSeek多模態團隊研究員陳小康在X上的發帖與此同時,那個長期拒絕騰訊、阿里和頂級VC的梁文鋒,第一次主動打開了融資的大門。一邊把價格打到骨折,一邊卻伸手拿錢;一邊叫苦算力吃緊,一邊承諾還要降價,梁文鋒這位把AGI掛在嘴邊的人,是向商業現實“繳械投降”,還是在醞釀一場更大的風暴?01. “反常識”的72小時4月24日,GPT-5.5發佈不到二十四小時後,DeepSeek-V4預覽版悄然上線。沒有發佈會,就像這家公司的一貫作風:事情做完了,放出來,你們自己看。V4-Pro發佈後,最先引發討論的不是能力,而是價格。相比前代V3.2,這一次V4-Pro的定價看起來明顯更高。很多人第一反應是DeepSeek終於開始走向“正常商業化”了。但很快,事情又出現反轉。不到一天,官網低調更新價格,直接打到2.5折。隨後又一次更新:快取命中價格永久降至發佈價的十分之一。研究員甚至在社交媒體上直接打出“AGI for Everyone”的標籤,強調這是永久價格,而非促銷活動。更耐人尋味的,是官網價格頁面裡那行不起眼的小字:“受限於高端算力,目前Pro服務吞吐有限,預計下半年昇騰950超節點批次上市後,Pro價格會大幅下調。”這意味著DeepSeek公開承諾未來還會繼續降價,且這次價格下調繫結的,不再只是DeepSeek自己的技術最佳化,還有中國國產高端算力的量產節奏。與此同時,DeepSeek還啟動了成立以來的首次外部融資,目標估值從100億美元迅速抬升至200億美元乃至更高,騰訊、阿里相繼被傳洽談入局。降價、又融資,看起來很矛盾,但回看DeepSeek的發展歷程,會發現到它的野心從不只是“做模型”。過去兩年,全球大模型行業的默認邏輯一直是模型越強,成本越高,能力越強,價格越貴。OpenAI、Anthropic都建立在這套邏輯之上。但DeepSeek-V4要做的不是“賣更貴的智能”,而是不斷降低“智能”的邊際成本,實現AGI平權。這種對“邊際成本”的執念,從DeepSeek的前身幻方量化就已經開始了。2021年,當大多數科技公司還在討論AI概念時,幻方已經囤積了上萬張A100,自建了“螢火”算力叢集。在高度競爭的市場裡,成本結構本身就是護城河,這是梁文鋒在幻方時便想明白的,這套理念也被完整地繼承到了DeepSeek。DeepSeek V4-Pro約5.22美元,快取命中後進一步降至3.6美元左右。同等輸入輸出量下,GPT-5.5的API成本約35美元,Claude Opus 4.7約30美元。V4-Flash更激進,成本不到競爭對手的2%。這已經不是簡單的價格差,而是“量級差”了。“超低價”背後是模型架構、推理系統與算力調度共同最佳化後的結果。V4-Pro支援100萬token上下文,在部分長文字場景下,單token推理所需算力相比前代明顯下降,KV Cache佔用也大幅減少。過去行業處理長上下文,很多時候依賴的是持續堆視訊記憶體、堆頻寬;DeepSeek嘗試通過架構最佳化減少一部分無效計算與資源浪費。當然,效率上的突破並不等於全面超越。DeepSeek內部的真實評測顯示,V4目前已成為公司員工日常使用的Agentic Coding模型,使用體驗優於Sonnet 4.5,交付質量接近Opus 4.6的非思考模式,但與Opus 4.6的思考模式仍存在一定差距。開源和低價建立了影響力,可“一分錢一分貨”的道理,在頂級閉源模型身上依然成立。某種程度上,V4真正改變的,其實不是模型能力,而是行業對“智能應該值多少錢”的認知。極客肖恩·多納霍在Facebook發帖稱,自己把部分程式設計工具切換到DeepSeek之後,月帳單下降了90%以上,效果卻並未明顯下降。科技博主 Simon Willison 每次 DeepSeek 發佈新版本,他都會用同一句提示詞 生成一張鵜鶘騎自行車的 SVG。這次也一樣,測試之後他稱DeepSeek-V4-Pro 是“大型前沿模型中最便宜的一款”。上:DeepSeek-V4-Flash 版 下:DeepSeek-V4-Pro 版這幾位開發者或許只是個例,但他們背後折射出的趨勢值得關注:當價格差拉到“量級差”,開發者重新分配算力預算的動機也會增強。而當越來越多應用、Agent和開發工具開始基於同一種模型生態建構時,真正形成護城河的,未必只是模型能力本身,還包括開發者習慣、呼叫路徑以及整個生態的成本慣性。Deepseek想用極致的性價比,成為那個被開發者“持續依賴”的選項。02. DeepSeek 的“二度奇襲”2025年1月,Deepseek R1發佈,引發全球震動。Deepseek應用很快登頂蘋果中國和美國地區App Store免費榜首,Nvidia單日市值蒸發約6000億美元,美國風投家馬克·安德森稱之為AI領域的"斯普特尼克時刻"。一個杭州的量化團隊,用560萬美元的訓練成本,做出了對標OpenAI頂級模型的效果,並且開源了。彼時,世界對梁文鋒的理解,是"用更少的錢做更好的模型"。很多人後來把R1理解成“受限條件下的逆襲”,但其實並不完全精準。早在行業真正意識到大模型價值之前,幻方就已經開始大規模採購算力、建設叢集。後來外界看到的“低成本奇蹟”,更像一次長期積累後的集中爆發。梁文鋒真正厲害的地方,是他比大多數人更早意識到未來AI競爭的核心,不只是模型能力,還有算力效率。但隨著DeepSeek從技術黑馬變成核心玩家,新的問題也開始浮現。過去的DeepSeek,很像一個隱秘的研究組織,幻方量化在背後輸血,梁文鋒不缺錢,研究員埋頭做模型。Deepseek在X上的簽名都是“用好奇心揭開通用人工智慧的奧秘,用長遠的眼光回答根本問題”,學術味兒十足。但AI行業不會長期尊重“隱士”,尤其當你手裡真的有“真經”的時候。從2025年底到2026年,多位DeepSeek核心成員相繼離開。V3架構關鍵開發者羅福莉去了小米,第一代大語言模型核心作者王炳宣去了騰訊,R1核心研究員郭達雅被字節跳動以傳聞中“近億元的總包”帶走,多模態方向核心研究員阮翀轉投元戎啟行。過去,大模型公司的目標相對統一:訓練更強的基礎模型,到了2026年,行業開始迅速分化,Agent、多模態、端側AI、機器人、自動駕駛,陸續變成新的戰場。這時候,一個研究員如果想做Agent,去字節會面對真實月活場景;想讓AI理解物理世界,去自動駕駛公司顯然更有吸引力。DeepSeek太專注把模型本身做到極致,這種組織文化,能夠吸引最純粹的研究者,卻很難長期承載所有方向。它最強的地方,在這一刻成為它最大的桎梏。主流AI公司搶的是有經驗的工程師,梁文鋒卻更青睞頂尖高校的年輕博士生,因為在他看來這些人"渴望證明自己","可以完全不帶功利地投入去做一件事"。初期DeepSeek的確可以用技術理想主義吸引天才,但很難長期用理想主義支付機會成本,尤其在同行已經開始形成市場估值的時候。近兩年,OpenAI、Anthropic不斷刷新融資數字,投後估值高達8400億、3800億美元,國內的智譜、MiniMax相繼掛牌港交所,市值一度突破4000億和3800億港元。大廠給的是有行權價、有IPO預期、有內部回購機制的期權,而不融資的DeepSeek,沒有“度量衡”。在競爭白熱化的AI人才市場裡,沒有市場化估值錨點的期權,等於一張無法兌現的期票。梁文鋒或許也是意識到了這一點,所以開放了融資。但這依然是一個極具“梁式色彩”的融資方案。此次融資目標募集金額不低於3億美元,計畫以不低於200億美元的估值進行。與此同時,工商資訊顯示,梁文鋒在增資後直接持股佔比由1%提升至34%,其作為實際控制人的最終受益股份仍為84.29%,表決權比例仍為100%。他用大約3%的股權,換來了市場對這家公司的價值認證。董事會的控制權,一票未讓。對比同行,這個數字更加意味深長。OpenAI 2026年完成的最新一輪融資,募集1220億美元,投後估值8520億美元;Anthropic 2026年2月完成300億美元G輪融資,投後估值3800億美元。3億美元,放在今天的AI賽道里,甚至比不上同行一輪融資的零頭。梁文鋒選擇用這個體量融資,就是為給員工手中的期權,建立起相對清晰的估值錨點和兌現預期,穩住人才,同時讓公司不被短期增長所裹挾。03. 允許梁文鋒再“偉大一次”R1證明了中國AI可以做出世界級模型,V4之後,梁文鋒試圖證明中國AI可以建立起自己的“底座標準”,那怕這條路,很難。有個細節,V4發佈後,華為昇騰生態官方帳號,專門為DeepSeek-V4做了一場直播。晶片廠商親自下場給一款模型站台,並不常見。它釋放的訊號超出產品本身:DeepSeek第一次公開地,把自己的模型路線與國產算力的量產節奏綁在一起。過去幾年,中國AI行業有個默認順序,模型可以開源,演算法可以追趕,但輝達的生態護城河最難撼動。CUDA是輝達二十年攢下的工具鏈、算子庫、開發框架和開發者習慣,全球AI幾乎默認運行在這套底座之上。要脫離它,可不是“換塊顯示卡”那麼簡單。尤其在兆級參數模型上,難度會被進一步放大。參數越大,對視訊記憶體頻寬、通訊效率、叢集穩定性的要求就越高。模型團隊不僅需要針對國產晶片重寫和最佳化核心算子,甚至還需要自研確定性算子,保證長時間訓練過程中的精確可復現。更現實的問題是在萬卡叢集裡,硬體故障不是意外,而是必然。於是,訓練框架必須同時具備完整的檢測、容錯與恢復能力。如果效率跑不上去,成本就只是空談。V4延期超過十五個月,遷移代價是原因之一。目前V4的細粒度專家平行方案已經同時在輝達GPU和華為昇騰NPU兩個平台上完成驗證,在通用推理場景中實現了1.5到1.96倍的加速。推理層面跑通了,但開放原始碼主體仍基於CUDA,底層工具鏈尚未完全轉移,原因在於昇騰950超節點尚未批次上市,現有產能撐不起V4-Pro的大規模服務。不過DeepSeek已經把下一輪降價,公開寫進了國產算力的量產時間表裡。昇騰950PR單卡算力達到輝達H20的2.87倍,是目前國內唯一支援FP4低精度推理的產品,HBM容量112GB。規格是真實的,只等工業化落地。梁文鋒當年從幻方量化的GPU叢集起家,把算力當作研究的彈藥。如今他讓中國模型和中國晶片的命運,在商業上深度捆綁,並在所有人面前承諾,這是梁文鋒在晶片封鎖的現實下,做出的務實選擇。但這條路有個前提:模型能力必須始終足夠硬。V4把1M上下文做成標配、對Agent能力做專項最佳化、推出三檔推理強度,這些不是給評測榜單準備的,是給真實企業工作流準備的。只有先在真實生產場景裡證明自己不可替代,Deepseek的“底座”敘事才能成立。未來,梁文鋒和Deepseek要走的路還很長,國產算力的工業化時間表能否如期兌現,模型能力能否在閉源頂級模型高速迭代的壓力下保持競爭力,開發者生態能否形成足夠的黏性……它們像棋盤上尚未閉合的“氣眼”,每一個都關乎生死,可這些問題,現在都還沒有答案。Deepseek爆火後,被問及"商業公司做無限投入的研究性探索是否瘋狂"時說,梁文鋒曾說過一句話:"我們終其一生所渴望的,就是找到自己,然後成為自己。"這句話在R1發佈後的語境裡讀,是一個創始人的理想宣言。如今再讀,份量更重了些。AI競爭的上半場,他用技術效率、定價顛覆和算力豪賭,贏得了繼續下棋的資格,成就了Deepseek的"偉大"。下半場,允許梁文鋒再“偉大一次”,不是因為他已經攻下了某個技術的山頭,而是他正在為一場漫長的遠征搭建底座。不誘於譽,不恐於誹,率道而行,端然正己。這是荀子的精神,也是Deepseek的信條。 (奇點研究社)