#基建
大摩警告:儲存之後,EUV光刻機和CPU才是AI的真正“命門”
下半年,真正的麻煩不是需求,而是成本AI沒有“熄火”,但2026年的科技行情可能沒那麼順了。摩根士丹利最近發了一份年度展望,把今年的節奏掰成了兩段:上半年還能吃AI基建的紅利,到了下半年,成本上漲的壓力會開始考驗真實需求。誰有定價權,誰才能活得好。1.6兆美元的半導體大餅報告裡給了一個很猛的數字:2026年全球半導體收入衝到1.6兆美元,同比增速差不多96%。這個增速要是真能兌現,資金一定會往那些“最卡脖子”的地方擠。不是隨便買個晶片股就能賺錢,得找準瓶頸在那。過去大家只盯著GPU,但現在情況變了。記憶體重新站上C位,而且EUV光刻機和CPU,正在成為下一輪瓶頸。HBM緊到離譜,供給充足率只有2%先看記憶體。DRAM價格有望突破歷史高點,合約價和現貨價已經出現明顯錯配,說明供需關係非常緊張。更誇張的是HBM(高頻寬記憶體)。大摩根據供應鏈資料算了筆帳:HBM市場規模從2023年的30億美元,到2026年會飆到510億美元,2027年衝到720億。但供給呢?充足率被壓到只有2%左右。也就是說,只要AI推理需求還在,記憶體就會一直緊下去。緊到什麼時候?報告甚至說,2028年前後可能出現“前所未有”的資本開支,到時候EUV光刻機這些上游裝置會被徹底推上風口。CPU成為新瓶頸,光刻機跟著受益這輪AI不只是訓練大模型,接下來要往Agentic AI(智能體AI)走。AI從“生成內容”進化到“自主行動”,系統瓶頸就不只是堆GPU了。CPU的編排作用變得關鍵。大摩給了個測算:到2030年,Agentic AI會帶來325億到600億美元的CPU增量機會,同時新增15到45EB的DRAM需求。換句話說,GPU還是重要,但決定上限的可能變成CPU、記憶體、基板、裝置和代工。短板會輪換,誰卡住位置誰受益。先進製程代工這邊,台積電被點名。AI需求能支撐它未來五年每年20%的收入增長。前道裝置(SPE)在2026年下半年會再加速,尤其是那些DRAM暴露高、跟著先進節點擴張的公司。ABF基板、MLCC、散熱全都要緊ABF載板的供需拐點就在眼前。2027年起會持續短缺,T型玻璃基板甚至緊到2028年。AI GPU和網路晶片用的ABF載板,在整個需求裡的佔比會從2020年的18%漲到2030年的75%以上。MLCC更直接。一台AI伺服器的MLCC用量是普通伺服器的20倍以上。GB200 NVL72機架單機高達4635美元。當前MLCC庫存處於歷史低位,需求還在加速。散熱方面,2026年第二季度預計會是熱管理公司的單季出貨紀錄,液冷滲透率持續往上走。下半年的麻煩:成本太高,需求扛不住大摩把下半年的風險直接指向“科技通膨”。晶圓代工、封測、記憶體的成本往上走,會一層層壓到整機和晶片設計公司頭上。終端不一定能把漲價全部轉嫁出去,結果就是需求被擠壓,利潤率更難守。最慘的是邊緣AI。手機和PC本來想搞AI算力升級,但因為BOM成本飆升,大機率被推遲。對很多靠消費電子出貨的公司來說,2026下半年會很難熬。大摩還提了一個熊市情形:第一輪投資容易過度,後面大家會更理性。一旦發現“錢花出去了但方向不清晰”,回報率會被反覆質疑。再加上電力牆和資金約束,部署節奏會明顯放慢。 硬體這邊,靠近資料中心的活得滋潤,貼近消費電子的就難受了。 (世界半導體技術論壇)
撕開Claude Code真相:讓它好用的98.4%,是工程不是AI
當普通人還在鑽研「最強提示詞咒語」時,矽谷頂級實驗室已經把AI基建跑成了生產線。你還在ChatGPT的聊天框裡反覆調prompt?最近,一位X使用者發了條推文,開頭就是一個驚呼:頭部大廠偷偷在用的Claude Code項目範本外洩!這已經不是寫提示詞了。這是AI工程基礎設施。整套打法圍繞一個檔案「CLAUDE.md」展開,而它的核心原則只有三條:每次Claude犯錯→你加一條規則;每次你重複自己→你加一個工作流;每次出bug→你加一道護欄。這樣做,是要把項目經驗沉澱成它每次啟動都會讀取的長期上下文和自動化約束。整個架構,像是一家AI公司的崗位編制:CLAUDE.md是入職手冊,skills/是工作SOP,hooks/是合規部,docs/是公司章程,tools/是後勤組,src/才是真正出活的業務部門。你不再是在和AI聊天了,而是在建構一個瞭解你程式碼倉庫的AI。最瘋狂的部分是,你只需要配置一次,Claude就會自動審查程式碼,並按指令重構、強制執行架構規則、撰寫發佈說明、從技能中運行工作流、記住過去錯誤等。而且它會越用越聰明。大多數人,都是打開ChatGPT,寫提示詞,複製貼上,反覆;而在這套打法下,你只需要打開終端,跑一個skill程式碼已交付。這等於是在自己的程式碼庫裡養了一隊AI同事。這條推文背後,傳遞的是這個時代正在悄悄翻篇的一個小訊號,大多數人可能還沒反應過來。一張不算洩露的「洩露截圖」撕開一個真相@ai_rohitt曬出來的這張截圖,是Anthropic官方文件裡公開推薦的Claude Code標準範式。CLAUDE.md是Claude Code在每次會話開始時自動讀取的項目記憶檔案。.claude/skills/和.claude/hooks/是官方支援的擴展機制。這些都是社區已經討論了幾個月的公開做法,並不是什麼人偷出來的「內部範本」。但它之所以能讓一些資深開發者主動轉發,說明它得到了一些天天用Claude的開發者們的認同。其中相當一部分人,可能這兩天才意識到原來它還能這麼用。而矽谷頂級團隊,已經把這件事跑成了生產線。第一個例子,是OpenAI Frontier團隊。OpenAI官方披露的Frontier團隊實驗中,一個從空repo起步的內部beta,在約5個月內由Codex生成了約100萬行程式碼和約1500個PR;團隊從3人擴展到7人,人工不直接寫程式碼。帶隊的Ryan Lopopolo在後續訪談中進一步提到,這套工作流已經接近「0 人工程式碼、0 人工 review」的極限形態。他認為與其節省token,不如利用模型極高的並行能力和極低的成本來代替人類有限且昂貴的同步注意力。第二個例子,是Stripe內部的自動化程式碼代理系統Minions。Stripe內部的Minions每周生成並推動超過1300個PR合併,這些程式碼從頭到尾由AI生成,但仍經過人工review。這裡還有一對資料:1.6%vs98.4%,它來自Mohamed bin Zayed AI大學VILA-Lab發表的一篇論文。https://arxiv.org/pdf/2604.14228研究者係統性扒了Claude Code v2.1.88版本51.2萬行TypeScript原始碼,給出的結論是:只有1.6%是AI決策邏輯,剩下的98.4%是確定性的工程基礎設施。具體說就是權限閘道器、上下文管理、工具路由、錯誤恢復這四類。這組數字不是說模型只貢獻1.6%的能力,而是說明Claude Code作為產品,大量複雜度不在模型本身,而在權限、上下文、工具路由、恢復機制等確定性工程基礎設施上。@ai_rohitt那張圖裡的CLAUDE.md/skills/hooks結構,就是普通開發者也能搭一套的「入門版基建」,它和OpenAI、Stripe那套生產級架構是同一種範式,只是規模小得多。CLAUDE.md暴露的秘密過去3年,所有人都在問「GPT什麼時候能更聰明」「Claude什麼時候出新版本」。但真正在生產環境跑通AI程式設計的團隊,他們更關心的可能根本不是這個,而是如何讓AI記住自己上次踩過的坑,怎麼讓AI在動手前先看一眼項目的架構約束,怎麼讓AI犯錯的時候自己被工具擋住。CLAUDE.md正是這一切的承載體。Anthropic官方對它的定義只有一句:一個markdown檔案,放在項目根目錄,Claude Code在每次會話開始時自動讀取。https://code.claude.com/docs/en/memory聽上去很簡單,圍繞它展開的那幾層結構,才是它真正厲害的部分。CLAUDE.md是項目大腦。架構決策、命名約定、測試要求、那些反覆踩過的坑,都堆在這裡。它是AI每次啟動時第一眼看到的「員工手冊」。.claude/skills/是可復用工作流。Claude Code的建立者Boris Cherny在社區裡反覆強調一句話:「如果你每天做某件事超過一次,把它變成skill或command。」一個skill就是一段可執行的方法論。Code review、生成commit message、寫發佈說明,這些都不該是每天手敲提示詞的活,應該是skill調一下就出結果。.claude/hooks/是自動護欄。這是最關鍵的部分。它不依賴AI自己判斷,由確定性程式碼在AI犯錯之前就擋住它。這就是為什麼敢讓AI「無人監督」地跑,因為出錯的邊界由hooks卡死了。docs/decisions/是架構決策記錄。讓AI不僅知道程式碼「是什麼」,還知道程式碼「為什麼是這樣」。這一項最容易被忽略,但也是AI協作最大的槓桿點。tools/和src/是執行層。這套架構真正值得注意的地方,不在於某個開發者搞出了一個漂亮目錄,而是越來越多獨立團隊正在收斂到同一個方向:把模型放進一套由上下文、工具、權限、評估和反饋循環組成的harness裡。GitHub上已經能看到不少類似項目:rohitg00的awesome-claude-code-toolkit、diet103的claude-code-infrastructure-showcase、affaan-m的everything-claude-code,都在圍繞agents、skills、hooks、rules、MCP configs等元件搭建Claude Code的工程化工作環境。這說明,真正成熟的AI程式設計工作流,不是只靠一個更強的模型,也不是只靠一條更長的prompt,而是把模型嵌入一套可復用、可約束、可恢復、可審計的工程系統裡。至於具體目錄結構,各家實現並不完全相同。OpenAI實驗室的極限實驗2026年2月11日,OpenAI官方部落格發了一篇文章:《Harness engineering: leveraging Codex in an agent-first world》。https://openai.com/index/harness-engineering/Anthropic圍繞這個概念重新調整了Claude Code的架構思路;Martin Fowler的網站把它凝練成一個公式:「Agent=Model+Harness。」Harness這個詞來自馬術。它指的是馬的整套挽具,韁繩、馬嚼子、馬鞍、籠頭。一匹馬可以跑得很快很有力,但它自己不知道往那兒走:整套挽具決定了它的方向。類比到AI程式設計:模型本身能力很強,但它不知道在你的程式碼庫裡該往那兒走。Harness就是你為它造的方向盤+剎車+導航。OpenAI Frontier團隊那個「100萬行0人工」的實驗,本質就是把Harness做到極致。他們的關鍵工程實踐包括以下幾條。層級架構強約束。從Types到Config到Repo到Service到Runtime到UI,依賴關係單向流動,由linter在CI層強制執行。Agent寫出違反層級關係的程式碼?直接建構失敗。linter錯誤資訊本身是修復指令,這也是最反直覺的細節。普通項目的lint錯誤是「violation detected」,給人看的;OpenAI Frontier的lint錯誤是「use logger.info({event: 'name', ...data}) instead of console.log」,給Agent看的、可以直接讀懂並修復的指令。文件作為單一事實來源。所有架構圖、execution plans、設計規範都在倉庫內部的docs/目錄。Agent不需要任何外部知識庫,一切就在repo裡。這套東西效果有多厲害?模型沒有換,但LangChain調整了harness,包括系統提示、工具、中介軟體和推理模式,最終把Terminal Bench 2.0分數從52.8提到66.5。你今天就能做的事是為AI造一個項目大腦問題回到普通開發者這裡:如果範式已經轉移,作為一個普通工程師,今天就能做點什麼。第一件事,在你最重要的項目根目錄建一個CLAUDE.md。不需要完美,也不需要很長。寫下你團隊的架構規則、命名約定、測試要求、那些反覆踩過的坑,10分鐘能寫完一個能用的版本。下次AI犯錯的時候,先不要手動修,而是問自己一句:CLAUDE.md裡缺了什麼?第二件事,把每天重複做的事改造成skill。這裡要注意Boris Cherny的金句:「如果你每天做某件事超過一次,把它變成skill或command。」Code review、生成commit message、寫發佈說明、修一類重複的bug,這些都該是skill,不該是每天手敲提示詞。第三件事,在容易踩坑的地方加一個hook。Hook是98.4%裡最有槓桿的那部分。它不依賴AI變聰明,它依賴確定性程式碼做強制檢查。這是把人類工程師的判斷力翻譯成機器可讀約束的過程。這件事的核心不在寫程式碼,而在寫規則。Karpathy今年1月在推特上的那句被廣泛轉發的話:「我已經從80%手動寫程式碼變成了80%交給Agent寫。」未來五年,工程師的能力曲線正在從「我能寫多少行程式碼」轉向「我能為AI設計多嚴格的工作環境」。寫程式碼的活兒正在被Agent接管。但設計那個讓Agent能寫出好程式碼的世界,還是人的工作。而且比以前更難、更重要、也更有意思。 (新智元)
那個被時代拋棄的諾基亞,殺回來了
最近,諾基亞的股價悄然攀升,已經創下2010年4月以來16年新高,市值逼近550億美元。這個曾在智慧型手機浪潮中跌落神壇、被貼上“時代棄子”標籤的消費電子巨頭,再次回到公眾視野。從功能機時代的王者到智慧型手機浪潮中的“掉隊者”,諾基亞看似淡出公眾視野,實則從未離開戰場。踩中AI風口,一個新的諾基亞殺回來了。提起諾基亞,年輕一點的讀者,可能覺得陌生。對80後來說,諾基亞可是難以複製的傳奇。很多經典機型,至今仍為人津津樂道。比如諾基亞1100,極致簡約、超長待機、堅不可摧,累計銷量超2.5億部,被譽為“人類歷史最暢銷手機”。諾基亞1100又如諾基亞N93/N93i,採用DV式旋轉翻蓋設計,專業級攝像,被譽為“便攜影像怪獸”。諾基亞 N93/N93i自1992年推出全球首款GSM數字手機,諾基亞便開啟了一段長達14年的統治之路。巔峰時期的2005年,全球每賣出10部手機,就有7部是諾基亞,其餘所有品牌(摩托羅拉、三星、LG等)合計僅佔不到3成。彼時的諾基亞,是全球消費電子領域的絕對王者。盛極而衰的轉折,始於2007年。賈伯斯推出第一代iPhone,Google開源Android系統,諾基亞押注WindowsPhone系統,犯下戰略失誤,最終無力回天。2013年,諾基亞迎來至暗時刻。在全球智慧型手機市場的份額已跌至約3%,徹底跌出前五,被三星、蘋果以及眾多Android品牌遠遠甩開。淨營收為127億歐元,較巔峰期(超500億歐元)萎縮超70%,淨虧損高達11.48億歐元。與2007年超千億歐元的市值巔峰相比,市值已跌去約90%。也正是在這一年,無奈之下,諾基亞以54.4億歐元將手機業務打包賣給微軟,價格甚至不及它巔峰時期一個季度的營收。伴隨業務出售,諾基亞在全球啟動了數萬人的大規模裁員。曾經的全球手機霸主,淪為了賣身求存、前途未卜的“落魄貴族”,逐漸淡出了大眾視野。從股價走勢上看,2013年賣掉手機業務後,諾基亞美股股價進入長達十年的下降通道。諾基亞美股股價走勢從2013年的6美元,緩慢下跌至2023年的3美元。直到2024年,諾基亞的股價開始反彈,逐步攀升至最近的10美元,創下16年新高。諾基亞,做對了什麼?諾基亞,踩中了AI超級風口。AI產業鏈,正解局此前已多次介紹,這裡簡單梳理。先設想一下,AI產業鏈猶如一座“超級工廠”。工廠的運轉需要“發動機”,也就是GPU,負責AI大模型的訓練和推理,這是AI運算的核心。AI運算耗電量極大,一座大型AI資料中心的耗電量堪比一座中小型城市,電力不可或缺。此外,工廠還需要大量的儲存晶片,用於儲存資料。簡單來說,儲存晶片儲存資料,GPU消耗電力訓練資料,AI“超級工廠”基本上就可以運轉起來了。資料中心這也是為什麼GPU、變壓器、儲存晶片供不應求、價格飆漲的原因了。當然,AI“超級工廠”的運轉,遠比上面介紹的要複雜得多。比如,大模型參數從幾十億到兆,資料量從TB到PB,甚至幾十PB。如何在GPU、儲存裝置之間傳輸?這正是當前AI產業鏈最核心的矛盾之一:計算速度已經飛快,但資料傳輸速度跟不上。最常見的方式是用網線、銅纜、PCB走線連接,成本低,但頻寬有限,無法滿足PB級資料流動需求。高端一點的,則是使用PCIe5.0/6.0、InfiniBand等高速電互聯,可實現200G–800G傳輸,但功耗高、距離短,難以擴展到萬卡級叢集。AI算力網路的最優解是光通訊,即以光纖與光波為載體傳輸資料。別看光纖很細,一秒鐘能傳輸的資訊量(傳輸容量)達到100Tbps,相當於1000根銅纜加起來的傳輸能力。而且訊號傳輸時的損耗特別小,每公里只損耗0.2dB,不用頻繁加裝訊號放大器,就能實現跨太平洋、跨大西洋的遠距離傳輸。諾基亞光模組如果說,家裡常用的網線是普通公路,那麼,光通訊就是雙向八車道的超級高速。“跑得快、裝得多”,“走得遠、耗得少”,“不受干擾、更穩定”三大優勢,成為AI產業鏈中不可或缺的關鍵一環。站在AI風口,光通訊已進入兆級增長通道。Lumentum預測,到2030年,AI光通訊總潛在市場將從2025年的180億美元飆升至900億美元,年複合增長率高達40%,增長空間極為廣闊。資本市場,已經做出反應。比如,美國光通訊Lumentum,是輝達AI資料中心光學元件核心供應商,年內股價大漲70%。又如,全球光模組龍頭中際旭創,800G/1.6T光模組市佔率50%,訂單排至2027年第二季度,近一年股價大漲936%。諾基亞,正是光通訊行業的重要玩家。2025年,在全球光網路市場中,諾基亞市場份額高達21%,排名行業第二。在下一代光纖技術XGS-PON市場,諾基亞以35%的份額位居全球第一。在資本市場看來,諾基亞已經從“電信裝置商”轉型為“AI基建核心股”。特別是2025年10月,輝達以10億美元戰略投資,更是直接引爆諾基亞股價。諾基亞股價創新高,也就不足為奇了。那麼問題來了,諾基亞為何能踩中光網路的風口?其實,很早之前,諾基亞就已涉足光網路業務。當時在諾基亞內部,與如日中天的手機業務相比,光網路業務因投資周期長、回報慢而不被待見,最終被賣掉。手機業務日落西山之後,回歸“老本行”成為諾基亞不得不為之的選擇。也正因如此,2013年出售手機業務前一個月,諾基亞就以17億歐元買下西門子持有的諾西通訊全部股份,加碼電信裝置製造領域。彼時,全球電信裝置市場競爭也很激烈。華為、愛立信遙遙領先,諾基亞與前兩強差距明顯。全球電信裝置巨頭2013年財報諾基亞考慮的是,既要守住在電信裝置市場的基本盤,又要找到一個技術壁壘高、且能發揮其傳統優勢的領域。隨著工業網際網路、雲端運算等資料量越來越大,起到連接作用的網路變得越來越重要。諾基亞判斷,誰掌握光網路,誰就掌握未來數字基礎設施的骨架。為了快速重返光網路賽道,諾基亞採取了頗為激進的收購策略。2016年,諾基亞耗資156億歐元收購阿爾卡特朗訊。阿爾卡特朗訊源自大名鼎鼎的貝爾實驗室,系出名門,手握大批通訊行業專利。諾基亞收購阿爾卡特朗訊,不僅做大規模效益,夯實了專利與研發護城河,更是補齊了光網路的技術與市場短板,搖身一變成為全球光網路核心巨頭。2024年,在AI算力光網路超級周期的爆發前夜,諾基亞再度出手,以23億美元收購光網路裝置商Infinera。光網路裝置商 Infinera通過這一併購,諾基亞補齊DCI高速光傳輸、北美雲廠商客戶、磷化銦光晶片三大短板,一躍成為全球光網路第二、AI算力網路全端玩家。兩次收購,步步踩在時代拐點上,堪稱戰略上的神來之筆。不可否認的是,失去手機業務後,諾基亞的營收已不復當年之勇。2025年營收224億美元,僅為2007年巔峰時期761億美元的三分之一。規模不再,榮光已逝。換個角度看,在核心主業潰敗、幾乎被時代拋棄的至暗時刻,諾基亞果斷斷臂求生,用十餘年時間沉下心來深耕電信裝置製造,並成為光通訊的核心玩家。真正的王者,不在於永無敗績,而是失敗後仍有重塑山河的勇氣與韌性。時代淘汰了昔日的手機霸主,卻成就了今天的AI基建巨頭。一個新的諾基亞,殺回來了。 (正解局)
賣鞋賣到破產,改名 AI 股價漲 5 倍:Allbirds 和華爾街永不停歇的“改名遊戲”
一家市值跌去 99% 的環保鞋企,靠兩個字母“AI”,股價一天暴漲 582%。2026 年 4 月 15 日,一個在矽谷已經快被遺忘的名字,重新殺回了美股熱搜榜。Allbirds,那家曾經讓矽谷程式設計師人腳一雙的羊毛運動鞋品牌,宣佈徹底放棄製鞋業務,轉型為一家 AI 算力基礎設施公司。新名字叫“NewBird AI”,業務是買 GPU、建資料中心、做算力租賃。消息一出,BIRD 股價從前一天收盤的 2.49 美元,盤中最高飆到 24.31 美元,收盤報約 17 美元,單日漲幅 582%。市值從 2100 萬美元暴漲到接近 1.6 億美元。一家賣鞋的,改名賣算力,市值一天翻了將近 8 倍。這個畫面,是不是似曾相識?從 40 億到 3900 萬:矽谷寵兒的墜落故事得從頭說起。2015 年,紐西蘭前足球運動員 Tim Brown 和可再生材料專家 Joey Zwillinger 在舊金山創立了 Allbirds。他們的賣點很簡單:用美利奴羊毛做鞋,舒服,環保,極簡。這雙鞋迅速成為矽谷科技圈的“制服”,歐巴馬穿,小李子穿,Sand Hill Road 上的風險投資人們更是幾乎人手一雙。2021 年 11 月,Allbirds 在納斯達克上市,市值一度超過 40 億美元。那時候 ESG 還是華爾街的政治正確,“可持續時尚”是最性感的消費敘事,投資人相信這家公司能成為下一個 Nike。但泡沫破得比預想中快。上市後的四年裡,Allbirds 的營收從 2.98 億美元腰斬到 1.52 億美元。競爭對手蜂擁而至,獲客成本不斷攀升,線下門店一家接一家關閉。2026 年 1 月,公司宣佈關閉所有美國全價門店。2026 年 3 月 30 日,Allbirds 以 3900 萬美元的價格,把品牌、智慧財產權和全部鞋類資產賣給了 American Exchange Group。3900 萬美元,這家公司 IPO 時募資金額的零頭都不到。從 40 億到 3900 萬,跌幅 99%,用時不到五年。賣完鞋之後,Allbirds 剩下什麼?一個納斯達克的殼,一個股票程式碼 BIRD,一堆股東,和一個需要給華爾街講新故事的 CEO Joe Vernachio。Vernachio 是個傳統零售老兵,在 Nike、Patagonia、The North Face 都幹過,2021 年加入 Allbirds 當 COO,2024 年接任 CEO。他的履歷裡沒有一行跟 AI、GPU 或者資料中心有關。但這不重要,在 2026 年的華爾街,你不需要懂 AI,你只需要說出這兩個字母,就有人買單。NewBird AI:5000 萬美元買 GPU4 月 15 日,Allbirds 發佈公告:Allbirds 將更名為 NewBird AI,定位為“GPU-as-a-Service”和“AI 原生雲解決方案提供商”。公司獲得了一筆 5000 萬美元的可轉換融資,來自一位未具名的機構投資者,資金將用於採購高性能 GPU 硬體,然後以長期租賃方式出租給 AI 開發者和企業客戶。公告裡的話術很專業:“GPU 採購周期正在拉長,北美資料中心空置率降至歷史低位,2026 年中之前上線的全市場算力產能已經被全部預訂。”言下之意,算力供不應求,NewBird AI 要來填補這個缺口。聽起來很有道理,問題在於:Allbirds 沒有任何 AI 技術背景,沒有資料中心營運經驗,沒有 GPU 供應鏈關係,沒有已簽約的客戶。它擁有的,是一個上市公司的殼,和 5000 萬美元的新錢。5000 萬美元在算力基礎設施行業是什麼概念?輝達一塊 H100 的市價大約在 2.5 萬到 4 萬美元之間。5000 萬美元滿打滿算能買 1200 到 2000 塊 H100,而亞馬遜 AWS、微軟 Azure、Google Cloud 三家加起來控制著全球 63% 的雲基礎設施市場。一家前鞋企,拿著 1000 多塊 GPU,要跟三大巨頭搶生意?當然,公告裡也留了伏筆:公司計畫在 5 月 18 日召開特別股東大會,投票通過更名和戰略轉型。其中有一項議案格外引人注目,請求股東批准刪除公司章程中“為環境保護公共利益而營運”的條款。從“為地球做一雙好鞋”,到“為 AI 賣算力”,連環保章程都要改,轉型的決心倒是很堅決。“改名經濟學”:一部華爾街荒誕史Allbirds 不是第一個幹這種事的公司,也不會是最後一個。2017 年 12 月,紐約長島的一家冰茶公司 Long Island Iced Tea Corp.,宣佈將戰略重心轉向區塊鏈技術,改名為 Long Blockchain Corp.,消息發佈當天,股價暴漲近 500%。那家公司的區塊鏈業務從來沒有真正營運過。兩個月後,納斯達克將其摘牌。再後來,SEC 介入調查,最終以內幕交易罪名起訴了相關人員。這就是華爾街“改名經濟學”的經典案例:當一個概念足夠熱門,光是把它寫進公司名稱,就能讓股價飛上天。2017 年的魔法詞是“Blockchain”,2026 年的魔法詞是“AI”。Allbirds 的故事甚至跟 Long Blockchain 有著驚人的結構性相似:核心業務失敗,資產賤賣 ,保留上市公司殼,蹭最熱概念改名,股價暴漲。區別在於,2017 年那次是草台成員的瘋狂,而 2026 年的這一輪有著更精密的金融包裝。Allbirds 有 5000 萬美元的可轉換融資做信用背書,有“GPU-as-a-Service”這個聽起來很專業的商業模式,有一份寫滿了行業術語的 SEC 檔案。包裝更精緻了,核心沒變:用一個熱門標籤,給一個空殼鍍金。從 DAT 到 GPU:敘事改變估值如果你關注加密市場,對這種套路應該不陌生。2025 年是加密“數位資產財庫”(DAT)公司的爆發之年。大量主營業務萎靡的小市值上市公司,紛紛宣佈將加密貨幣納入資產負債表,搖身一變成為“比特幣/以太坊/Solana 財庫公司”。截至 2025 年 9 月,這類公司至少有 200 家,總市值約 1500 億美元,一年內翻了三倍。套路幾乎一模一樣:股價低迷,宣佈買入加密資產,暴漲 300% 到 900%,趁高位增發融資,再買更多代幣,循環往復。音樂停下來的時候,場面很難看。2025 年下半年加密市場回呼,至少 15 家比特幣財庫公司的股價跌破了其持有代幣的淨資產價值,散戶虧損估計達到 170 億美元。Allbirds 的 NewBird AI,本質上就是 DAT 模式的變體。把“買代幣”換成“買 GPU”,把“比特幣財庫”換成“算力租賃”,底層邏輯完全相同:一家沒有相關業務能力的殼公司,蹭熱點敘事吸引資金,再用資金購買熱門資產。GPU 是實物資產,不會一夜暴跌 50%,但會貶值、會過時,需要電力、冷卻、維運,這些恰恰是 Allbirds 從未接觸過的領域。每一輪技術浪潮都催生同樣的現象。2000 年加個“.com”,2017 年加上“Blockchain”,2021 年說自己是“元宇宙”,2025 年宣佈買比特幣,2026 年宣佈買 GPU。底層人性從來沒變:貪婪尋找最短路徑,市場永遠願意為一個好聽的故事買單。5000 萬美元的算力投入,放在 CoreWeave、Lambda 這些已經擁有數萬塊 GPU 的玩家面前,連個浪花都算不上。但一家賣羊毛鞋的公司,僅憑一紙公告和一個新名字,就能在一天之內創造超過 1.3 億美元的市值增量。這種事情在牛市的中後期出現,從來不是什麼好兆頭。記住 Long Blockchain Corp. 的結局,NewBird AI 的結局也許不會完全一樣。但當一個零售老兵帶著一家剛賣掉全部鞋子的空殼公司,聲稱要跟亞馬遜和微軟搶算力生意的時候,你至少應該問自己一個問題:這 582% 的漲幅裡,有多少是信仰,有多少是泡沫? (深潮 TechFlow)
台積電與ASML財報前夜,聊聊AI算力基建真正的預期差與“物理瓶頸”
1 月份我們用了好幾篇文章拆過一條鏈:儲存漲價 → 倒逼 CPU 囤貨和整機搶裝 → 雲廠商被迫漲價,傳導率大約 33%-40%。當時的結論是,這波漲價不止一輪,"你有可能看到雲服務廠商一次調價、兩次調價、甚至三次調價"。三個月過去了,漲價確實落地了。但這周看到 Sightline出的一組資料,讓我意識到之前的判斷雖然方向對,但瓶頸的等級低估了。前幾天去荷姆茲海峽的分析師Citrini今天也發文:縱觀各投資組合表現最佳的個股幾乎都AI 材料類股或“PTSD"框架,其實還有電力。一邊是AI合縱連橫,大筆融資,另一邊是電都通不上。今天來看看當下AI行業的一些動態:1、資料中心的瓶頸到底卡在那?2、ASML 明天、TSMC 後天,財報有那些新預期?一、資料中心的瓶頸到底卡在那?大家最擔心的一直都是資本開支能否不斷向上,我覺得從細節上也可見一斑。前幾天大家都反應claude越來越不聰明,甚至測出來的排名越來越靠後,作為當下最強模型,出現因為計算資源不足而導致的降智,也側面說明了當下的算力還遠遠不夠,要知道目前才剛進入半人工智慧,剛開始能控制電腦自己幹活,還沒有進入視訊階段就這樣,足可見短期可見算力還是太缺。資本開支 → 資料中心 → 算力上線 → 雲收入 → 證明 投資回報率。這條鏈大家已經很熟了。Sightline剛出的報告把第一環拆開了,數字不好看。26 年美國計畫投運約 16 吉瓦資料中心容量。實際在建的只有 5G瓦。 Sightline 估計 30%-50% 的項目會延期或取消。*美國資料中心管線:2026 年計畫 16.2 吉瓦,綠色為在建,黃色僅為宣佈。注意 2027-2028 年黃色佔比更大。2027 年更難——宣佈了 21.5 吉瓦,實際在建 6.3 吉瓦。2028 年之後的項目大部分連確定的完工日期都沒有。瓶頸不是錢——超大規模廠商今年 資本開支加起來超 7000 億美元。Canaccord 分析師的原話:"美國資料中心的繁榮正遭遇物流摩擦構成的巨大壁壘。"具體卡在三個地方。*美國主要電力裝置進口量:變壓器、開關裝置、電池需求激增,國內產能跟不上。變壓器。 資料中心越建越大,需要的變壓器規格也在翻。GE 電氣化部門的負責人說,2020 年之前交期 24-30 個月,那個年代夠用。但現在 AI 公司"通常希望 18 個月內拿到貨"——現實是需求激增已經把交期拉到最長 5 年。有公司開始翻新已關閉電廠裡的舊變壓器湊數。電力。 25% 的 2026 年計畫項目甚至還沒有披露供電方案。等電網靠不住,企業開始自己想辦法——Crusoe 在懷俄明州建 1.8 吉瓦的天然氣加可再生能源項目,Homer City 在賓夕法尼亞改造 4.5 吉瓦的煤改氣。最新的新聞是Oracle 跟 Bloom Energy 簽了最多 2.8 吉瓦的燃料電池供電協議,專門給 AI 資料中心用。今天bloom暴漲20%。Bloom Energy 說今年年底產能要翻倍到 2 吉瓦。這些動作本身就說明問題——如果電網能解決,沒人會花這個錢自己建電廠。Sightline 說得很直接:"若指望電網來提供這一等級的容量,可能需要十年。"零部件供應鏈。變壓器、開關裝置、電池——不只資料中心在搶,電網擴容、電動車、熱泵也要用。美國本土產能跟不上,只能靠進口。而很多關鍵零部件供應商在中國。高盛Shreeti 上周末報告裡說,她在投資者晚宴上聽到的共識是:"計算資源根本不足,每一家企業都面臨嚴重的計算瓶頸——從晶圓廠到資料中心審批,再到電力、記憶體乃至勞動力。"然後她自己追了一句——"這種共識是否已達頂峰?"從倉位看,共識確實擠。但 1 月我們聊的是CPU和儲存層面的缺貨,現在也逐漸顯現而更多的瓶頸也出現,不是記憶體條不夠,是機房建不出來,是AI材料緊缺。二、ASML 明天、TSMC 後天、M7財報明天 ASML 出 一季度財報,後天 TSMC 。TSMC 已經公佈了月度營收,一季度合計約 $357 億(同比 +35.1%),其中 3 月單月同比 +45.2%。這個增速主要由 3nm/5nm 節點成熟出貨和 2nm GAA 早期量產驅動,客戶端對應的是 Nvidia Blackwell 系列和 Apple 新品。一季度數字本身超了市場預期,沒有太大懸念。真正的看點是 4/16 電話會上的 二季度業績指引。市場平時盯收入和毛利率,但結合目前瓶頸邏輯,我覺得最該看的是兩件事:裝置端訂單能不能驗證擴產節奏,以及 資本開支花不花得出去。大摩今天的報告給了 二季度三種情景:基準情景(60% 機率)是環比 +5-10%,毛利率 64-65%。驅動力是 B300 和 Rubin R200 晶圓需求在 二季度集中放量。CoWoS 先進封裝產能從 2025 年約 100K/月擴到年底約 130K/月。供不應求沒有改變。ASML 這邊,核心看 EUV 新增訂單和交期。下游 HBM4 量產、TSMC 2nm 擴產、三星美光的記憶體產能投入——全都要過 ASML 。如果 ASML 確認 EUV 訂單增速與擴產計畫匹配,"HBM 供不應求到年底"就有了裝置端驗證。再聊聊整個AI類股的一季度前瞻:AI 基礎設施投資貢獻了今年標普 每股盈利增長的約 40%。 IT 類股 一季度每股盈利預期增長 44%,佔整個指數增長的 87%。僅 NVDA 和 Micron 兩家就貢獻一半以上。一季度超大規模廠商 資本開支預計 1490 億美元,同比 +92%——分析師認為這是增速峰值,後面幾個季度放緩。*超大規模廠商資本開支同比增速:2026 年一季度 +92% 是本輪周期峰值,之後逐季放緩。德銀則預計一季度標普 每股盈利增長 19%,創四年新高。理由是周期性驅動走強、美元同比貶值 6.8%、加上 AI 熱門領域加速。數字很好看。但問題是:7000 億 資本開支預算,花得出去多少?如果第一節美國資料中心的資料最終稿確實如此——半數資料中心延遲或取消、變壓器交期五年、25% 項目沒供電方案——資本開支的"落地率"就是一個非常關鍵的變數。錢撥了但花不出去,財務上是延後確認不是損失,但對上游供應鏈的訊號完全不一樣。這裡有一個張力——ASML 和 TSMC 確認的是晶圓端產能在擴,Sightline 確認的是資料中心端基礎設施在卡。 晶片造得出來,裝晶片的機房建不出來,AI材料供不應求。中間這個落差,就是資本開支"花不出去"的風險所在。高盛交易台今天也談到這個問題——IT 類股 一季度增長 44% 的預期已經極高了,"只有超預期才是利多,符合預期就是中性"。如果有大廠在電話會指引裡暗示資本開支因基礎設施瓶頸推遲,市場會非常敏感。之前CIO首席資訊官調查裡說的那句還記得吧——AI 優先順序創新高,但 IT 預算只多了 10 個基點。蛋糕在挪不在加。這周 TSMC 和 ASML 的財報,看的是蛋糕有沒有變大,還是只在上游這一段集中變厚。後面盯幾件事:ASML 明天的 EUV 訂單資料、TSMC 後天的 二季度業績指引 和 CoWoS 產能更新、以及財報季裡超大規模廠商的 資本開支前瞻指引——有沒有人開始提"項目延遲"和"供應受限"。 (北向牧風)
美媒急呼:AI資料中心建設,美國再遭中國“卡脖子”
在美國德克薩斯州的廣袤平原上,一場關於未來的豪賭正在上演。數千名工人日夜趕工,試圖為OpenAI等科技巨頭建構龐大的算力堡壘。然而,這些手握重金的建設者們此刻卻陷入了前所未有的焦慮——阻擋他們通往AI霸權的,不是被封鎖的高端晶片,而是看似平平無奇的“鐵疙瘩”:變壓器。美國大型資料中心施工現場有錢也買不到的“電力心臟”隨著生成式AI的爆發,資料中心成了名副其實的“吞電獸”。一座頂級AI資料中心的耗電量,足以匹敵一座中等規模的城市。要讓這些昂貴的GPU叢集運轉起來,不僅需要電,更需要能將高壓電轉化為可用電力的關鍵裝置。但現實給狂熱的美國AI基建潑了一盆冷水。據彭博社等多家美媒披露,美國今年計畫新建的資料中心中,近一半可能因關鍵電氣零部件短缺而被迫延期甚至取消。這不僅是供應鏈的波動,更是一場結構性的危機。被忽視的“卡脖子”環節長期以來,美國將目光鎖定在晶片製程和演算法模型的尖端對決上,卻忽視了支撐這一切的物理基礎。伍德麥肯茲的高級分析師本傑明·布歇直言不諱地指出:“國內產能根本不夠用。”過去幾十年,為了追求利潤最大化,美國將大量電氣製造產業外包。如今,當AI浪潮襲來,本土工廠早已無法在短時間內填補巨大的供需缺口。交貨期噩夢:在2020年之前,訂購一台大型變壓器通常需要等待兩年左右。而現在,隨著需求井噴,交貨周期被拉長到了驚人的5年。對於建設周期通常只有18個月的資料中心項目來說,這無異於宣判死刑。進口依賴加劇:儘管華盛頓一直在高喊“脫鉤”和“去風險”,但身體卻很誠實。資料顯示,2025年前10個月,美國公用事業公司從中國進口的大功率變壓器超過8000台,這一數字是2022年全年的數倍。變壓器與配電櫃諷刺的“反向卡脖子”這就構成了2026年最諷刺的商業圖景:美國在晶片領域對中國築起“小院高牆”,試圖切斷算力供應;但在基礎設施領域,美國的AI雄心卻不得不依賴中國的供應鏈。除了變壓器,開關裝置和鋰離子電池同樣面臨短缺。中國在電池領域的全球佔比依然頑固地保持在40%以上,且掌握了從原材料加工到成品製造的完整產業鏈。Crusoe能源公司的策略頗具代表性——他們不得不提前數年鎖定裝置供應,就像在瘋狂搶購限量版球鞋一樣搶購工業變壓器。這種被動局面讓美國企業陷入了兩難:一邊是川普政府可能加征的關稅壁壘,另一邊是如果不進口中國裝置就面臨項目爛尾的現實。德克薩斯大學奧斯汀分校的教授喬舒亞·巴斯比警告稱,如果為了政治正確而盲目切斷中國裝置進口,美國企業將付出“過於高昂的代價”。算力的盡頭是電力這場危機揭示了一個被矽谷精英們長期忽視的真理:算力的盡頭是電力,而電力的盡頭是強大的工業製造能力。馬斯克曾預言,AI的瓶頸將從“缺芯”轉向“缺電”。如今,這一預言正在應驗。中國在特高壓輸電和電力裝置製造上的深厚積累,原本是作為能源轉型的佈局,卻意外地成為了AI時代的關鍵籌碼。對於美國而言,重建本土變壓器產業鏈並非一日之功。在“美國優先”的口號與冰冷的工業現實之間,美國的資料中心建設者們正在經歷一場痛苦的陣痛。或許,只有當那些昂貴的伺服器因為缺電而閒置時,決策者們才會意識到:在全球化的今天,沒有任何一個國家能獨自通吃所有環節。 (晶片研究室)
摩根大通:2026年新興技術四大趨勢
不是技術越來越複雜,而是技術正在變得越來越像“人”——能聽懂你、主動幫你、替你做事。這一年,AI不再是工具,而是夥伴。有沒有這樣一種感受,這兩年,AI的相關新聞到處都是,可是,總是感覺距離自己稍微有點遠,又或者,雖然聽明白了名詞,然而,卻弄不清楚它究竟意味著啥呢?最近摩根大通發佈了一份報告,這份報告是關於2026年新興技術趨勢的分析,報告裡沒有太多讓人覺得難懂的公式,然而卻把未來幾年科技將會發生怎樣的變化講得十分清楚。今日,我們摒棄晦澀難懂的技術不談,僅僅談論四個當下正在出現、並且將會對我們的工作以及生活產生深刻影響的核心變動。第一章:AI能不能幫上忙,全看它“懂不懂你”往昔我們談及AI,講的是其何等聰慧。然而當下,眾人發覺:AI即便聰慧超乎尋常,倘若對您的特定場景毫無認知、對您究竟是誰一無所知、對您所欲踐行之事全然不解,那麼它所給出的回應內容,僅僅是堆砌而成充斥正確性的無用話語罷了。那麼,首要的一個大趨勢便是,AI是否好用,其關鍵之處在於,它能否獲取到那些“恰當的上下文”。什麼叫做“對的上下文”呢?那便是它明白你當下的角色,清楚你所具有的目標,曉得你手頭現有的資料,知曉你能夠運用的工具。恰似一位新入職的同事,倘若他不熟悉你們公司的業務流程,不曉得項目的背景狀況,不清楚該去跟誰進行對接,那麼即便他再聰慧,也無法把活幹好。為了讓AI真正“懂”這些,報告裡提到了幾個有意思的方向:物理AI:人工智慧走出電腦步入真切實際世界,舉例而言,工廠之中的機器人,並非是被預先編寫程序設定好的那種固定模式動作,而是具備自我學習能力,能夠自行適應,當面對不同形狀的箱子時,它能夠憑藉自身能力判斷如何抓取,以及運用多大的力量來抓取,恰恰是這種物理人工智慧展示出其現實功效。知識圖譜:你可以把它理解成給AI裝了一個“企業大腦”。它將公司內零散的資料、關係以及規則串聯起來,在AI提問時,並非隨意翻閱資料,而是如同一位資深員工,清楚誰是誰,什麼事務該找誰去處理,以及怎樣去執行什麼流程。上下文工程:這是個全新的詞彙,然而其蘊含的道理卻並不複雜;人工智慧一次能夠接納的資訊數量存在著限制,恰似人的注意力存在著侷限一樣;故而當前所注重的並非是“給予它的資訊越多便越好”,而是“怎樣挑選最為關鍵的資訊給予它”;這就如同為人工智慧配備了一位管家,協助它篩選資訊、捋順思路。簡略來講,往後的AI運用,較量因素並非是模型有多厲害強大,而是在於它於合適的時刻,能否獲取到恰當的資訊。第二章:AI用得越多,背後的“基建”就越忙你可曾察覺到,當下開啟任意一款App,皆有可能彈出一位AI助手。這表明AI已然不再是實驗室裡的玩鬧之物,而是被較多地運用到了實際業務當中。但背後有一個問題:算力不夠用了。因此,AI推理的需求,正在推動一場前所未有的基礎設施大升級。這裡所提及的“基礎設施”,並非我們平常所認知的伺服器,而是涵蓋能源的體系,是包含資料中心的體系,是涉及晶片的體系,是關乎網路的全套體系。能源方面,AI運行起來耗電量極為顯著,針對某個大型資料中心而言,其耗電量等同於一座小城市的耗電量,鑑於此,當下眾人都在開展新供電方式的研究工作,諸如小型核反應堆、太陽能以及地熱能等,實施這些研究只有唯一的目的,那便是確保AI能夠獲得電力供應,進而實現正常運行。資料中心,以往建構資料中心時,如同搭建倉庫,現下情況不同,需建成‘高樓’,採用液冷散熱方式,助力支援更高層級密度的晶片堆疊,簡言之,即在更小容量空間內,裝填更多的算力。晶片方面,GPU這一圖形處理器向來是AI的主力,然而當下出現了各類“專用晶片”。其中有專門用於做推理的,還有專門用於做邊緣計算的。這些專用晶片具備更省電的特性,同時價格更為便宜,能夠使AI的成本降下來。雲原生人工智慧,旨在使企業能夠更為便利地管理人工智慧資源,開源社區此刻正在建構一套具備標準化特性的工具。你能夠將其理解為,給人工智慧相關的基礎設施裝置了一套相當於“作業系統”的事物,進而致使開發者以及維運人員無需再為底層硬體問題而感到頭疼不已。這個趨勢向我們傳達出這樣的資訊:AI並非毫無憑藉就自行運行起來的,它的背後存在著整整一套,且這套系統正變得愈發龐大,愈發細緻入微的“後勤系統”,是該“後勤系統”在起著支撐作用。第三章:你不用再“找”App,App會來找你你若計畫去做一件事情,其通常所遵循的流程究竟是怎樣的呢,先是開啟瀏覽器,接著進行搜尋,隨後點開若干網站,再去下載一款App,而後開展註冊操作,跟著實施登錄行為,接著填寫表單,最後予以提交,光是這麼思索一番便已然覺得疲憊不堪了。然而,未來只要你將“我想要去做什麼”這般表述出來,其餘的事項便都交付給人工智慧去進行處理了。這背後的邏輯是互動方式的根本性質的轉變,這種轉變是從“應用切換”轉變為“意圖即介面”。舉個例子:智能體瀏覽器,你無需再開啟十幾個網頁,去進行比價、填表以及下單的操作。你告知瀏覽器“幫我訂一張周五下午前往上海的高鐵票”,它便會自行去查詢時刻表,去比較價格,去下單,去付款,最後向你告知“搞定了”。辦公軟體未來並非Word、Excel那些軟體,變成了一個“智能協作空間”,也就是AI原生工作空間,它能謹記你上周和那個客戶交流,清楚你下周三存在匯報事項,會主動替你規整材料,提示你回覆關鍵消息,甚至在你開會之前,為你生成一份討論提綱。對於生成式使用者體驗而言,當你去打開同一個App,然而和別人所看到的情況或許會全然不一樣,緣何如此呢,是因為它會依據你的習慣。以及你的偏好,甚至還包括你此刻的心情,即時去“生成”一個最為適合你的介面,不再是那種整齊劃一的模式,而是呈現出千人千面的狀況。以前品牌若想聽使用者反饋,就只能去看文字評論,多模態社交聆聽方面,現在呢,AI能夠聽懂播客裡的語氣,還能夠看懂視訊裡產品的露出,甚至還能從圖片中識別情緒,這使得品牌真正“聽見”了消費者的心聲。這個趨勢的核心就是:技術不再讓你去適應它,而是它來適應你。第四章:先在“虛擬世界”裡試一遍,再拿到現實中用先前,若是你打算對一款全新產品以及一個全新流程予以測試,那就只能拿到實際環境中去運行一番。其成本高昂,風險巨大,一旦出現問題還得耗費時間慢慢進行偵錯。但是呢,當下的情形已然有所不同了。運用人工智慧在虛擬世界當中,將全部的種種可能性都逐一進行嘗試,之後呢,把最為可靠的那種方案取出來拿到現實世界裡來。合成使用者:你能夠生成數量達到成千上萬個的“虛擬使用者”用以對你的產品展開測試。這些“虛擬使用者”能夠模擬具有不同年齡、職業以及偏好的人群,從而籍此 assisting 你提前發覺問題。舉例而言,倘若你想要瞭解一款全新的 App 在老年人群體當中是否好用,並非真的需要去尋覓幾百個老年人來進行試用,借助 AI 便能夠幫你模擬出來。網路安全領域,以往是遭受到攻擊之後才去修補漏洞。如今,AI能夠建構企業系統的 “數字孿生”,接下來自身充當駭客,不斷反覆模擬攻擊路徑,進而找出所有有可能被突破的點。直至真正的駭客出現時,漏洞已然被堵住了。這個趨勢的實質,是將風險以及不確定性,放置於虛擬世界當中予以解決,使得真實世界裡的每一回部署,都更為穩妥、更為高效。(TOP行業報告)