#基礎設施
OpenClaw 帶來的「非線性狂飆」,程式碼正在成為新世界的基礎設施
2026 年初,AI 圈瀰漫著一種奇異的撕裂感。最近 Founder Park 密集組織了兩場 OpenClaw 閉門交流。在現場,我能明顯感覺到創業者和開發者那種複雜的情緒:興奮又焦慮,確定又迷茫。Claude Code 的負責人 Boris Cherny 在 X 上坦言,已經兩個月沒親手寫過、甚至改過一行程式碼了。Andrej Karpathy 也公開了他的工作流變化:從 80% 手寫程式碼,迅速倒置為 80% 由 AI 生成。他 在 2023 年 1 月的那條置頂推文也成了預言:「最熱門的新程式語言是英語」。沒人再手寫程式碼了。與此同時,作為「容器」的軟體,也正在變形。一邊是 AI 的瘋狂溢出,OpenClaw 在 GitHub 狂攬 18.7 萬星標,還在飆升;Anthropic 發佈了 11 個專業外掛,將 Claude Cowork 直接升級為自主執行的「數字員工」。另一邊是舊模式的崩塌,SaaS 遭遇 「SaaSpocalypse」(SaaS 末日),軟體股數千億美元市值說沒就沒。這一切變化太快,快到我們甚至來不及形成穩定的觀點。但有一點是確定的:我們正處在一個巨大的「範式斷裂」時刻。01 人類與程式碼,是一部漫長的「馴化史」我曾經多次走訪矽谷的電腦博物館,認真探尋了下我們人類與程式碼的關係,發現這其實是一部漫長的「馴化史」,大致可以分為三個階段,但這三個階段的底層邏輯,其實是同一個:提升「人」的生產力。第一階段,是「馴化期」(1950s - 1990s)這個時候,我們像是鐵匠,把程式碼鍛造成一個個「標準零件」。無論是 FORTRAN 的數學庫,還是 Windows 的動態連結庫(DLL),核心思想都是「復用」。我們把通用的邏輯封裝起來,下次用的時候直接拿來裝配,不用再費力重鑄。這時的程式碼,是一個聽話、可靠、毫無意外的工具。人類寫一行,機器執行一行。第二階段,是「培育期」(1990s - 2020s)隨著更智能的整合開發環境(IDE)成熟普及,程式碼開始變得有點「靈氣」了。它不再只是被動地等待指令,而是會「猜」你想做什麼,幫你自動補全、提示錯誤。人類依然是主導者,但程式碼不再是完全被動的字元——它在學習、在適應、在與開發者形成默契的對話。這是「夥伴化」的萌芽。第三階段,是「爆發期」(2020s - 2025)以 GitHub Copilot 為代表的大模型工具,把這種默契推向了極致。它不再是幫你補全一行程式碼,而是能寫出整個函數甚至整個模組。它像一個能力超強的「副駕駛」,你只要告訴它目的地,它就能幫你處理大部分常規操作。我們與它的關係,變成了飛行員與智能副駕。從「工具」到「夥伴」再到「副駕」,這條路走了七十年。它看起來在不斷進化,但背後有一個從未改變的根本前提:這一切都是在放大「人」的生產力。無論程式碼多智能,它始終是我們思想的延伸,是我們意志的執行者。方向盤始終握在我們手裡。我們是那個生產者,程式碼是那個最高效的生產工具。而在近期發生的一切,不再是關於如何讓副駕更聰明,而是關於副駕突然對你說:「你到後座去吧,接下來我來開。」02 過去一年裡,程式碼開始「非線性狂飆」真正的轉折點,發生在過去這短短的一年多時間裡。程式碼的進化突然從線性增長,變成了一場「非線性」的溢出。當程式碼開始擁有我們無法完全預期的「自主性」時,它就像一種被注入系統的新能量,開始不可阻擋地溢出我們為它設定的所有「容器」。這個溢出,導致了一環扣一環的連鎖反應。首先,撐破了「人機協作」的框架,生產關係被重構。當 Claude Code 團隊可以做到兩個月內 100% 由 AI 完成開發時,意味著程式碼的自主性已經強大到可以「承包」整個生產環節。一個深刻的轉變發生了:「執行」這個環節,正在迅速地商品化。過去,一個優秀程式設計師的價值,很大程度上體現在他能用多麼優雅和高效的方式,把一個模糊的想法,翻譯成精確的、機器可以穩定執行的程式碼。這個「翻譯」過程,就是「執行」,它本身是有價值的。但現在,這個價值正在被 AI 稀釋。我們不再需要手把手地教機器「怎麼做」,而只需要清晰地定義「做什麼」和「為什麼做」。這不僅僅是「生產者」到「質檢員」的角色變化,這是一種「認知價值」的遷移。人類的價值,正被迫從「如何實現」這個技術層面,上移到「意圖定義」和「品味判斷」這兩個更抽象的層面。什麼是好的產品?什麼是值得解決的問題?AI 給出的十個方案裡,那一個才符合我們對美、效率和人性的最終追求?這是一種新的認知分工:AI 負責不知疲倦地「執行」,而我們,必須成為更優秀的「思考者」和「決策者」。那個曾經由「執行力」定義的價值容器,已經被撐破了。其次,撐破了「生產協同」的容器,程式碼產能正在瘋狂增殖。當程式碼的自主性足以「承包」執行環節後,它必然不滿足於只待在我們的編輯器裡。它會溢出,去重構整個數字世界的形態。今年爆火的 OpenClaw 就是一個訊號。它本質上已經不是一個「程式設計工具」了,而是一個能接管你整個作業系統的「AI 智能體框架」,是一支可以被賦予任務、在你的數字世界裡主動穿行、調動資源來完成目標的「小分隊」。讓 OpenClaw 幫你整理檔案,這只是表層任務。更「嚇人」的是,如果它在整理中發現一種無法處理的檔案格式,它可能不會立刻放棄選擇報錯,而是會自己去搜尋推斷、尋找解法、調度工具,甚至創造工具。並且,OpenClaw 還具備自主迭代工具本身的能力。這就是更本質的變化:程式碼的生產,正在從一種由人類規劃的、目標明確的「建造行為」,變成一種由 AI 驅動的、為了達成被給定的目標而進行的「生態演化」。開放原始碼專案裡開始湧入大量 AI 貢獻的程式碼,其數量和速度,都遠超人類貢獻者。這就給人類帶來了一個前所未遇的、更棘手的問題:當程式碼的生產力被拉滿甚至溢出,我們該如何管理和協同?當一個大型項目中,有無數個 AI Agent 在同時提交程式碼,我們如何保證它們的目標是一致的?如何進行程式碼審查?如何整合這些甚至連我們都未曾規劃過的、由 AI 即興創造出來的「新功能」?所以,這裡被撐破的,不僅僅是「應用」的邊界。更是我們過去對於「生產」和「協同」的認知邊界。它把生產力推到了一個我們自己都不知道該如何運用的境地。03 從工具到土壤:程式碼正在成為新世界的基礎設施當我們意識到,人的價值正在從「執行」向「定義」遷移,而程式碼產能正在瘋狂增殖時,一幅全新的圖景正在展開。程式碼,以及承載程式碼的軟體,也在經歷一次深刻的「質變」。第一層質變,軟體正在從「為人服務」的應用層,下沉為「為 AI 服務」的基礎設施層。軟體股的暴跌,以及「SaaSpocalypse」(SaaS 末日)概念的出現,就是一個例證。過去,我們使用軟體的方式是打開一個圖形介面(UI),去點選、輸入、操作。軟體的價值很大程度上體現在它的使用者體驗(UX)上。但未來,你的主要互動對像是 AI 智能體。你不會再打開 Excel,而是直接對 AI 說「分析一下上個季度的銷售資料,做成圖表」;你也不會再登錄 CRM,AI 會自動幫你同步所有客戶資訊。軟體的終端使用者會從「人」變成「AI」。這意味著,傳統軟體的「殼」(UI/UX)價值在迅速降低,而它內在的「核」(API 介面)變得至關重要。軟體本身並沒有消失,而是變成了被 AI 呼叫的基礎能力,像水和電一樣,融入了整個智能生態的底層。這是 SaaS 公司商業模式面臨的根本性挑戰。第二層質變,程式碼正在從「人類智慧的產物」,變成「AI 的母語」,人類放手建造的細節工作。過去,程式碼是人類與機器溝通的中間語言。但現在,當 Anthropic 的 Opus 4.6 擁有 1M 上下文和自適應思考能力,能對整個程式碼庫保持長程規劃;OpenAI 的 GPT-5.3-Codex「可以在幾天時間內從零開始建構功能高度複雜的遊戲和應用程式」。這些模型不再需要人類把需求拆成逐行指令,它們直接用程式碼思考、用程式碼協作、用程式碼驗證彼此的產出。在這個過程中,人類正在從「施工現場」退到「設計室」。我們只負責提出目標(「我想要一個什麼樣的應用」),而不再關心具體的實現過程。這是自電腦發明以來,人類第一次在數字世界裡,主動退出了數字世界的施工環節。第三層質變,人的價值正在從「技術實現」,遷移到「價值定義」。當 AI 包攬了從程式碼生產、測試、部署,到軟體呼叫、維運監控的全流程,人類還剩下什麼?不只是程式設計師的職業轉型,而是關乎未來世界裡,人類作為一個物種的核心競爭力。我們不再是「建築工人」,甚至不只是「建築師」,我們必須成為那個提出「我們為什麼要建一座操場,而不是一座雕像?」的「定義者」。我們的價值,在於我們的意圖、我們的審美、我們的道德判斷,以及我們定義一個值得追求的目標的能力。04 我們被自己的造物,拽著向前跑把這一切串起來,我能感受到一種強烈的反差感。我們花了七十年,一步步地把程式碼這個工具打磨得越來越先進,期待著用它去解決我們提出的問題。但今天,我們親手創造的這個技術環境,這個生產力被無限放大的新現實,正在反過來,瘋狂地拉扯著我們向前跑。過去,我們向技術要答案;現在,是技術在向我們提問。這不再是一個關於「工具」的故事,這是一個關於「關係」的故事。我們與我們創造物之間的關係,正在發生倒置。我們不再是那個唯一推著石頭上山的人,石頭自己開始滾動,甚至反過來催促我們去為它尋找新的、更陡峭的山坡。這其中有焦慮,有失控感,但更多的,是一種前所未有的機遇。因為商業的本質,最終還是關於人。而這個新環境,正在以前所未有的力量,迫使我們去思考更本質的問題,去成為更純粹的「價值定義者」。程式設計已死,程式設計萬歲。作為「打字員」的程式設計師會消逝,但會誕生更多作為「定義者」的人類。 (Founder Park)
高盛:記憶體荒將持續2年,這些領域將迎來超級周期!
供給收縮與AI需求剛性碰撞,儲存產業鏈格局正在重塑。高盛最新專家網路研討會獨家紀要出爐!我們與AI基礎設施供應商Micro Data Center首席技術與AI官深入對話,為您揭示當前AI基礎設施建設熱潮中鮮為人知的核心矛盾與投資機會。核心結論直擊要害:DRAM供應將緊張至少兩年:AI需求激增疊加頭部廠商供給紀律,導致全行業進入結構性稀缺階段。AI買家“不惜代價”:為保障GPU按時交付,資料中心營運商願意承擔更高記憶體成本。瓶頸不止記憶體:從電力、冷卻到網路,整個資料中心基礎設施面臨長達數月至數年的積壓挑戰。01 未來兩年:DRAM持續短缺,價格高位運行高盛報告明確指出,IT硬體行業正進入一個結構性稀缺階段。AI基礎設施需求引爆了記憶體市場的巨大供需失衡,DRAM和NAND的交貨期已長達數月,堪比疫情高峰時期。高頻寬記憶體(HBM) 尤其受限,因其封裝複雜且良率爬升緩慢。造成這一局面的兩大核心原因:需求端:AI訓練與推理對記憶體頻寬和容量提出前所未有要求,HBM需求井噴。供給端:三大行業巨頭SK海力士、三星、美光展現出高度供給紀律,嚴格控制產能投放。這種稀缺對低端消費電子及非AI領域的衝擊尤為顯著,它們正陷入艱難爭取產能分配的境地。市場模式已悄然轉變:買家更傾向於簽訂長期協議,核心訴求已從價格轉向採購量承諾、優先獲取權和分配保證。專家預測,這種供應緊張和價格高企的局面將至少持續未來兩年。02 成本讓位於交付:AI基礎設施買家的“鈔能力”邏輯面對不斷上漲的記憶體成本,AI資料中心的買家選擇出乎意料——照單全收。核心邏輯在於:對於營運商而言,GPU部署延遲的風險遠遠大於記憶體成本的增加。AI模型的訓練與上線時間窗口至關重要,延遲意味著巨大的機會成本與競爭劣勢。為了部分避險成本壓力,行業正在探索 “降配”最佳化 方案,例如:重新設計供電系統部署更具針對性的冷卻基礎設施最佳化網路架構另一方面,面向企業級的OEM廠商(如戴爾Dell)則可能採取不同策略——提高部署服務價格或融資利率,將更高的元件成本分攤到其3-5年的長期服務合同中。這意味著,終端使用者可能以另一種形式為這場“記憶體荒”買單。03 隱藏的瓶頸:AI資料中心的全面供應鏈挑戰記憶體只是AI基建難題的冰山一角。報告揭示,多個關鍵資料中心物理基礎設施元件面臨更長期的“卡脖子” 問題,積壓期從數月到數年不等:電力渦輪機、變壓器、電源單元先進製造先進封裝冷卻液冷元件、風扇連接光開關與光纖、網路卡(NIC)、機箱為了拓寬供應,部分供應商正考慮引入中國供應商(如CXMT長鑫儲存、YMTC長江儲存)進入中低端和亞太市場。然而,由於缺乏有競爭力的HBM產品,高端AI生態系統預計仍將牢牢繫結於目前供應受限的現有市場領導者。04 投資視角:關注點與風險提示綜合報告觀點,以下領域值得關注:潛在受益方(產業鏈關鍵環節):儲存原廠如SK海力士、三星、美光,供應紀律強化有望維持其利潤水平與議價能力。高端儲存相關技術/裝置商受益於HBM等先進封裝的複雜性和高需求。資料中心關鍵基礎設施供應商涉及電力、先進冷卻、高速互連等短缺環節的公司。需謹慎觀察的領域:嚴重依賴成熟製程儲存晶片的低端消費電子領域可能面臨長期的產能擠壓和成本壓力。無法切入高端AI生態的替代供應商在當前的性能競賽中,短期內或難以撼動現有格局。 (數之湧現)
Seedance 2.0的驚豔,本質是字節跳動“算力霸權”的勝利
字節跳動旗下的人工智慧視訊生成模型Seedance 2.0,近期在限定內測階段便已引發全球網際網路廣泛關注。該模型憑藉“以文字或圖片生成電影級視訊”的突破性能力,被《黑神話:悟空》製作人馮驥評價為“當前全球最先進的視訊生成模型”。這一突破的背後,源於字節跳動每年數百億元的算力投入以及持續擴大的AI晶片採購規模。Seedance 2.0的成功標誌著AI視訊生成競爭已從演算法層面演進為綜合實力的較量,而算力霸權正在重新塑造行業競爭規則。這也印證了一個正在清晰的邏輯:一旦算力基礎設施達到關鍵閾值,中國公司在資料、場景、工程化方面的積累便能迅速轉化為全球領先的AI產品競爭力。01 現象級出圈2026年2月,AI視訊生成領域迎來了一個標誌性時刻。Seedance 2.0僅憑內測階段的展示,就引發了海內外科技圈的現象級關注。海外社交平台上,體驗資格一碼難求,甚至出現高價溢價和私下倒賣邀請碼的現象,熱度持續飆升。資本市場的反應更為直接。消息公佈後,A股影視傳媒類股應聲大漲。中文線上、掌閱科技、光線傳媒等多隻股票排隊漲停,整個類股掀起漲停潮。資本市場敏銳地捕捉到了Seedance 2.0可能給影視傳媒行業帶來的巨大變革——大幅降低製作成本、縮短生產周期,推動行業產能供給釋放。Seedance 2.0的核心突破在於其能夠生成“具有原生音訊的連貫多場景序列”。這意味著使用者只需一段文字描述或一張圖片,就能在60秒內獲得一段帶有原生音訊、包含多個鏡頭切換的電影級視訊。02 戰略必然性Seedance 2.0的橫空出世並非偶然,而是短影片平台戰略重心轉移的必然結果。在內容為王的時代,視訊創作與製作能力已成為短影片公司必須全力維護的核心護城河。隨著AI視訊技術的成熟,從創意策劃、製作拍攝到分發傳播,AI將深度參與內容生產的各個環節。掌握核心技術的企業將在新的產業格局中佔據主導地位。這解釋了為何在全球AI視訊生成領域,領先者多是擁有深厚視訊基因的公司。除了字節跳動的Seedance 2.0,快手的可靈(Kling AI)同樣表現搶眼,其最新推出的“Motion Control”功能在海外市場爆紅,在多個國家的應用下載榜單上名列前茅。快手的投入同樣不遺餘力。2025年4月,快手成立了可靈AI事業部,將其升級為一級業務部門。快手高級副總裁蓋坤形容可靈的迭代速度是 “奪命狂奔” 。這種戰略聚焦已初見成效。截至2025年12月,可靈AI的月收入已突破2000萬美元,對應年化收入運行率達到2.4億美元03 算力霸權的本質深入分析Seedance 2.0的技術優勢,一個不可忽視的事實是:其卓越性能的本質,源於字節跳動近年來持續投入建構的算力基礎設施。2026年,字節跳動計畫在AI基礎設施領域的資本支出約為1600億元人民幣。這一規模令人矚目,相當於騰訊同年相關投入的兩倍,也高於阿里巴巴的年均投入水平。更值得注意的是,該預算中約一半(850億元)將專項用於採購AI晶片。早在2025年,字節跳動就已規劃投入超120億美元(約合872億元人民幣)用於AI建設,其中約55億美元專門用於在中國市場採購AI晶片。與其他科技公司相比,字節跳動在AI投入上的決心與規模形成鮮明對比(參見附表:2026年字節、阿里與騰訊AI算力相關投入對比)。這種高強度投入策略使其能夠以資源密度形成競爭壁壘。當其他公司仍聚焦於演算法最佳化時,字節跳動已借助算力規模攻克了諸多技術瓶頸。表格:2026年字節、阿里與騰訊AI算力相關投入對比這種“飽和式攻擊”策略使字節跳動能夠以絕對資源密度擠壓競爭對手。當其他公司還在考慮如何最佳化演算法時,字節跳動已經用算力碾壓了技術路徑上的大部分障礙。04 基礎設施的隱形優勢算力優勢不僅體現在資金投入上,更轉化為切實的技術表現。Seedance 2.0的生成速度顯著優於多數競爭對手,這直接得益於字節跳動火山引擎在計算基礎設施方面的最佳化。這一速度優勢對內容創作具有重要意義。對於需要快速迭代與批次生產的創作團隊而言,生成效率的差異將直接影響生產流程與創作靈活性。此外,根據相關調研紀要顯示,字節跳動正在推進自研AI晶片佈局。公司內部已啟動代號為“SeedChip”的自研AI晶片項目,該晶片基於ARM架構,2026年目標產量為10萬顆。若自研晶片成功量產,將顯著降低字節跳動的算力成本。以850億元的晶片採購預算估算,單卡成本有望下降30%至50%,每年可節約數百億元支出。屆時,其在算力成本上的優勢將對競爭對手構成更大壓力。05 競爭格局與未來儘管字節跳動在算力上建立了顯著優勢,但AI視訊生成的競爭遠未結束。快手可靈的表現證明了其他競爭者依然有機會。可靈AI已經成為快手增長的新引擎,其ARR(年化收入運行率)已達2.4億美元,較2025年3月宣佈的1億美元翻了一倍多。在全球基準測試中,可靈是唯一一個在文生視訊和圖生視訊性能上都位列前三的中國模型。這表明,即使面對字節跳動的算力優勢,通過演算法最佳化和精準的場景定位,競爭者仍能找到自己的生存空間。從技術維度看,Seedance 2.0 與快手的可靈(Kling AI)展現出不同的技術路徑與優勢側重。Seedance 2.0 憑藉其底層算力規模與工程化能力,在多模態輸入(支援文字、圖像、視訊、音訊)與生成速度上具有明顯優勢,能夠快速產出連貫的多場景視訊。而可靈則憑藉其深入的演算法最佳化與場景洞察,在運動控制(如“Motion Control”功能)、海外市場適應性以及文字/圖像生成視訊的單項性能上表現突出,其生成內容在動態自然性與創意表達上頗具競爭力。這種技術上的差異化意味著市場競爭將更加多元化,而非單一壟斷。此外,Seedance 2.0目前較高的使用成本也側面反映了其算力成本依舊高昂,這為競爭對手提供了差異化競爭的機會。 (錦緞)
華為打造“最強超節點”,這項全球領先技術很關鍵
2025年以來,超節點(SuperPod)作為新的AI算力基礎設施,不斷成為行業焦點。觀察者網也曾深度報導過華為的昇騰384超節點,它通過高速互聯匯流排將384顆昇騰晶片連接起來,在超節點算力規模、網路互聯頻寬、記憶體總頻寬等多個指標上,趕超了國外廠商的旗艦超節點。但當時一些討論認為,華為是靠堆砌了384顆晶片,才超越了輝達72顆晶片,而後很多廠商也跟進了超節點的概念。一時間,算力行業掀起了建設超節點的熱潮。那回到最初的問題,超節點就是單純的堆晶片嗎?華為是通過暴力堆砌晶片趕超輝達的嗎?超節點和傳統的計算叢集區別在那?關於這些行業熱點話題,華為計算產品線行銷運作部部長張愛軍近日在一場媒體沙龍上對觀察者網等媒體做了詳解。他首先認為,今天的算力需求遠未被滿足,無論是大模型進入到生產系統中,還是在toC消費端,token消耗的數量都在指數級增長,未來中國每日token消耗量可能突破千兆。在一些觀點看來,算力缺口大可以通過大量建設伺服器叢集堆卡來解決。這麼說聽起來有一定道理,但真實情況遠沒有這麼簡單。根據Meta公佈的論文,萬卡叢集訓練時算力利用率僅約38%,粗暴堆卡可能會造成62%的算力浪費,並且模型訓練會3個小時中斷一次。這是因為,叢集網路通訊已成為當前大模型訓練和推理的最大挑戰。以DeepSeek這種混合專家模型(MoE)為例,每個“專家”如果不能有效溝通,NPU就會由於沒有足夠資料計算而閒置,進而形成1+1<2的結果。換句話說,如果384顆昇騰晶片簡單疊加,計算效果就會和普通伺服器叢集一樣效率低下。超節點就在這種情況下應運而生,它不是修補式改進,而是對傳統計算架構進行重構。張愛軍對觀察者網表示,超節點從傳統以CPU為中心的架構,變成了全平等互聯,無論是CPU、NPU還是記憶體單元,都不用再經過CPU,而是可以平等互聯,提高通訊效率,同時連接計算單元的“高速公路”也發生了變化,由全新的協議和匯流排能力來支撐裝置間互聯。現在市面上的超節點越來越多,但並沒有統一標準,而張愛軍認為,真正的超節點須具備三個關鍵特點:一是頻寬夠大,核心要讓計算不用等待通訊;二是有足夠低的時延,傳統叢集很難做到時延降低;三是形成有效的、邏輯上的單一系統,關鍵在於記憶體能不能統一編址。利用這些技術,超節點可以讓DeepSeek的256個“專家”分佈到每個計算單元上,提升吞吐效率。“為什麼要有統一記憶體編址的技術才能真正稱得上超節點?”他進一步對觀察者網解釋稱,傳統叢集的資訊傳遞,跟現實生活中寄快遞的方式比較像,需要做相應的轉換才能找到下單地址。而超節點希望像在圖書館裡檢索書籍一樣,提前進行書籍編址,能快速找到,而且可以變成資源池。如果沒有統一記憶體編址,就不能做到記憶體的池化。如果沒有記憶體池化,計算單元之間的資料快速交換很難做到。如果不能快速交換資料,計算效率是很難提升的。這是為什麼說做不到統一記憶體編址,超節點是很難真正高效地運行起來的原因之一。”一句話總結,超節點相比傳統叢集最大的優勢,是計算效率的顯著提升。以晶片製程為例,在摩爾定律放緩的情況下,7奈米到3奈米,可能每代性能提升不超過20%。而超節點可以將模型算力利用率從30%提升到45%,相當於提升了50%,通過資源的高效調度,在一定程度上可以彌補晶片工藝代差。但打造一個真正的超節點遠沒有那麼容易。關注技術細節的人可能會發現,華為的昇騰384超節點是由12個計算櫃和4個匯流排櫃構成,體積龐大,而輝達NVL72系統只有一個機櫃,為什麼輝達不連接更多機櫃,進而連接更多晶片?核心在於超節點架構不同,輝達採用的全銅線架構,傳遞的是電訊號,而華為將光通訊技術應用於超節點,採用超高速光模組連接。“如果用電的方式,高速訊號基本只能在一個機櫃裡兩到五米傳送,這也是為什麼很多業界的超節點只能在一個機櫃裡面提供。為什麼華為可以跳出單個機櫃限制,規模商用384個晶片互聯,未來可以支援8192個晶片互聯,核心是我們用了光的技術。”張愛軍對觀察者網表示。但“光”並不好駕馭。光模組成本高,也比較嬌慣,如果有灰塵,有各種各樣的溫度變化,容易發生閃斷、系統不穩定,要做的像電一樣可靠,像光一樣長度,難度很大。“我們是怎麼做到的?一句話,系統化創新,華為可以做自己的晶片,有自己光的器件能力,有自己的底層協議,在過去光通訊上建構了工程能力,我們做到了借助全光互聯提供超節點。為什麼其它廠商做不到?就是因為他們或許掌握了某些單點技術,但很難像華為一樣有系統化能力,這也得益於過去華為一直在通訊領域深厚的積累。過去20年,我們在光上面是全球第一的技術積累。”張愛軍對觀察者網說道。華為不僅在做智算超節點,也在發展通算超節點。去年的華為全聯接大會上,華為輪值董事長徐直軍發佈了基於鯤鵬950處理器的TaiShan 950超節點,這是全球首個通用計算超節點,將在2026年一季度上市。他當時表示,TaiShan 950加上分佈式GaussDB資料庫,將徹底取代各種應用場景的大型機和小型機,以及Oracle的Exadata資料庫伺服器。“大家過去買伺服器,主要關注CPU的主頻和核數。但今天大量的場景通過調整主頻和核數是難以解決的,核心原因是因為摩爾定律已經走到頭了,物理的效能很難,堆再多的核、提升再高的主頻,很難把計算效能提升上去。有一條新路,通過通訊的能力把多核能夠連接起來,形成有效的業務系統,同樣給通用計算提供相應的能力。核心和智算是一樣的,提供超大頻寬、超低時延、進行統一記憶體編址。”張愛軍說道。在華為的思考中,無論是智算還是通算超節點,乃至像Atlas 950 SuperCluster這樣數十萬卡的巨型超節點叢集,核心是要讓大量伺服器像一台電腦一樣工作,由此華為建構了新型互聯協議靈衢UB(UnifiedBus),並將靈衢2.0規範開放。“靈衢是建構超節點的核心能力,華為把它完全開放出來,讓業界所有的人都可以獲取到這個技術。基礎協議有600頁,是所有廠商中提供的最詳細、最完整的能力。通過對靈衢2.0協議的開放,產業界夥伴能夠借助這個技術打造自己的超節點。我們希望與產業界共創,能夠形成一個繁榮的產業生態,希望這些新的能力、新的技術不僅僅華為在使用,而是整個產業鏈一起來建構。”張愛軍表示。超節點足夠火熱,但支撐其運行的不只有晶片、光模組等硬體,還有大量軟體生態,比如異構計算架構CANN、作業系統openEuler、資料庫openGauss、AI框架MindSpore等等。生態需要產業共建,華為一直堅持軟體開源開放。張愛軍表示,“目前鯤鵬註冊開發者有380萬,昇騰有將近400萬開發者。2025年8月,我們把CANN完全開源開放,openEuler也是業界第一個面向超節點的開源作業系統。特別是CANN,我們從最底層的營運時,到開發語言、範本庫\算子庫等,完整地開源給產業界,現在已經有很多開發者基於昇騰CANN的能力,自己開發算子,來面向它的業務場景進行創新。AI 時代的迭代速度遠超以往,單打獨鬥很難跟上節奏,協同共創、開放共生才能共贏未來。” (觀網財經)
財報 vs 市場預期:微軟是 AI 贏家、還是估值透支的未來賭注?
FY26Q2核心財務資料- 2026 財年第二季度總營收達 812.73 億美元,同比增⻓ 16.7%,驅動核心為雲服務收入增⻓ 26%至 515億美元,AI 驅動的雲業務持續高增⻓。- Azure 與雲服務收入同比激增 39%,帶動服務與其他收入達 648 億美元,貢獻超 80%營收,雲業務成為核心增⻓引擎。- 淨利潤 384.58 億美元,同比大增 60%(但 GAAP 利潤受 OpenAI 投資虧損拖累,調整後淨利潤 309 億元,增⻓ 23%)- 成本端,服務與其他成本同比上升 25.2%至 224.73 億美元,主要源於資料中心擴張與 AI 算力投入,但毛利率提升至 68.0%(上年同期 68.7%),顯示規模效應與營運效率最佳化。營運利潤 382.75 億美元,同比增⻓20.9%。市場質疑· 資本支出的黑洞風險- 本季度資本支出高達 375 億美元,同比暴增 66%,多用於 GPU 與資料中心;- 投資者質疑: 若 AI 硬體使用周期短於服務合同期限,折舊壓力可能侵蝕利潤,形成“期限錯配”;    - 與 Meta 將 AI 基建表外化不同,微軟選擇全額表內折舊,導致雲業務毛利率下滑,引發盈利質量擔憂。· 對OpenAI依賴過重- 微軟 6250 億美元的商用預訂義務中近 45%與 OpenAI 繫結;- 如果 OpenAI 在技術及治理上失誤,微軟 Azure 將面臨“失速”⻛險,市場開始質疑其 AI 增⻓基石的穩固性。業績指引· 短期業績指引(FY26Q3)營收: 預計 FY26Q3 營收為 806.5-817.5 億美元,同比增⻓ 15%-17%。毛利率: 預計毛利率上限為 67.4%,同比下滑 1.3 個百分點。利潤: 經營利潤指引上限為 373 億美元,同比增⻓ 17%;淨利潤指引上限為 308 億美元,同比增⻓ 19%。· FY26全年業績指引資本開支: FY26 全年資本開支預計繼續擴張,但增速可能低於 FY25。管理層表示,資本開支將根據地區電力和空間資源合理規劃,AI 相關總產能預計同比提升 80%以上。⻓期增⻓驅動:微軟預計 AI 驅動的雲服務(如 Azure)、生產力工具(如 M365 Copilot)和企業服務將繼續推動增⻓。估值· 樂觀情境下的長期邏輯1. 從“軟體巨頭”向“AI 基礎設施擁有者”轉型- 自建資料中心、電力與供應鏈形成算力護城河,⻓遠看可實現邊際成本優勢;- 微軟憑藉低融資成本,有能力低價建構“AI 電網”,對抗未來算力成本通膨;- 相比“租賃算力”的輕資產模型,微軟選擇以時間換空間,建構競爭壁壘。2. 多元模型戰略+平台化佈局- 微軟正擴展 AI 模型合作(如與 Anthropic 合作引入 Claude),擺脫對 OpenAI 的單一依賴;- 推進 Copilot 商業化已滲透至 1500 萬使用者,當前佔比僅 3%,未來潛力巨大;    - 微軟生態系統(Windows,Office,Azure,LinkedIn)天然具備AI產品融合優勢,形成“應用+基礎設施”一體化護城河。 (貝塔投資智庫)全球股東持倉資料來源:Wind整理
巨頭砸錢6500億加劇擔憂,黃仁勳發聲“滅火”
在科技巨頭不斷加大AI領域支出激化市場的泡沫擔憂之際,輝達CEO黃仁勳公開發聲“滅火”,為動輒數千億美元的投入背書。美東時間2月6日周五,黃仁勳在接受採訪時表示,科技行業激增的AI基礎設施資本支出是合理、恰當且可持續的,這場“人類史上最大規模的基礎設施建設”由“極高”的算力需求驅動。黃仁勳作出上述表態當天,本周五AI概念股全線反彈。尾盤刷新日高時,輝達股價漲至187美元,日內漲約8.8%,收漲近7.9%,扭轉五連跌,擺脫周四所創去年12月17日以來收盤低谷,本周仍累跌約3%。黃仁勳講話正值投資者對持續高投入下AI能否獲得可觀的回報產生嚴重質疑,並且由於Anthropic發佈的新工具引發了AI顛覆傳統軟體商業模式的恐慌,科技股慘遭拋售。高盛分析師甚至悲觀地將當前的軟體業與本世紀初被網際網路顛覆的報紙類比。周五的報導指出,過去兩周公佈的最新財報和指引以及此前公開的計畫顯示,2026年,輝達的關鍵客戶Meta、亞馬遜、Google和微軟的計畫資本支出將合計達到約6500億美元,較2025年增長約60%。6000多億美元的支出規模遠超全球多個中等經濟體的GDP,其中大部分資金將用於購買輝達的晶片。華爾街見聞稍早提到,過去一周,市場對AI投資效率的擔憂引發劇烈拋售。據FactSet資料,微軟、輝達、亞馬遜、Google母公司Alphabet、Meta及甲骨文等科技巨頭的市值累計蒸發約1.35兆美元。上周四,公佈第二財季資本支出超預期猛增66%後,微軟股價收跌10%,市值一日蒸發3570億美元,創美股史上第二大個股單日市值跌幅,本周四盤後公佈預計2026年資本支出較上年增50%後,亞馬遜周五逆市大跌,早盤刷新日低時跌約10%,收跌近5.6%。01AI公司正盈利 支出將持續增長黃仁勳周五表示,所有這些科技公司的現金流將開始上升,AI基礎設施的建設將持續七到八年。他強調,AI已經變得“非常有用且非常強大”,其採用率變得“極高”。黃仁勳說:“只要人們繼續為AI付費,AI公司能夠從中獲得利潤,它們就會不斷翻倍、翻倍、翻倍、翻倍。”他援引具體案例說明輝達客戶如何利用AI盈利。Meta正在使用AI將原本在CPU上運行的推薦系統轉變為使用生成式AI和智能體的系統;亞馬遜雲服務AWS對輝達晶片的使用將影響這家零售巨頭的產品推薦方式;微軟將使用輝達驅動的AI改進其企業軟體。黃仁勳特別稱讚了OpenAI和Anthropic這兩家領先的AI實驗室,稱它們都在"賺大錢"。輝達去年向Anthropic投資100億美元,黃仁勳本周早些時候還表示,將大舉投資OpenAI的下一輪融資。他說:“如果它們能擁有兩倍的算力,收入將增長四倍。”他還指出,輝達過去售出的所有圖形處理器(GPU)——甚至包括六年前的A100晶片,目前都在被租用,反映出對AI算力的持續需求。黃仁勳認為,與網際網路初期建設不同,現在沒有閒置的基礎設施。026500億美元支出創紀錄據周五報導,Alphabet、亞馬遜、Meta和微軟四家公司預計2026年的資本支出將達到約6500億美元,這是本世紀以來無可比擬的投資熱潮。每家公司今年的預算預計將接近或超過它們過去三年的總和,其中任何一家的支出都將創過去十年任一家公司單年資本支出的最高紀錄。具體而言,Meta表示全年資本支出將升至最多1350億美元,同比可能躍升約87%。在截至2025年12月末的公司第二財季,微軟的資本支出增長66%至375億美元,分析師預計,在截至2026年6月的2026財年,微軟的資本支出將接近1050億美元。Alphabet本周三公佈的資本支出指引高端為1850億美元,超出分析師預期以及美國大量行業的支出規模。亞馬遜周四宣佈計畫2026年投入2000億美元資本支出,同樣導致股價暴跌。媒體彙編資料顯示,相比上述矽谷巨頭,包括美國最大的汽車製造商、工程機械製造商、鐵路公司、國防承包商、無線營運商、快遞公司,以及埃克森美孚、英特爾、沃爾瑪、通用電氣分拆的子公司在內,21家公司2026年的合計支出預計僅為1800億美元。DA Davidson分析師Gil Luria表示,微軟等前述四家科技巨頭“將提供AI算力的競爭視為下一個贏家通吃或贏家拿走大部分的市場,它們都不願輸掉這場競爭”。03華爾街擔憂投資效率與產能過剩華爾街對如此龐大的支出反應不一。Meta和Alphabet股價上漲,但亞馬遜和微軟遭到市場懲罰。四家公司自發佈最新財報和展望以來,總市值已縮水超9500億美元。GAM Investments投資總監Paul Markham指出,當前市場正被“情緒傳染效應”籠罩。他說:“圍繞大語言模型建設所需的天量資本支出、最終回報周期,以及潛在的產能過剩疑慮,已成為持續壓制市場情緒的結構性問題。”Theory Ventures投資人Tomasz Tunguz表示,這些科技巨頭曾是“現金製造機”,可“現在它們突然需要那些現金,而且需要更多,所以它們在借錢”。據媒體統計,2025年,與AI相關的公司和項目從債務市場籌集了至少2000億美元,預計僅2026年的相關債券發行規模就將達到數千億美元。Tunguz曾發表部落格文章將AI熱潮與過去的投資狂潮進行比較,他說這些狂潮並不總是以好結局收場,但“在上升過程中,它們都是經濟的巨大催化劑”。幫助企業整合資料和軟體的公司Boomi的CEO Steve Lucas表示:“我不會質疑AI的潛力,但我絕對會質疑其發展的時間框架,而且我會強烈質疑其經濟效益。”目前尚不清楚這些公司能否執行其宏大計畫。隨著資料中心建設升級,它們已在爭奪有限的電工、水泥車和台積電工廠生產的輝達晶片。Luria表示:“已經存在瓶頸,未來也會有。”04黃仁勳周二曾為軟體股"滅火"這不是黃仁勳本周首次為市場焦慮“滅火”。周二晚間,在軟體股遭遇拋售後,他在思科系統公司的活動上表示,本周軟體股拋售是“世界上最不合邏輯的事”。黃仁勳說,軟體產品是工具,AI將使用這些工具,而不是重新發明它們。他反問:“有一種觀念認為工具正在衰落、並被AI取代。你會使用螺絲刀還是發明一把新螺絲刀?”他表示,輝達自身已經廣泛採用此類工具,因此員工能騰出時間更多地專注於公司擅長的事:設計半導體和電腦系統。周二軟體相關股票連續第二天下跌,投資者擔心Anthropic等AI模型開發商發佈的工具最終將使公司內部的大量工作實現自動化。一隻美國軟體股ETF當天跌幅達4.1%,至4月以來最低水平,AppLovin和Unity Software是類股最大跌幅股之一。摩根大通分析師Toby Ogg表示,投資者投資科技的意願仍然很低。他在報告中寫道:“我們現在所處的環境是,該類股不僅在被證明無罪之前就有罪,而且現在在審判之前就被判刑了。”不過一些分析師對拋售的嚴重程度提出質疑,稱製造公司營運必需工具的軟體公司很難被顛覆。Jefferies分析師Brent Thill表示,Intuit提供專有資料和幫助客戶處理複雜美國稅法的系統,相對於AI具有優勢。 (華爾街見聞)
黃仁勳談AI資本支出:翻倍、翻倍、翻倍!
justified, appropriate and sustainable:資本支出合理、恰當且可持續輝達CEO黃仁勳在CNBC《午間報導》中表示,科技行業為AI基礎設施增加的資本支出合理、恰當且可持續,相關企業現金流將逐步增長。CNBC內容要點:黃仁勳在節目中表示,科技行業對 AI 基礎設施的大額資本支出合理、恰當且可持續。其表態正值輝達核心客戶近兩周密集發佈最新財報之際。黃仁勳認為,只要使用者付費、AI 企業盈利,相關投入便會翻倍、翻倍、翻倍。輝達股價上漲近8% 黃仁勳稱6600億美元AI資本支出建設具有可持續性2 月 6 日輝達 CEO 黃仁勳在節目中表示,科技行業為 AI 基礎設施加大資本支出合理且可持續,“究其原因,這些企業的現金流即將開始增長。” 當日輝達股價收盤大漲近 8%。此番表態背景為,過去兩周輝達核心客戶元宇宙平台、亞馬遜、Google、微軟發布財報,均透露將大幅加碼 AI 基礎設施投入,這些超大規模雲服務商今年資本支出總額或達 6600 億美元,大部分將用於採購輝達晶片。華爾街對此增支潮反應分化,META、Google母公司股價上漲,亞馬遜、微軟股價重挫。黃仁勳稱,這是 “人類歷史上規模最大的基礎設施建設潮”,背後是市場對計算能力的 “超高” 需求,AI 企業和超大規模雲服務商可借此實現更高盈利,並列舉了客戶的 AI 應用案例。META正借 AI 將 CPU 推薦系統,升級為生成式 AI 和智能體技術的新系統;亞馬遜雲科技運用輝達晶片和 AI 技術,改變產品推薦邏輯;微軟依託輝達晶片驅動的 AI 技術,升級企業級軟體。他還讚賞 OpenAI 和 Anthropic 兩大 AI 實驗室,二者均通過雲服務商使用輝達晶片,輝達去年向 Anthropic 投資 100 億美元,還將大額投資 OpenAI 下一輪融資。黃仁勳表示:“Anthropic 目前盈利狀況良好,OpenAI 也是如此。如果能獲得兩倍的計算資源,它們的營收有望實現四倍增長。”他指出,輝達過往售出的所有 GPU,即便 6 年前發佈的 A100 晶片仍在被市場租賃,印證 AI 計算能力需求的持續性。黃仁勳強調:“只要使用者持續為人工智慧服務付費,人工智慧企業能借此實現盈利,相關的投入就會不斷翻倍、再翻倍。”兩句英文原文:“To the extent that people continue to pay for the AI and the AI companies are able to generate a profit from that, they’re going to keep on doubling, doubling, doubling, doubling” Huang said.The tech industry’s surging capital expenditures for AI infrastructure are justified, appropriate and sustainable, Nvidia CEO Jensen Huang said on CNBC’s “Halftime Report.”來源:CNBC (芯榜)