#i太空
Space X的護城河
據國金證券研報,SpaceX的護城河並非單一技術,而是成本、製造和客戶三大壁壘的深度融合。其通過獵鷹9號的可復用經濟學,將內部邊際發射成本降至約1500萬美元,對傳統軍工巨頭實現了降維打擊。同時,高達80%的垂直整合製造體系和與美國政府“戰略共生”的客戶關係,為其建構了自我強化的商業閉環。一份來自國金證券的深度研究報告,揭示了SpaceX如何從一家傳統的航空航天製造商,轉變為一家將第一性原理應用到極致的“太空物流與基礎設施壟斷商”。國金證券於12月10日發佈的行業深度研究報告顯示,SpaceX的本質並非一家傳統的航空航天製造商,而是一家“將第一性原理(打破火箭必須昂貴的迷信、打破一次性使用的定式、打破材料選擇、不求完美快速迭代)應用到極致的太空物流與基礎設施壟斷商”。報告指出,其看似無法踰越的行業壁壘,並非源於單一技術突破,而是由成本、製造和客戶三大維度的護城河深度融合而成。這家由埃隆·馬斯克創立的公司,通過其核心產品獵鷹9號(Falcon 9)火箭,徹底顛覆了全球航天發射市場的成本結構。報告分析稱,通過完全一級復用技術,SpaceX已“將航天發射從‘定製工藝品’變成了‘工業標準品’”。其內部發射邊際成本已降至近1500萬美元,這種成本結構使其在面對傳統軍工巨頭時,擁有“降維打擊的定價權”。更重要的是,SpaceX建構了一個強大的“自我強化的商業閉環”。報告指出,公司利用獵鷹9號無可匹敵的發射成本優勢,建構了全球最大的太空通訊網路——星鏈(Starlink),並利用這兩者產生的巨額現金流,以此“供養人類歷史上最宏大的工程項目——星艦 Starship”。這一模式為投資者呈現了一個獨特的“現金流+高成長+高期權”的組合,構成了其獨特的估值溢價基礎。成本壁壘:無可匹敵的可復用經濟學SpaceX最核心的護城河在於其獨步全球的火箭復用技術,這不僅是技術上的勝利,更是“商業模式的降維打擊”,終結了航天工業長達四十年的“成本加成時代”。國金證券報告指出,在SpaceX崛起前,全球發射市場由國家主導的企業把持,遵循“成本加成”合同模式,承包商缺乏控製成本的動力。報告援引資料對比,NASA航天飛機將載荷送入近地軌道的成本約為每千克54,500美元,而SpaceX的獵鷹9號則將這一數字降至每千克2,720美元,降幅近20倍。報告拆解了獵鷹9號的成本結構:製造成本: 一枚全新的獵鷹9號火箭製造成本約為5,000萬美元。其中,價值約3,000萬美元的第一級火箭是可回收的。復用邊際成本: 當復用一枚火箭時,其邊際成本急劇下降。報告估算,一次復用發射的純邊際成本(主要包括一次性的第二級、翻新、燃料、營運等)已降至約1500萬美元。其中,燃料成本僅佔總成本的不足1%。驚人的利潤率: 基於此成本結構,報告測算,當一枚獵鷹9號火箭復用次數達到5次時,單次發射的毛利率可高達約68%。這種高額利潤為SpaceX提供了巨大的戰略靈活性,使其能用發射業務的利潤來支撐星艦的研發。然而,獵鷹9號的部分復用存在一個約1500萬美元的“成本硬地板”,因為其第二級火箭是一次性的。這解釋了SpaceX為何要全力研發完全可重複使用的星艦(Starship),其目標就是消除這一成本地板,將太空運輸成本再次降低一個數量級。製造壁壘:流水線時代的垂直整合SpaceX的第二個核心壁壘在於其製造模式,其造火箭的理念“更接近特斯拉造車,而非波音造飛機”。報告稱,SpaceX實現了高達“80%的自制率”,在其工廠內部製造了包括發動機、箭體結構、電子裝置乃至航天服在內的絕大部分部件。這與傳統航天領域主承包商僅負責系統整合的模式形成鮮明對比。這種垂直整合策略雖然初期投入巨大,但後期帶來了“極高的迭代速度和成本控制能力”,將火箭製造從“【手工作坊】帶入【流水線時代】”。在製造技術創新方面,報告特別強調了SpaceX在星艦項目上的“顛覆性決策”——放棄昂貴的碳纖維,轉而使用304L系列不鏽鋼。報告援引資料顯示,不鏽鋼雖然更重,但其成本僅為碳纖維的約五十分之一(每噸2,500美元 vs. 每噸130,000美元),且具備極佳的低溫強度和耐高溫性能。更重要的是,不鏽鋼材料使SpaceX的星工廠能夠“像造船一樣快速迭代飛船”。客戶壁壘:與美國政府的戰略共生SpaceX的第三重護城河,是其與美國政府之間超越單純買賣的“深度戰略共生”關係。報告指出,NASA和國防部(DoD)不僅是其最大客戶,更是其早期生存和技術迭代的資助者。報告分析稱,這種關係已成為一個強大的護城河,NASA和DoD通過長期、高價值的合同,為SpaceX的核心研發(特別是星艦)“提供了事實上的巨額補貼”。作為回報,美國政府獲得了“獨立、可靠、廉價且技術領先的太空進入能力”。在民用領域,NASA將宇航員送往國際空間站的唯一手段就是SpaceX的龍飛船(Dragon),形成了“單一依賴”。此外,NASA還通過Artemis登月計畫,與SpaceX合作開發星艦的登月版本(HLS),這筆資金“不是按發射次數給,而是按進度給”,深度繫結了雙方的未來。在軍方與情報界,SpaceX已從“反壟斷闖入者”成長為“核心承包商”。報告指出,美國軍方正從高價值、少數量的衛星轉向分佈式、多數量的低軌衛星群,而“唯有SpaceX擁有足夠高的發射頻次和足夠低的成本來部署星盾(Starshield)網路”。報告特別提到,在與國家偵察局(NRO)的合作中,SpaceX的角色已經演變為“既造衛星(基於Starlink平台改),又發射”,顯示其已深度嵌入美國國家安全體系。 (invest wallstreet)
一周全球公司十大要聞 | 貝佐斯與馬斯克競相佈局太空資料中心;派拉蒙對華納兄弟發起敵意競購
上周要聞摘要:中國貿易順差創紀錄地突破1兆美元。大眾汽車在中國已實現完全本土化研發。美國允許輝達向中國出售H200晶片。甲骨文資料中心項目完工日期推遲。迪士尼向OpenAI投資10億美元;《時代》年度人物授予“AI建築師”。貝佐斯與馬斯克競相佈局太空資料中心。派拉蒙對華納兄弟發起敵意收購。瑪氏完成收購品客薯片母公司Kellanova。聯合利華分拆夢龍冰淇淋股票上市。1 中國貿易順差突破1兆美元大約一年前,美國總統川普重新入主白宮,承諾將實現製造業繁榮。他做到了,不過是在中國。儘管美國加征關稅,但今年中國工廠的產量仍創歷史新高。美國的施壓反而鞏固了競爭對手中國作為全球不可或缺的“世界工廠”的地位。海關資料顯示,今年僅前11個月,中國貨物貿易順差就創紀錄地突破1兆美元。中國持續大量供應廣受需求的商品,即便美國近年來提高了貿易壁壘,中國生產商仍能打入歐洲及發展中世界的其他市場。相關:中國11月份汽車銷量連續第二個月下降。乘聯分會公佈的資料顯示,上個月乘用車零售銷量同比下降8.1%,至223萬輛。乘用車零售銷量環比下降1.1%。但當月中國汽車出口量則創下新紀錄。2 大眾在中國實現完全本土化研發大眾汽車集團(Volkswagen Group)首次完全在德國境外開發新車平台和關鍵技術,並通過所有審批流程進入市場,從而迎來了其戰略里程碑。11月25日,位於合肥的大眾汽車(中國)科技有限公司(VCTC)的全新批次測試車間正式投入使用,這意味著大眾汽車在中國已實現完全本土化研發。在大眾汽車集團“在中國,為中國”的戰略中,VCTC正發揮著核心作用。作為該集團在本土市場外最全面的研發中心,VCTC也是大眾集團唯一專門從事電動、智能和網聯汽車研發的中心。相關:特斯拉(Tesla)上海超級工廠第400萬輛整車下線。資料顯示,11月特斯拉上海超級工廠共交付86700輛Model3和Model Y,同比增長10%,較10月環比增長40%。上海超級工廠產能佔特斯拉全球產能的一半,是特斯拉全球出口中心。其產品除了滿足中國大陸消費者的需求,還銷往歐洲和亞太市場。2025年10月,特斯拉上海超級工廠出口超3.5萬輛,創2年來單月最高出口紀錄。3 美國允許輝達向中國出售H200美國總統川普表示,他將允許輝達(Nvidia)對華出口該公司的H200晶片,同時美國將從中獲得25%的抽成。這是川普通過與一家私營公司達成非常規協議來為政府賺錢的最新舉措。他在Truth Social上說:“美國將允許輝達在能夠確保堅實國家安全的條件下,向中國和其他國家的獲批客戶銷售其H200產品。”他還表示:“其中的25%將支付給美利堅合眾國。”相關:輝達已開發出一種位置驗證技術,該技術可以確定其晶片所處的國家和地區。輝達最近幾個月已在非正式場合展示了這項功能,但尚未正式發佈。該功能將是一個軟體選項,供客戶安裝。該功能將利用其圖形處理單元(GPU)所謂的保密計算能力。輝達稱該軟體旨在讓客戶追蹤晶片的整體計算性能——這是大量採購晶片用於大型資料中心的公司常見做法——還可以利用與伺服器通訊的時間延遲,來感知晶片的大致位置。4 甲骨文資料中心項目完工日期推遲甲骨文公司(Oracle)已將其為OpenAI準備的一些資料中心的完工日期從2027年推遲至2028年。這些延誤主要是由於人力和材料短缺所致。甲骨文一直在努力完成一項價值3000億美元的合同,以提供訓練和運行OpenAI模型所需的計算能力。儘管面臨延誤,但甲骨文發言人在聲明中表示,公司對履行義務和實現擴張計畫的能力仍充滿信心。甲骨文為OpenAI開發的第一個資料中心進展正常,已交付超過96000個輝達晶片。相關:投資者對甲骨文公司為人工智慧(AI)行業建設資料中心的支出規模日益感到擔憂。這家雲端運算公司的收入和營業利潤在最近一個財季略低於分析師的預期,同時該公司上調了支出預測,這加劇了外界對於將AI行業對算力的旺盛需求轉化為利潤的時間表的擔憂。該公司將本財年的資本支出預期上調逾40%,至500億美元。本季度支出主要用於建設資料中心,增至120億美元,高於市場預期的84億美元。其今年用於資料中心的計畫支出上調了150億美元,以服務人工智慧企業。5 迪士尼向OpenAI投資10億美元迪士尼公司(Walt Disney)宣佈將向OpenAI投資10億美元,並將允許這家人工智慧初創公司在其Sora AI視訊生成器中使用星球大戰、皮克斯和漫威系列電影中的角色。這筆交易可能會重塑好萊塢製作內容的方式。這項為期三年的合作夥伴關係是好萊塢擁抱生成式人工智慧的關鍵一步,避開了業界對人工智慧對創意工作和智慧財產權影響的擔憂。作為授權協議的一部分,從明年初開始,Sora和ChatGPT Images將開始使用米老鼠、灰姑娘和木法沙等迪士尼授權角色製作視訊。相關:OpenAI發佈GPT-5.2,稱該人工智慧(AI)模型是其用於專業知識工作的最先進模型。就在大約一周前,該公司首席執行長山姆·阿爾特曼(Sam Altman)宣佈啟動“紅色警報”行動。該行動旨在提升ChatGPT的質量,並推遲包括廣告在內的其他一些項目的開發。該公司一直對來自Google(Google)最新Gemini AI模型日益增長的威脅保持高度警惕,該模型在包括專家級知識、邏輯謎題、數學問題和圖像識別在內的某些基準測試中表現優於ChatGPT。6 《時代》年度人物授予“AI建築師”《時代》周刊官方宣佈2025年度人物(2025 TIME Person of the Year)授予“AI建築師”(The Architects of AI)。《時代》表示:“2025年,人工智慧的全部潛力全面爆發,其發展趨勢已是大勢所趨。正是這群人開創了智慧型手機器時代,既讓人類驚嘆不已,也讓人們心懷憂慮;他們重塑當下,更突破了諸多可能性的邊界”。“年度人物”封面圖片中包括祖克柏(Meta)、蘇姿丰(AMD)、馬斯克(xAI)、黃仁勳(輝達)、阿爾特曼(OpenAI)等人。不過,GoogleCEO皮查伊並不在列。相關:英國《金融時報》將黃仁勳評為年度人物,基於他在人工智慧這場變革中扮演的關鍵角色。黃仁勳主導了私營部門有史以來規模最大的投資計畫之一,該計畫既支撐了美國經濟,也維繫了股市繁榮。同時,他推動的這項技術,擁有重塑整個行業的潛力。如今,輝達已成為全球市值最高的公司,今年曾一度成為首家市值突破5兆美元的企業。此前,在其職業生涯的大部分時間裡,黃仁勳在矽谷之外鮮為人知,輝達的晶片甚至不被視為科技主流。7 貝佐斯與馬斯克佈局太空資料中心多年來,埃隆·馬斯克(Elon Musk)和傑夫·貝佐斯(Jeff Bezos)一直製造火箭和發射衛星,彼此不甘落後。如今,他們正競相將價值數兆美元的資料中心熱潮帶入太空軌道。貝佐斯麾下藍色起源(Blue Origin)的一個團隊已投入一年多時間研究軌道AI資料中心所需的技術。而馬斯克旗下的SpaceX計畫使用其星鏈(Starlink)衛星的升級版來承載AI計算有效載荷,並將該技術作為股票出售的一部分進行推介,此次股票出售可能使該公司估值達到8000億美元。相關:馬斯克暗示SpaceX或啟動首次公開募股(IPO)。此前有媒體報導稱,SpaceX正計畫在2026年通過IPO募資超250億美元,此舉有望將這家火箭製造商的估值提升至1兆美元以上。若SpaceX按報導的估值完成上市,將成為史上第二大規模的IPO,僅次於沙烏地阿拉伯阿美2019年創下的1.7兆美元巨額上市紀錄。8 派拉蒙對華納兄弟發起敵意收購派拉蒙(Paramount)對華納兄弟探索(Warner Bros. Discovery)發起價值1084億美元的敵意收購,以最後的努力擊敗網飛,打造一個媒體巨頭,挑戰串流媒體巨頭的主導地位。此前,網飛(Netflix)在與派拉蒙和康卡斯特(Comcast)長達數周的競購戰中勝出,同意以720億美元的價格收購華納兄弟探索的電視、電影工作室和串流媒體資產。但派拉蒙的最新嘗試意味著對華納兄弟及其珍貴的HBO和DC漫畫資產的爭奪不會很快結束。華納兄弟探索董事會表示,將對派拉蒙的報價進行審查,但不會修改對網飛的建議。相關:網飛收購華納兄弟探索的製片廠和HBO Max串流媒體服務的交易預計將受到美國司法部的調查。網飛還必須應對美國總統川普的偏好。川普表示,串流媒體巨頭網飛以720億美元收購華納兄弟的交易“可能會有問題”,因為這將導致網飛獲得巨大的市場份額。這是他就該出售交易首次公開發表評論,暗示該交易可能面臨政府方面的阻力。川普還表示,無論那家公司收購華納兄弟探索,有線電視新聞網(CNN)的所有權都應該改變。9 瑪氏完成收購品客薯片母公司食品巨頭瑪氏公司(Mars Incorporated)12月11日宣佈完成對品客薯片母公司Kellanova的收購;同日,Kellanova從紐約證券交易所退市。2024年8月14日,瑪氏宣佈與Kellanova達成最終收購協議,總對價359億美元;同年11月,該交易獲得Kellanova股東的批准。2025年12月8日,交易獲得歐盟委員會無條件批准,這意味著此次交易獲得了全部所需的監管審批與許可。相關:百事公司(PepsiCo)與激進投資者Elliott Investment Management達成了一項協議,承諾在全公司範圍內削減成本並降低價格,努力提振其放緩的食品業務。這家生產百事可樂、樂事薯片和多力多滋玉米片的公司表示,將削減食品和飲料業務的開支,同時將其在美國各項業務中的單品數量削減20%。百事公司還計畫在新的一年裡為部分食品降價。這項交易避免了百事公司和Elliott之間可能曠日持久且代價高昂的戰爭。與此同時,公司還將進行裁員。10 聯合利華分拆夢龍股票上市世界最大的冰淇淋公司夢龍冰淇淋公司(The Magnum Ice Cream Company)宣佈其普通股於荷蘭、英國、美國三地正式上市交易。此舉標誌著聯合利華冰淇淋業務分拆工作基本完成。2024年3月,聯合利華(Unilever)決定將其全球冰淇淋業務分拆為獨立業務。自2025年7月1日起,夢龍冰淇淋公司已經作為聯合利華集團內的一家獨立公司開展營運。分拆後,聯合利華將保留夢龍冰淇淋公司約19.9%的股份,期限最長為5年。夢龍冰淇淋公司業務規模達到83億歐元,擁有1.9萬名員工。相關:生產多芬洗髮水和馬麥醬的消費品製造商聯合利華將其冰淇淋業務分拆至三家交易所上市。上市當天聯合利華股價下跌7%,市值蒸發近90億歐元;而新上市的夢龍冰淇淋公司分配給股東的80%股權當日僅值約63億歐元。當前還遠未到冰淇淋旺季。儘管如此,這意味著夢龍冰淇淋公司的估值僅為今年的息稅折舊攤銷前利潤(EBITDA)的8.2倍,屬於相當溫和的水平。 (全球企業動態)
輝達H100太空首秀,AI模型首次在軌完成訓練與推理
近日,由輝達支援的初創公司Starcloud 正式宣佈,其發射的Starcloud-1 衛星已在地球低軌道上成功運行輝達H100 GPU,並完成了人工智慧模型的訓練和推理任務。這是人類首次在太空軌道上完成此類任務。Starcloud 的這項突破直接回應了AI 與算力基礎設施快速擴張所帶來的能源、冷卻與資源壓力問題。當AI 模型規模不斷擴大、資料中心對電力與水資源的需求急劇上升之時,建構能夠長期穩定運行且能源自給的軌道計算平台成為行業關注的前沿方向。據悉,這顆重約60公斤、大小相當於一台小型冰箱的衛星於2025 年11 月搭載SpaceX “獵鷹9 號”火箭發射升空,隨衛星一同進入軌道的是一塊經過定製的輝達H100 GPU。根據公開資料,這塊在軌裝置的算力是此前任何進入太空的圖形處理單元的100 倍,為AI 訓練與推理提供了硬體基礎。在入軌後的數周內,團隊並未急於進行高強度測試,而是先確保衛星的姿態控制和熱管理系統穩定。在軌調試階段,Starcloud 工程團隊將兩項不同性質的任務交付給這塊GPU 完成。一是利用莎士比亞全集從頭訓練NanoGPT 模型。NanoGPT 是前OpenAI 研究人員Andrej Karpathy 開發的輕量級大語言模型。 Starcloud 將莎士比亞全集作為訓練資料集上傳至衛星,最終成功訓練出了一個能模仿伊麗莎白時代戲劇風格生成文字的AI 模型。需要指出的是,NanoGPT 本身並非大規模商業模型,其參數規模與當前主流大模型仍有顯著差距。但業內普遍認為,這次實驗的關鍵並不在於模型大小,而在於完整驗證了從前向計算、反向傳播到參數更新的訓練閉環,能夠在軌道環境中穩定運行。二是在衛星內部運行Google DeepMind 的開源大型語言模型Gemma,並在軌道環境下進行推理任務。在部署Gemma 模型後,衛星還向地球發來消息:“地球人,你們好!或者我更願稱你們為一群迷人的藍綠集合體,讓我們一起來探索隱藏在宇宙中的奇蹟。”(資料來源:社群媒體X)在軌完成模型訓練與推理本身即為技術複雜度極高的工程。太空環境溫度極端、輻射強烈且通訊延遲是開展此類任務的主要挑戰。 Starcloud 工程團隊表示,他們在硬體輻射防護、電源管理與散熱設計方面做了大量優化,使得H100 GPU 能穩定運行傳統意義上屬於地面資料中心工作負載的任務。Starcloud-1 的任務還整合了衛星本身的狀態數據,這意味著運行在軌的AI 模型能即時讀取高度、速度、方向等遙測資訊,為推理任務提供即時輸入。例如,系統能夠回答查詢衛星當前位置的問題,並返回諸如「我正在非洲上空,並將在20 分鐘後飛越中東」的情況說明。Starcloud 的發展策略遠不止於單顆實驗衛星。該公司計劃建造一個規模達5 吉瓦(GW)的軌道數據中心,該設施預計配備寬高約4 公里的太陽能發電板與散熱元件,利用太陽能全天候無間斷供電,以滿足未來大規模AI 訓練和推理的能源需求。根據Starcloud 白皮書介紹,這樣一個軌道資料中心產生的能源將比美國最大的單一發電廠還高出數倍,同時能源成本預計可降至現有地面資料中心的十分之一。Starcloud 的願景是盡可能將傳統地面資料中心所能執行的所有任務遷移到太空,包括高效能運算、AI 模型訓練、即時資料處理與全球監測服務等,這將徹底改變現有的算力基礎設施格局。執行長Philip Johnston 曾公開表示:“任何你能在地面數據中心做的事情,未來都應該能在太空完成。”圖| 軌道資料中心網路架構(資料來源:Starcloud 白皮書)Starcloud 費盡周折將資料中心搬上天的背後,是地面AI 產業正面臨的一場嚴峻的能源危機。國際能源署(IEA)發布的報告中預測,到2030 年,全球資料中心年用電量將接近945 太瓦時(TWh),相當於日本一整年的用電規模,其中AI 被明確列為最主要的成長驅動力之一。IEA 同時指出,在美國,資料中心可能貢獻未來數年近一半的新增電力需求,其成長速度已明顯快於電網擴容和新能源並網的節奏。圖| 2024 年資料中心及裝置類型電力消耗份額(來源:IEA)能源之外,冷卻與水資源正成為另一道隱性瓶頸。以微軟為例,其揭露的資料顯示,2022 年公司用水量達到640 萬立方米,年增34%,主要用於資料中心冷卻;多家研究機構指出,生成式AI 工作負載是水耗快速上升的重要原因之一。當電力、冷卻和水資源同時成為限制因素,繼續在地面無限擴張資料中心已不再是純技術問題。在這一現實壓力下,Starcloud 將目光投向軌道空間,其「軌道資料中心」的設想,也由最初的激進嘗試,逐漸演變為繞開地面能源瓶頸的一條現實路徑。Starcloud 在白皮書中給出的論點直指地面AI 基礎設施的根本瓶頸:能源與冷卻的不可持續性。該公司指出,地面資料中心擴張正受到電力、冷卻和水資源的多重約束,而這些問題在AI 算力快速增長背景下進一步放大。相較之下,軌道空間在能源與散熱條件上具備結構性優勢。白皮書測算顯示,太空太陽能陣列的發電容量係數可超過 95%,單位面積發電量約為地面系統的 5 倍,長期能源成本可低至0.002 美元/kWh。同時,熱量可透過輻射直接向深空釋放,每平方公尺輻射板約可散熱 770 瓦,從而避免地面資料中心對高能耗製冷和大量用水的依賴。在這一對比下,Starcloud 認為將部分算力遷移至軌道空間,具備長期成本和資源上的現實吸引力。不過,軌道資料中心的商業化和規模化部署並非無風險。太空輻射、在軌維護困難、太空碎片風險及國際空間監管等問題仍是限制因素。行業分析師指出,這些挑戰需要係統工程解決方案和國際層面的政策協同。Starcloud 的下一階段計劃,包括在2026 年10 月發射更多搭載H100 及Blackwell 的衛星,並引入雲基礎設施公司Crusoe 的模組,以支援商業用戶直接從太空部署與運行AI 工作負載。值得注意的是,Google、SpaceX 及Blue Origin 等公司都已在探索太空算力和軌道資料中心的可能性。 Google公開宣佈將自研的TPU 送入太空試驗項目,預計在2027 年進行早期測試,併計劃在未來十年實現更廣泛應用;SpaceX 也被認為可能將其星鏈衛星與軌道計算基礎設施結合,以構建一個全球覆蓋的在軌算力網絡。多位業內人士指出,這類嘗試之所以在當下成為可能,與多項技術條件的同步成熟密切相關。一方面,可重複使用火箭顯著降低了單次發射成本,使在軌算力試驗具備試錯空間;另一方面,單顆AI 晶片的算力密度在近兩年實現躍升,使得一顆中小型衛星首次具備承載有意義計算任務的能力。在算力、發射成本與地面能源約束同時逼近臨界點的背景下,軌道資料中心迎來了現實試驗窗口。 (問芯)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
SpaceX最新估值1,500,000,000,000 美元
今天12月9日,據知情人士透露,SpaceX 正加速推進首次公開募股(IPO)計畫,擬募資規模將 顯著超過 300 億美元,目前的目標估值約為 1.5 兆美元,幾乎接近沙烏地阿美在 2019 年創紀錄 IPO 時的市值水平。沙烏地阿美當時通過上市募資 290 億美元。這筆交易有望成為全球史上規模最大的上市。美股投資網 TradesMax.com 獲悉,SpaceX 管理層及其顧問正推動最早在 2026 年年中至年底 啟動上市,但時間仍可能因市場環境及其他因素而變化,其中一名人士稱,上市時間也可能延後至 2027 年。SpaceX 方面暫未回應置評請求。消息刺激太空類股大漲受 SpaceX IPO 計畫提振,其他太空概念股周二普遍上漲。EchoStar(已同意向 SpaceX 出售頻譜許可)最高上漲 12%,創下盤中新高;火箭運輸公司 Rocket Lab 股價最高漲 4.3%。此前媒體報導稱,SpaceX 正考慮最早於 明年底 啟動 IPO。知情人士還稱,馬斯克與公司董事會在 SpaceX 確認最新一輪內部股權出售的同時,已推進上市與募資的相關籌備,包括聘用關鍵崗位人員及規劃募資用途。上市處理程序加速:受益於 Starlink 和 Starship 的高速增長SpaceX 加速邁向資本市場的主要驅動力來自其增長迅猛的 Starlink 衛星網際網路業務,包括未來直接面向智慧型手機服務(Direct-to-Mobile)的前景,以及 Starship 火箭在登月與火星項目上的進展。知情人士稱,公司預計 2025 年收入約 150 億美元,並將在 2026 年提升至 220–240 億美元,其中大部分收入來自 Starlink。此外,SpaceX 預計將使用部分 IPO 募資資金,用於建設基於太空的資料中心,並採購運行這些資料中心所需的晶片。馬斯克最近在一次與 Baron Capital 的活動中也表達了對此方向的興趣。最新內部估值已超過 8000 億美元在最新一輪的二級市場交易中,SpaceX 將每股價格定在約 420 美元,據知情人士稱,這使得公司最新估值已超過此前報導的 8000 億美元。公司允許員工出售約 20 億美元的股票,並計畫回購部分股份。知情人士表示,這一估值策略旨在為 IPO 前確立更明確的市場公平估值。馬斯克在 12 月 6 日的社交媒體 X 上發文稱:“SpaceX 多年來一直保持正現金流,並每年進行兩次股票回購,為員工和投資者提供流動性。”他還表示:“估值提升主要依賴 Starship、Starlink 的進展,以及全球 direct-to-cell(衛星直連手機)頻譜的持續獲取,這將大幅擴大我們的可服務市場。”Starlink 獨立上市多次被討論,但時間仍不確定SpaceX 管理層曾多次提出,將 Starlink 拆分為獨立上市公司的可能性。該想法最早由公司總裁 Gwynne Shotwell 在 2020 年提出。但馬斯克近年來對 Starlink 的獨立上市時間表多次表達謹慎態度,SpaceX 的 CFO 在 2024 年也表示,Starlink 上市更可能發生在“未來數年”,時間仍未成熟。根據美股巨量資料 StockWe.com 主要長期投資者包括多家頂級風投與科技巨頭SpaceX 的長期主要投資者包括:Peter Thiel 的 Founders FundJustin Fishner-Wolfson 領導的 137 VenturesValor Equity Partners富達(Fidelity)Alphabet(Google母公司)如果 SpaceX 按照 1.5 兆美元估值出售 5% 的股份,將籌集約 400 億美元——遠超 2019 年沙烏地阿美 290 億美元的紀錄,成為史上最大規模的 IPO。相比之下,沙烏地阿美當年僅出售了公司 1.5% 的股份。 (美股投資網)
奧爾特曼要與馬斯克決戰太空?
據知情人士透露,奧爾特曼今年夏天曾探討過籌集資金收購一家火箭公司或與之合作建立合作關係。儘管科幻味十足,但當前矽谷打造“太空資料中心”的設想,卻似乎絕非空談——至少OpenAI首席執行長奧爾特曼在過去幾個月確實曾一度真的想“付諸行動”……據知情人士透露,奧爾特曼今年夏天曾探討過籌集資金收購一家火箭公司或與之合作建立合作關係,此舉旨在與埃隆·馬斯克的SpaceX展開競爭。據悉,奧爾特曼至少接觸過火箭製造商Stoke Space,雙方在秋季加速了磋商處理程序——提案中包含OpenAI對該公司進行系列股權投資並最終取得控股權的方案。該筆投資預計將耗資數十億美元。但接近OpenAI的消息人士稱,相關談判目前已不再積極推進。在簽署了數百億美元的算力交易合約後,奧爾特曼與OpenAI近來正面臨著市場逆風,因該公司未能向外證明其如何能承擔這些巨額成本。與馬斯克決戰太空?奧爾特曼長期以來就一直關注於太空資料中心的建設可能性,他認為人工智慧系統對計算資源的無止境需求,最終將消耗巨大電力,其環境影響可能使太空成為更優選擇。“我確實認為,隨著時間推移,全球將遍佈資料中心,”奧爾特曼近期在一場播客節目採訪中表示。“比如,我們或許能在太陽系周圍建造巨大的戴森球,然後說:‘嘿,把這些設施放在地球上其實毫無意義。’”一些這一設想的支持者也稱,太空軌道上的資料中心可利用太陽能供電。包括貝索斯、馬斯克和Google首席執行長桑達爾·皮查伊在內的科技公司高管,都曾盛讚在太空建構人工智慧算力叢集的可能性。儘管該概念尚未得到驗證,但Google母公司Alphabet與衛星營運商Planet Labs已達成協議,計畫於2027年發射兩顆搭載Google人工智慧晶片的原型衛星。這也令Stoke Space在過去幾個月進入了奧爾特曼的視線。由傑夫·貝索斯旗下藍色起源公司前員工創立的Stoke公司,正致力於研發完全可重複使用的火箭——這正是馬斯克旗下的SpaceX眼下試圖實現的目標。值得一提的是,作為資深風險投資人的奧爾特曼,曾執掌初創企業孵化器Y Combinator,該機構此前就曾投資過Stoke公司。鑑於SpaceX在火箭發射領域的主導地位,與Stoke的擬議合作無疑將使奧爾特曼與馬斯克展開更為直接的競爭。新型火箭研發充滿技術挑戰和監管難題,往往耗時長達十年之久,因此從零開始創辦新公司難度極大。包括藍色起源、火箭實驗室(Rocket Lab)和Stoke在內的多家發射公司正試圖挑戰SpaceX的霸主地位。而與Stoke達成協議,本可讓奧爾特曼接觸到該公司正在研發的名為“Nova”的火箭,從而存在更多彎道超車的可能。奧爾特曼近期還創立了腦機介面初創公司Merge Labs——該公司將與馬斯克的Neuralink形成競爭;OpenAI正在建構的社交網路,則可能與X平台抗衡。理想很豐滿,現實很骨感據悉,有關潛在火箭投資的討論開始成形,正值今夏市場對AI的熱情達到頂峰時。不過很顯然,此後奧爾特曼和OpenAI面對的,是更為骨感的現實挑戰。市場風向的轉變可謂迅速。在奧爾特曼於9、10月宣佈與甲骨文、輝達等一系列晶片和資料中心的巨額合作時,投資者曾報以瘋狂熱情,推動相關公司股價大幅上漲。然而,市場近期對這類擴張性AI雄心已逐漸“降溫”——過去一個月,甲骨文股價下跌約19%,輝達也下跌了約13%。更為嚴峻的是,輝達首席財務官本周透露,公司與OpenAI高達1000億美元的合作協議尚未最終敲定。這一切,都讓OpenAI雄心勃勃的擴張計畫蒙上了一層陰影。在過去短短幾個月內,OpenAI已承諾了接近6000億美元的新計算資源採購,但其如何支付這些天價帳單卻是一個巨大的問號。與此同時,OpenAI的核心業務也亮起了“警報”。本周一,官奧爾特曼在公司內部的Slack備忘錄中告訴員工,該公司將啟動一項“紅色警報”行動,公司將因此向ChatGPT投入更多資源。為此,OpenAI甚至推遲了包括廣告產品在內的其他項目,並鼓勵員工臨時調動團隊以支援ChatGPT的改進工作。在這樣的大背景下,一個耗資數十億美元、周期長達數年甚至十餘年、且技術風險極高的火箭公司收購或控股計畫,對於OpenAI而言,無疑顯得有些不切實際。將公司的財務和注意力資源從迫在眉睫的AI產品市場爭奪戰,轉向一個遙不可及的太空夢想,在當下這個時間點可能並非明智之舉。因此,雖然奧爾特曼的太空資料中心夢想描繪了一幅宏大的未來圖景,但與Stoke Space談判的冷卻,或許也清晰地表明:即便是最富想像力的科技領袖,也不得不首先應對地球上的嚴峻競爭與財務現實。與馬斯克的“太空決戰”或許終將上演,但對現在的奧爾特曼和OpenAI來說,打好眼前的“地球保衛戰”才是重中之重…… (科創日報)
前沿科技觀察丨“太空AI”,中國多個團隊取得關鍵突破
近期,美國一顆搭載有輝達旗艦晶片H100的衛星通過美國太空探索技術公司(SpaceX)的“獵鷹9號”火箭成功進入太空,這顆擁有80GB視訊記憶體、性能遠超以往任何星載電腦的晶片,將在軌承擔地球觀測圖像分析與大語言模型Gemini的推理任務。外媒報導稱,這也實現了首次資料中心級GPU在軌運算實驗,拉開太空高算力人工智慧(AI)時代的序幕。然而在此之前,已有多顆部署有AI大模型的中國衛星被送入太空。近日,參與相關項目的中國科學院計算技術研究所研究員韓銀和在接受《環球時報》記者專訪時表示,中國在太空AI領域正處於體系化快速推進階段,並有多個團隊已取得關鍵突破。為何要打造“太空AI”“具有大算力和人工智慧能力的算力衛星能夠消除星地資料傳輸瓶頸,實現資訊的‘天基快速理解與決策’,可應用於災害監測預警等需要極低延遲響應的場景。”韓銀和在接受《環球時報》記者採訪時介紹稱,結合衛星寬頻網路,建設太空資料中心和超算中心,優勢主要體現在五個方面。一是超低時延,資料可以就地處理,實現即時決策;二是可實現超高頻寬效率,通過AI處理後,衛星僅下傳關鍵結果資訊,而非TB/PB級的原始資料,極大節省珍貴的星地鏈路資源;三是具有無界覆蓋與機動性的優勢,天基超算中心可部署在軌道各處,不受地域限制;四是天基超算中心還具有天然的高安全性,可實現物理隔離,提供了獨特的網路安全環境;五是天基超算中心還能補強地面盲區,彌補地面資料中心覆蓋不足和服務延遲的短板,真正實現全球快速響應。然而讓“大算力”真正進入太空,並不只是把一顆晶片送上太空那麼簡單。太空高輻射、極端溫差的環境,以及衛星平台能耗有限與散熱困難等“硬傷”,都對算力晶片的穩定運行提出了挑戰。從地面資料中心到星際計算節點,這不僅是硬體的飛躍,更是工程、演算法與能源管理的系統性突破。中國處於體系化快速推進階段中國多個科研機構早早佈局相關試驗,並進行了大模型在軌部署。據此前公開報導,中國自主建設的智能遙感衛星星座“東方慧眼”首顆實驗星“珞珈三號01星”於2023年1月發射,首次實現8分鐘星地互聯的B2C應用服務。2024年底實現了大模型上注,首次使得衛星具備了大模型能力。而在今年5月,中國首個整軌互聯太空計算衛星星座“三體計算星座”首次發射,正式進入組網階段。北京市科委、中關村管委會等單位近日宣佈,北京擬在700-800公里晨昏軌道建設營運超過千兆瓦(GW)功率的集中式大型資料中心系統,以實現將大規模AI算力搬上太空。“三體計算星座”首次發射一箭十二星效果圖 。圖源:之江實驗室微信公眾號“可以說中國在太空AI領域目前正處於體系化快速推進階段,多個頂尖團隊已取得關鍵突破。”韓銀和介紹稱,例如中國科學院計算技術研究所,採用全體系國產化核心元器件和高可靠容錯計算架構,在2023年就率先實現了100TOPS級星載算力,為天基大模型運行奠定了自主可控的硬體基礎。武漢大學的“東方慧眼”星座通過通導遙一體化與AI融合,整合北斗短報文與星間即時傳輸,將資料響應時間壓縮至分鐘級,實現了“快、清、准、全、懂”的遙感服務目標。其技術架構不僅服務於國土監測、應急管理等國家需求,更開創了大眾呼叫衛星的商業新模式。而浙江之江實驗室與國星宇航的“三體計算星座”則採用了氦星光聯研製的雷射終端以保障星座級高效協同,支援星間100Gbps高速通訊,算力達到744TOPS。“一星多卡”計畫明年在軌驗證韓銀和進一步介紹稱,當前中國在軌部署的大模型均採用輕量化技術路線,針對太空環境的算力約束進行了深度輕量化。值得關注的是,即便是類似於輝達H100這樣的太空計算單元,實際運行的也是Gemini輕量版模型。這充分表明,全球範圍內太空AI部署仍以輕量化模型為主要技術路徑。目前中國已全面掌握輕量級大模型在軌部署能力,正穩步邁向全參數大模型在軌運行的研製階段。中國科學院計算技術研究所團隊是算力技術研究的國家隊,已提出了“一星多卡”的天基超算架構,計畫在明年發射衛星進行在軌驗證,為全參數大模型的在軌應用提供算力基礎設施。這是關鍵一步,全參數大模型將賦予太空和地面一樣的智能處理能力。“與美國Starcloud衛星依託輝達H100晶片生態不同的是,我們的路徑主要核心是攻克‘一星多卡’的自主天基超算和資料中心架構。”韓銀和認為,這是一個體系性的創新,並非簡單堆疊,而是致力於採用國產高能效GPU組成陣列,實現單星算力的跨越式提升,“這是我們自主創新的突破”。“這一方案更強調模組化設計、系統性整合和對散熱、功耗等極限挑戰的克服,目標是為建構未來的太空超級計算中心提供基礎。這種架構帶來的挑戰更大,但長期看具有實現更高算力密度和任務靈活性的潛力,代表著更面向未來的探索方向,是中國從技術追隨者轉向引領者的關鍵一步。”韓銀和表示。在韓銀和看來,世界主要航天大國開展的這場“太空AI”建設不只是簡單的技術角逐,還事關下一代空間資訊基礎設施的標準制定權。誰率先掌握了成熟的星上即時感知、認知、決策核心能力,誰就能夠在太空時代佔據主動權。“中國正通過系統性創新‘彎道超車’,因此各方都在加大投入。”韓銀和稱。 (環球時報研究院)