#GOOGLE
Google押寶SpaceX,成最大贏家!10億美元翻了110倍
一旦SpaceX完成收購要約,估值達到約8000億美元,Google母公司Alphabet Inc.將獲得一筆極為可觀的帳面價值。據報導, SpaceX的內部人士股票出售定價為每股421美元,這將標誌著其估值較之前的二級市場交易大幅上漲。這可能會提升Alphabet對SpaceX的長期投資的帳面價值。Google母公司Alphabet至少從2015年起就一直是SpaceX的投資者,當時它與富達投資公司共同參與了一輪10億美元的融資,合計持有SpaceX約10%的股份。今年早些時候,類似的估值重估也提振了Alphabet的盈利。4月份,該公司披露了一筆80億美元的未實現收益,這筆收益與其對一家私營公司(普遍認為是SpaceX)的投資有關。此前,去年底的一項收購要約將SpaceX的估值定為約3500億美元。這筆收益幫助Alphabet在3月份當季的淨利潤超過了華爾街的預期。由於SpaceX最新招標暗示其估值更高,投資者將密切關注Alphabet的下一份收益報告,以尋找另一次會計估值提升的跡象。據早些時候報導,SpaceX正在推進其首次公開募股 (IPO) 計畫,該計畫旨在籌集超過300億美元的資金,這將使其成為有史以來規模最大的IPO。SpaceX希望將整個公司的估值達到約1.5兆美元,這將使其市值接近沙烏地阿拉伯阿美在2019年創紀錄上市時所達到的市值。以此計算,Alphabet持有的股份價值將達到約1110億美元。Alphabet是SpaceX最大的外部投資者之一,其他投資者還包括風險投資公司 Founders Fund和富達。Alphabet在2015年對星鏈的投資現在看來肯定會取得巨大成功,但當時卻受到了相當大的質疑。《華爾街日報》當時在報導Alphabet的投資時寫道: “這項擬議計畫面臨的一大技術和財務挑戰是安裝地面天線和電腦終端以接收衛星訊號的成本。另一個懸而未決的問題是SpaceX計畫如何將網際網路訊號傳輸到地球。據信該公司並未擁有無線電頻段的使用權。”除了帳面收益之外,Alphabet的投資也帶來了戰略優勢,因為SpaceX使用了Google雲來為星鏈提供支援。分析師指出,得益於AI工具持續推動Google搜尋的使用者活躍度,Alphabet股價仍有上漲空間。道明證券旗下TDCowen分析師約翰·布萊克利奇將Alphabet的目標股價從335美元上調至350美元。布萊克利奇給予Alphabet“買入”評級,其在報告中表示,上調目標價主要基於三大原因。首先,調研資料顯示,隨著Google最新人工智慧模型Gemini 3的推出,Gemini聊天機器人的使用率出現增長。其次,人工智慧搜尋模式(AI Mode)和人工智慧概覽(AI Overviews)功能的應用,持續推動搜尋業務使用者活躍度提升。此外,越來越多的ChatGPT使用者同時也在使用Gemini。布萊克利奇在研報中寫道:“人工智慧概覽和人工智慧搜尋模式的使用者滲透率與活躍度持續提升,正推動Google整體搜尋查詢量的增長。” 他補充稱,“隨著Google逐步推進這兩項功能的商業化變現,預計它們將成為2026年及未來搜尋業務營收增長的核心驅動力。”Evercore ISI分析師馬克·馬哈尼也持相同觀點。他寫道:“Google的生成式AI創新正在為使用者帶來更優質的搜尋體驗,推動了更多新增搜尋查詢,這應當會為Google的搜尋收入帶來持續強勁的增長。”馬哈尼給予Alphabet“跑贏大盤”評級,目標價為325美元。總體而言,分析師們普遍對Alphabet的前景持樂觀態度。在FactSet調查的76位分析師中,有64位建議“買入”該股票,12位建議“持有”,暫無分析師建議“賣出”。 (北美商業見聞)
當Google帝國反擊時:ChatGPT的8億使用者護城河還能守多久?
前些天,科技分析領域最受尊敬的聲音之一 Ben Thompson 在 Stratechery 上發表了一篇重磅文章,標題是 "Google, Nvidia, and OpenAI"。大多數解讀會聚焦在 Gemini 3 的發佈、TPU vs GPU 的技術對比,或者 OpenAI 簽了多少錢的算力合同上。但我認為這篇文章真正重要的資訊不在這裡。作為一個 AI 工程布道者,我看到的是另一件事:ChatGPT 擁有8億周活使用者,卻可能正在犯一個致命的戰略錯誤。讓我解釋一下。Ben Thompson 用《星球大戰》的"英雄之旅"敘事框架,來描述過去三年 AI 領域發生的故事。主角有兩個:OpenAI 和 Nvidia。一個靠 ChatGPT 成為增長最快的消費科技公司,一個從遊戲顯示卡公司變成 AI 時代最關鍵的基礎設施供應商。但在過去兩周,兩位英雄同時進入了"考驗之洞"——Google 帝國正在反擊。第一擊:Gemini 3 的發佈Gemini 3 在一系列基準測試中超越了 OpenAI 的最強模型。更關鍵的是,它展示了一個 OpenAI 難以複製的優勢:巨大的模型規模和海量的訓練計算。OpenAI 在 GPT-4 之後一直難以突破規模瓶頸,靠的是推理能力的技術突破來彌補,但這以時間和成本為代價。第二擊:TPU 開始外銷Google 不再把 TPU 藏著掖著了。先是和 Anthropic 簽約,然後傳聞和 Meta 在談,接著是一批從加密礦場轉型過來的新雲服務商。突然之間,Nvidia 的壟斷地位受到了實質性威脅。第三擊:結構性優勢的全面碾壓從變現能力、資料積累、基礎設施到研發投入,Google 的每一項都是壓倒性的。Ben Thompson 說了一句很重的話:你現在明白為什麼 OpenAI 當年成立時,核心恐懼就是"Google 贏下 AI"了吧。這篇文章最有價值的部分,是 Ben Thompson 對"護城河"的重新定義。傳統的護城河分析聚焦於切換成本——使用者離開你有多難。但 Thompson 指出,護城河的真正強度,和獨立使用者數量正相關。他畫了一張圖:從左到右,使用者數量從少到多;從下到上,護城河從脆弱到堅固。Nvidia 賣晶片給誰?幾個超大規模雲廠商。一個 CEO 發一道命令,就能決定繞過 CUDA 開發新的軟體棧。OpenAI 的 API 賣給誰?成千上萬的開發者。切換成本確實存在,但一個創始人決定換模型,一個團隊就能執行。ChatGPT 的使用者是誰?每周8億獨立消費者。要改變他們的習慣,只能一個人一個人地打。這是 ChatGPT 真正的護城河。Thompson 引用了他2020年分析 Google 搜尋壟斷案時的觀點:Google 最大的力量來源,恰恰是它看起來的脆弱——競爭真的只是一次點選的距離。但正因為如此,如果使用者還是選擇 Google,那就說明他們是真的想用 Google。監管可以改變很多東西,但改變不了數以億計消費者的自主選擇。這個邏輯同樣適用於 ChatGPT。這是全文最尖銳的批評。Ben Thompson 認為,ChatGPT 三年來拒絕推出廣告產品,是一種"商業上的失職"——尤其是在公司簽下超過一兆美元算力合同的背景下。他的論點不是"廣告能賺錢"這麼簡單。他的論點是:廣告會讓 ChatGPT 成為一個更好的產品。怎麼理解?首先,更多免費使用者 = 更多使用資料 = 更好的模型反饋循環。訂閱制天然有使用者規模的天花板。其次,廣告帶來的購買訊號(而不是聯盟連結)可以幫助 ChatGPT 更深入地理解每個使用者的偏好,從而提供更好的回答。第三,也是最關鍵的:廣告模式會大幅加深 OpenAI 的護城河。Thompson 指出了一個有趣的對比:Nvidia 面臨的 TPU 威脅本質上是"利潤率稀釋"——當你賣實體產品時,你必須真的向買家收費,這就會引發和更便宜替代品的比較。買家越大越精明,這個壓力就越大。但廣告模式完全相反。使用者不付費,所以你從單個使用者身上能賺的錢沒有上限。使用者越多,你的利潤率潛力越高,你能投入的資源就越多。Google 就是靠這個模式,用搜尋廣告收入養活了過去二十年所有的創新。ChatGPT 不用廣告,等於是把這個武器讓給了對手。但 OpenAI 偏偏不做。Sam Altman 在今年早些時候接受採訪時說,他對"用廣告賺一些零錢"不感興趣,更感興趣的是"讓人們為真正優秀的自動化軟體工程師或其他 Agent 付高價"。Thompson 的評價是:這種想法和僱傭 Fidji Simo(前 Facebook 廣告產品負責人、前 Instacart CEO)來當應用業務負責人的決定,是自相矛盾的。你不可能同時相信廣告只是"零錢",又認為一個靠廣告發家的人是最適合領導你應用業務的人。讀到這裡,你可能會想:這是商業分析師和投資人關心的事,跟我一個做 AI 的有什麼關係?我來說說我的看法。第一,技術領先可能不如商業模式重要。這篇文章最讓我震撼的一點是:OpenAI 可能擁有(或曾經擁有)最好的模型、最多的使用者、最強的品牌認知——但如果商業模式選錯了,這些優勢可能都會被稀釋。Google 當年創辦不到兩年就開始做廣告變現。那不是因為他們缺錢,而是因為他們明白:可持續的收入是進一步創新的燃料。OpenAI 拿了幾百億風投,簽了上兆算力合同,但核心商業模式還是訂閱。我見過太多技術團隊把"我們先做好產品再考慮商業化"當成美德。但 Thompson 的分析提醒我們:商業模式不是產品的附屬品,它是產品戰略的一部分。錯誤的商業模式會讓你在有足夠資源建立護城河之前,就被對手追上。第二,護城河的邏輯在 AI 時代變了。傳統軟體的護城河往往建立在資料鎖定、網路效應、切換成本上。但 AI 產品的護城河本質上是關於"誰擁有更多的使用者行為資料來改進模型"。這意味著,一個免費但有廣告的產品,可能比一個付費產品有更強的長期競爭力——因為前者能觸達更多使用者,收集更多反饋,形成更強的改進飛輪。對於正在做 AI 產品的團隊來說,這是一個值得深思的問題:你的商業模式是在幫你建立護城河,還是在限制你的使用者規模?第三,Google 的反擊提醒我們:大公司的"慢"可能被高估了。過去兩年,創業圈流行的敘事是:大公司太慢、太官僚、太傲慢,創業公司可以靠速度和創新打敗它們。但 Gemini 3 的發佈、TPU 的外銷、YouTube AI 功能的推進——這些都在提醒我們:當大公司真的決定全力投入時,它們的資源優勢是碾壓性的。更重要的是,大公司有一個創業公司沒有的東西:成熟的變現機器。Google 每年超過2000億美元的廣告收入,意味著它可以長期承受虧損來搶市場。OpenAI 可以嗎?最後,我想說一個更大的問題。Ben Thompson 在文章結尾寫道,他的"聚合理論"——控制需求的一方最終獲勝——正在接受終極測試。Google 是他理論中的終極主角,現在變成了對手。他的核心問題是:一個已經達到規模的聚合者,能否被資源的壓倒性投入所擊敗?尤其是當這個聚合者拒絕採用最優商業模式時?我覺得這個問題的答案,可能會定義未來十年科技行業的格局。如果 ChatGPT 最終被迫採用廣告模式,那說明聚合理論是對的——控制消費者需求的一方,最終會被市場邏輯推向最優變現策略。如果 ChatGPT 堅持訂閱模式但被 Google 超越,那說明在 AI 時代,即使是8億使用者的護城河,也擋不住一個有成熟商業模式、無限資源的對手。如果 ChatGPT 找到了某種全新的變現方式(比如 Agent 交易抽成),那可能意味著 AI 創造了新的商業模式範式。無論那種結果,這都不只是 OpenAI 一家公司的命運。這是關於 AI 產品應該如何建構、如何變現、如何建立護城河的範式之爭。作為 AI 從業者,我們每個人都在這場爭論中有自己的位置。 (LLM-X-Factors)
8 年後回到史丹佛,Google創始人謝爾蓋·布林復盤:AI為什麼落後,又如何實現絕地反擊?
現在的大學生該選什麼專業?未來一百年的大學會是什麼樣子?業界 AI 如此強勢,學界還能做什麼?Google在過去二十多年裡做對了什麼,又有那些遺憾?謝爾蓋·布林訪談內容劃重點1.Google在AI浪潮早期曾出現決策失誤Google在Transformer論文發表後曾錯失機會。他們擔心聊天機器人會說“蠢話”而未敢快速推廣技術,這導致公司在AI商業化部署上失去了先機,讓競爭對手搶佔了優勢。2.GoogleAI核心優勢在於全端基礎設施儘管早期有失誤,但Google在AI領域的持續競爭力源於其對深層基礎技術的長期投入。例如十多年前Google就開始開發的AI專用晶片(TPU)以及大規模資料中心。這種對演算法、半導體和計算設施的全面掌控,使其能夠站在現代AI的前沿。3.未來AI的突破點可能是演算法AI未來發展的方向將更多地依賴於演算法進步和潛在的新架構,而不是僅僅通過擴巨量資料和計算規模。在過去十年中,演算法的進步速度實際上已經超過了計算能力的增長速度。4.AI做那種創造性的事更容易不應該僅僅因為覺得AI 擅長寫程式碼就轉去學比較文學,AI 在比較文學上可能表現得更好。不是要不尊重比較文學專業的學生,但當你使用 AI 寫程式碼的時候,有時候它並不奏效,像是它會犯一個相當重大的錯誤。然而,你在一篇關於比較文學的論文裡把一句話寫錯了,並不會真的有那種後果。AI做一些那種創造性的事情更容易。5.建議年輕人將AI作為增強個人能力的工具AI是一個強大的賦能工具,可以用來頭腦風暴、獲取專業知識概覽,學生們應該積極利用它來增強自身的個體能力。在史丹佛大學工程學院百年慶典的收官活動上,Google聯合創始人謝爾蓋・布林重返母校,與校長 Jonathan Levin 以及工程學院院長 Jennifer Widom 展開了一場對談。布林於 1993 年進入史丹佛工程學院,攻讀電腦科學研究生。讀研期間,他結識了拉里・佩奇。兩人共同開發了一種搜尋演算法,並於 1998 年創辦了Google。回顧Google的來時路,布林坦言 8 年前提出 Transformer 時,他們沒有予以足夠的重視,而且因為擔心聊天機器人說蠢話而害怕將其展示給世人。但他同時認為,他們這些年也做了很多正確的事情,比如投資研發 TPU 並建立規模龐大的資料中心。對於未來,布林也表達了一些自己的看法,比如認為大學未來可能不應該再限制於某個地理位置,學界未來應該投身更具探索性質的研究,材料等科研方向可能被低估了……以下是這場對話內容的摘錄。Google 早期做對了什麼?學術基因、敢碰難題校長:Google 已經是一家市值 4 兆美元的公司,業務範圍極其廣泛。你們這些年肯定做了很多正確的決定。有沒有什麼是你們在建立 Google 初期就做對的事情?布林: 我覺得早期的話,Larry 一直非常有雄心。他現在也是。對你提出的每個計畫,他幾乎都會說「這不夠有野心」。我們確實很早就有了非常宏大的使命宣言 —— 整合全球資訊。我認為這是創辦公司的一個很好的理念基礎。另外,我們建立了一家相當學術化的公司。我和 Larry 都是從博士項目出來的,當時很多創業公司是大學生創辦的。我確實認為這會稍微改變你思考問題的方式。我們從早期就非常重視基礎研發投入。校長:我覺得有充分的理由說 Google 是過去 25 年全球最具創新力的公司。無論是產品創新,還是很多重大決策,比如收購 YouTube 發展視訊業務、收購 DoubleClick 做廣告、還有 Waymo。技術創新從一開始就很突出,現在做晶片也是。大公司保持高度創新是很難的,每個人都在這方面掙扎,但你們做到了。很多人認為你個人在這方面有很大影響。你是怎麼思考培育創新文化的?布林:部分原因就是敢於嘗試。因為我們有學術根基,可能更傾向於嘗試困難的事情。進入過去十年左右,困難的事情變得越來越有價值。以 AI 為例,它所需的計算量、所需的高深數學,這些都是技術上深奧且具有挑戰性的問題。命運的安排使得這些在當今世界變得重要。曾經有一段時間,你可以做 pets.com,任何東西都可以加個.com。技術深度要求不高,懂點網路就行。現在我們招的人比我當時要合格得多。我當時算是偏數學的電腦專業,因為本科同時學了數學和電腦,這在我那屆比較少見。但現在我們從史丹佛和其他頂級項目招的人,數學和電腦都很強,還有很多物理學家,因為物理學家必須做高深數學,而且他們的很多工作受限於計算能力,所以他們也需要計算技能。我覺得我們只是運氣好,在那個方向上稍微早一點就確定了方向。Transformer 論文發了我們卻沒當回事校長: 談談 AI 吧。每個人都在關注它。你回到 Google 從事這方面的工作。你們在很多方面都處於前沿,競爭非常激烈。投入 AI 基礎設施的資本達到數千億美元,單個公司層面都是這樣。你怎麼看當前 AI 領域的格局?布林:我們確實在某些方面搞砸了 —— 我們投資不足,大約八年前發佈 Transformer 論文時沒有足夠重視。我們沒有太當回事,沒有投資擴展計算規模。而且我們太害怕把它展示給使用者,因為聊天機器人會說蠢話。OpenAI 抓住了機會,他們做得很好。這是非常聰明的洞察,而且是我們的人比如 Ilya 去那裡做的這些事。但我確實認為我們仍然受益於那段漫長的歷史。我們在神經網路的研發上有很長的積累,可以追溯到 Google Brain。這也有點運氣成分。雇到 Jeff Dean 不是運氣 —— 能得到他我們很幸運 —— 但我們當時就有「深度技術很重要」的心態,所以我們雇了他。我們從 DEC(迪吉多)挖了很多人,因為他們當時有頂級研究實驗室。Jeff 對神經網路很有熱情,源於他大學時的實驗。他 16 歲時就在做治療第三世界疾病和研究神經網路之類的瘋狂事情。他建立了整個團隊。當時在我負責的 Google X 部門,我讓他做他想做的。他說「我們能區分貓和狗了」,我說「好吧,酷」。但你要信任你的技術人員。很快他們就開發出各種演算法和神經網路,用於我們的一些搜尋功能。然後有人提出了 Transformer,我們能做的事情越來越多。所以我們有基礎,有研發積累。確實有幾年投資不足,沒有足夠重視。但我們當時也開發了晶片,TPU 大概有 12 年歷史了。最初我們用 GPU,可能是最早使用 GPU 的公司之一,然後用 FPGA,然後開發自己的晶片,現在已經迭代了無數代。對深度技術的信任、獲取更多計算能力、開發演算法 —— 同時我們長期以來一直是計算的大投資者,資料中心規模很大。除了亞馬遜 AWS,很少有公司有那種規模的資料中心、自己的半導體、深度學習演算法等所有這些堆疊元件,能夠在現代 AI 前沿競爭。AI 會寫程式碼了還要學電腦嗎?校長:我們這裡大約有 250 名學生,很多是本科生,相當多的人還沒選專業,因為史丹佛給本科生很大的靈活性。幾年前我們可以預測大量學生會選電腦科學作為專業。你是否建議他們繼續選電腦科學?布林:我選電腦科學是因為我對它有熱情,所以對我來說是很自然的選擇。你可以說我也很幸運,因為我正好在一個如此具有變革性的領域。我不會因為 AI 現在程式設計能力還不錯就不選電腦科學。AI 在很多事情上都相當不錯。程式設計之所以受關注是因為它有很大的市場價值,所以很多人追求它。而且更好的程式設計能帶來更好的 AI,所以像我們這樣的公司非常重視它。我們大量使用它來程式設計,甚至用於演算法創意。所以我不會因為 AI 擅長程式設計就轉去學比較文學。說實話,AI 在比較文學方面可能更強。我無意冒犯比較文學專業的學生,但當 AI 寫程式碼時,有時候會犯相當嚴重的錯誤。而在比較文學論文裡寫錯一句話不會有那麼嚴重的後果。所以 AI 做一些創意性的事情其實更容易。未來一百年大學還會是現在這個樣子嗎?校長:今年是工程學院的百年紀念。如果你是院長,要啟動學院的第二個百年,你會怎麼思考?布林:我想我會重新思考大學意味著什麼。我知道這聽起來有點煩人 —— 這是 Larry 會說的那種話,我會對他很惱火。但我們有這個地理上集中的東西,有建築,有豪華的報告廳。但現實是,現在資訊傳播非常快。很多大學已經上線了開放課程,任何人都可以上網學習,可以和 AI 聊天。那麼擁有一所大學意味著什麼?如果你想最大化影響力,限制在地理位置可能不會那麼有效。當然,灣區是個特殊的地方。但我不知道在未來一個世紀,工程學院和大學的概念是否還會和以前一樣。人們到處移動,遠端工作,跨地域協作。這有點矛盾,因為我們正試圖讓人們回到辦公室,我確實認為他們在一起工作效果更好,但那是在特定規模下。如果你有一百人在那邊,他們不一定要和另外一百人在同一個地方。我越來越看到一些個人創造新事物,不管有沒有學位。雖然我們雇了很多學術明星,但我們也雇了大量沒有學士學位的人,他們就是在某個奇怪的角落自己摸索出來的。我不認為我能神奇地給你新配方,但我覺得這種形式不太可能是未來一百年的模式。大公司基礎研究這麼強學術界還能做什麼?學生提問 1:Google 很大程度上源自您在學術界完成的 PageRank 研究。而在今天,越來越多的創新由工業界主導,您是否仍然認為「從學術到產業」的這條路徑依然重要?如果重要,又該如何去強化它?布林:說實話,我可能只能回答一句:我也不太確定。我讀研究生的時候,一個新想法從被提出,到真正具有商業價值,往往要經歷幾十年的時間。在這樣的時間尺度下,學術研究是非常合理的:你有足夠的自由,可以慢慢思考、申請經費、反覆試驗,一個問題可以研究二三十年,最後才慢慢「滲透」到產業裡,可能是被大公司吸收,也可能變成一家創業公司。但如果這個時間被大幅壓縮呢?如果一個想法從出現到落地只需要幾年,甚至更短,那這條路徑是否還同樣成立?我覺得這是一個值得重新思考的問題。當然,有些事情仍然是有意義的。即便是在 AI 領域,我們也會持續關注史丹佛等高校的研究,偶爾招聘一些研究人員,或者展開合作。但很多情況下,你很難說這些工作一定 “必須” 在學術界先醞釀很長時間 —— 比如某種新的 attention 機制,可能在大學裡實驗兩年,隨後就被帶進了工業界。但問題是,工業界本身也在做同樣的事情。所以在這些方面,學術界的 “先行期” 未必有特別不可替代的優勢。也許在更激進、更底層的創新上,情況會不一樣。比如全新的模型架構、全新的計算範式。這類方向,工業界雖然一旦決定投入就能擴展得非常快,但最初的探索,可能仍然更適合在學術環境中進行。量子計算就是一個例子。這個想法在上世紀八十年代左右被提出,之後很長時間都停留在理論和實驗室階段。現在,一方面有很多公司在推進量子計算的工程化,另一方面,大學實驗室仍在嘗試各種完全不同的實現路徑。這類方向正好處在學術和產業的邊界上。如果你提出了一種完全不同於主流路線的新方法 —— 比如既不是我們在做的超導量子位元,也不是很多初創公司在嘗試的離子阱方案 —— 那它可能確實需要在大學裡慢慢發酵幾年。這類問題非常困難,也很冒險,放在學術環境中是合理的。但一旦你真的確信它是可行且有前景的,最終你大機率還是會把它推進到商業化階段,以某種形式進入產業。所以,我很難給你一個明確、非黑即白的答案。因為現在的頭部科技公司,確實也在做大量基礎研究,而且在 AI 領域,我們已經開始看到這些長期投入的回報。這意味著,學術與產業之間的分工比例正在發生變化。但我仍然相信,有些研究 —— 那種需要十年甚至更久、以純探索為主的研究 —— 產業界往往是不願意承擔的,因為它們的時間跨度實在太長,不符合「上市時間」的邏輯。而這些,可能仍然是學術界不可替代的價值所在。Google Glass 的教訓別以為自己是下一個賈伯斯學生提問 2: 隨著 AI 以前所未有的速度加速,像我這樣年輕有抱負的創業者應該採取什麼心態來避免重蹈覆轍?布林:避免重蹈覆轍的心態?當你有很酷的新穿戴裝置想法時,在做涉及跳傘和飛艇的炫酷特技之前,一定要把它完全打磨好。這是一個建議。其實我喜歡我們當年在 Google Glass 上做的事情,但那是一個以前犯錯的例子。我試圖在它足夠成熟之前過快商業化,在成本效益和消費者體驗方面都沒準備好。我有點操之過急,以為自己是下一個賈伯斯,可以搞定這個東西。我想說的是,每個人都以為自己是下一個賈伯斯,我肯定犯過這個錯誤。但他是一個非常獨特的人。所以我建議確保你的想法在足夠長的時間裡得到充分發展,然後才進入那個必須不斷奔跑的階段 —— 外部期望增加,開支增加,你必須在某個時間交付。你可能沒有足夠的時間做完所有需要做的事情。你會陷入一種期望滾雪球的狀態,沒有給自己足夠的時間來處理。這是我會儘量避免的錯誤。AI 的下一個前沿方向是什麼?學生提問 3:我們看到很多 AI 公司通過擴展資料和計算來改進大語言模型。一旦資料和計算都用盡了,你認為下一個方向是什麼?會是新的架構,transformer 的替代品?還是更好的學習方法,比監督學習或強化學習更好的東西?布林:你提到的這些方向 —— 新架構、新訓練方法 —— 在我看來,其實早就已經比單純擴算力、擴資料更重要了。只是因為擴算力太顯眼了:建資料中心、買晶片,再加上 OpenAI、Anthropic 關於 scaling law 的那些論文,很容易讓人覺得一切進步都來自 scaling。但如果你仔細對比,會發現過去十年裡,演算法層面的進步,其實跑得比算力提升還快。我讀研時見過一張關於 N-body 問題的圖 —— 就是引力系統裡大量粒子相互作用的計算。從上世紀五十年代到九十年代,算力遵循摩爾定律暴漲,但真正讓問題可解的,是演算法改進,而且演算法的進步幅度遠遠超過了算力增長。所以我認為,像我們這樣的公司當然不會放棄站在算力前沿,但那更像是甜點。真正的主菜,還是演算法上的突破。院長:我也補充一句。對算力不夠這件事,我們在大學裡其實早就非常熟悉了。高校根本不可能擁有和工業界同量級的算力,差距非常明顯。但這反而逼著我們去做另一類創新:在算力受限的情況下,如何把事情做好,如何用更少的資源做更多的事。這些研究我們已經做了很久,而且會持續做下去。什麼技術被嚴重低估了?學生提問 4:你們認為那種新興技術的長期影響被嚴重低估了?布林:顯然我不能回答 AI—— 很難說它被低估,即便從某種意義上講它可能仍然被低估,但它已經不算是「新興」了。很多人會提到量子計算,討論它最終能帶來什麼。我個人也很支援量子計算相關的研究,但要說這是我最有把握的答案,其實也不是。這裡面的不確定性太多了。從計算理論上說,我們甚至都還不知道 P 是否不等於 NP。整個計算領域裡,還有大量最基礎的問題沒有答案。而且量子演算法通常只對非常特定、結構性很強的問題有效。所以這一方向我很看好,但要精準回答被低估,其實不太容易。如果一定要說的話,我可能會把目光投向材料科學 —— 無論是 AI 還是量子計算,在材料領域的應用潛力都巨大。如果我們能創造出性能全面提升的新材料,可能帶來的變化幾乎是無限的。校長:我其實也在想材料科學這個方向,而且正因為你提到了被低估這個詞。現在關於技術創新機會的討論非常熱烈,像聚變能源、量子計算這些方向,其實已經得到了相當多的關注,很難說它們被忽視了。AI 更不用說。但材料科學在我看來,確實是一個被低估的方向。此外,還有生物與健康領域 —— 尤其是分子科學層面的機會非常多,正在發生一場不小的革命,只是它們目前得到的關注度,明顯不如 AI。院長:我正好想說同樣的事情。我能明顯感覺到「聚光燈」在不同領域之間移動,而現在,聚光燈幾乎全部打在了 AI 上。但在此之前,它曾經照在生物領域,而這束光不應該熄滅。合成生物學裡正在發生很多非常令人興奮的事情。所以我覺得,我們需要把這束聚光燈稍微拉寬一點。 (invest wallstreet)
輝達最大敵人是Google!黃仁勳傳記作者發出警告
核心提要:* 《思考機器》作者斯蒂芬·維特指出,Google是目前唯一能對輝達構成實質性威脅的科技巨頭。* 威脅的核心在於Google的“全端能力”:Gemini模型展現了在輝達生態之外的頂級性能。* 一旦Google成功建構閉環生態,輝達引以為傲的CUDA護城河或將被繞過。在輝達(Nvidia)市值屢創新高、幾乎壟斷AI硬體市場的當下,市場普遍認為黃仁勳的帝國堅不可摧。然而,撰寫黃仁勳傳記《思考機器》(Thinking Machine)的作者斯蒂芬·維特(Stephen Witt)近日發出了一則冷靜的警告:如果說有一家公司能讓輝達感到寒意,那必然是Google。在一期最新的訪談節目中,維特直言不諱地指出:“目前最大的風險顯然是Google。”他認為,如果這家搜尋巨頭決定“全力以赴”,輝達在人工智慧領域的絕對統治地位可能會遭遇前所未有的打擊。Gemini:繞過CUDA的“特洛伊木馬”?維特的警告並非空穴來風,其核心論據指向了Google的旗艦模型——Gemini。“維特稱其為‘目前除輝達技術之外,基準測試中最好的人工智慧’。”這句話揭示了一個被市場忽視的隱憂:高性能AI模型並不一定非要依賴輝達的硬體。長期以來,輝達的護城河不僅在於GPU硬體本身,更在於其軟體生態系統CUDA。全球數百萬開發者習慣於在CUDA上建構應用,這使得轉換成本極高。然而,Google的Gemini展示了另一種可能性。作為完全基於Google自研算力架構訓練的模型,Gemini證明了頂級的大語言模型可以在非輝達(Non-Nvidia)環境下誕生並高效運行。Google的“垂直整合”野心:從晶片到模型與微軟、Meta等依賴輝達GPU的競爭對手不同,Google擁有獨特的“全端”優勢。* 自研晶片(TPU): Google深耕張量處理單元(TPU)已有十餘年。雖然目前市場上輝達的H100/Blackwell供不應求,但Google內部龐大的訓練和推理需求,很大一部分是由自家TPU消化的。* 模型獨立性: 如果Gemini成為開發者的首選基礎模型,且該模型在TPU上的運行效率高於GPU,或者Google通過雲服務以更低的價格提供基於TPU的Gemini訪問權,那麼開發者可能會自然地繞過輝達的硬體層。維特的觀點暗示,一旦Google打通了“自研晶片+自研模型+自研雲平台”的閉環,輝達作為“賣鏟人”的角色將被邊緣化——因為Google自己既造鏟子,也挖金礦。最大的“風險”還是“既得利益”?儘管維特指出了風險,但目前的現實依然複雜。Google本身也是輝達最大的客戶之一,購買了數以萬計的H100晶片來補充其雲服務能力。然而,科技行業的歷史證明,沒有永遠的盟友。維特的評論提醒投資者關注這一微妙的平衡:當Google在Gemini上的投入開始轉化為對外部硬體依賴的減少時,就是輝達市場份額鬆動的開始。對於黃仁勳而言,他面對的不僅是AMD或英特爾的硬體競爭,更是Google這種能夠重新定義“AI計算規則”的系統性對手。正如維特所言,只要Google“繼續全力以赴”,這場關於AI基礎設施霸權的戰爭,或許才剛剛開始。 (北美商業見聞)
Google翻譯重大更新:即時翻譯,全球無障礙交流摩擦蘋果
真正的理解不僅在於對方說了什麼(What),更在於他們是如何說的(How)。今天,Google 搜尋產品副總裁 Rose Yao 宣佈,Google 翻譯(Google Translate)將引入 Gemini 模型最強大的翻譯能力,在理解語言的細微差別方面實現了質的飛躍此次更新主要包含三大核心內容:基於 Gemini 建構的頂尖文字翻譯質量、通過耳機實現的即時語音對話翻譯(Beta 版),以及擴展的語言練習與技能建構功能。1. 更智能、更自然的文字翻譯從今天開始,Google 翻譯在搜尋和 App 中將利用 Gemini 的先進能力,更好地處理包含成語、本地表達或俚語等具有細微差別的短語。過去,翻譯像 “stealing my thunder”(搶了我的風頭)這樣的英語成語時,往往會出現生硬的逐字翻譯。現在,Gemini 能夠解析上下文語境,捕捉成語的真實含義,從而提供更自然、更準確的翻譯結果。適用範圍: 該更新即日起在美國和印度率先推出,支援英語與近 20 種語言(包括中文、西班牙語、印地語、日語和德語)之間的互譯。使用者可在 Android、iOS 的翻譯應用以及網頁版上體驗。2. 即時聆聽與理解世界:耳機語音翻譯 Beta 版基於 Gemini 原生的“語音到語音”(Speech-to-Speech)翻譯能力,Google 推出了全新的即時翻譯 Beta 體驗。這一新功能不僅能進行即時翻譯,還能保留說話者的語氣、強調重點和說話節奏(Cadence)。這使得翻譯後的語音聽起來更加自然,也讓使用者更容易分清對話中的不同角色。無論是在國外聆聽講座、觀看外語影視劇,還是進行跨語言對話,使用者只需戴上任意品牌的耳機,打開翻譯 App 點選“即時翻譯(Live translate)”,即可聽到即時的翻譯內容。適用範圍:地區與平台: 即日起在 Android 平台的翻譯 App 中向美國、墨西哥和印度的使用者推出。語言支援: 支援超過 70 種語言。未來計畫: Google 計畫在 2026 年將此功能擴展至 iOS 平台及更多國家。3. 助力語言掌握:擴展練習工具Google 翻譯還在進一步完善其語言學習功能,幫助使用者在現實場景中提升技能。改進的反饋機制:系統將根據使用者的口語練習提供更有針對性的建議。進度追蹤:新增了“連續學習天數”(Streak)追蹤功能,幫助使用者設定目標並直觀地看到自己的堅持與進步。服務擴展:語言學習功能現已擴展至近 20 個新國家和地區,包括德國、印度、瑞典和,台灣新增語種:*   英語 -> 德語、葡萄牙語*   孟加拉語、中文(簡體)、荷蘭語、德語、印地語、義大利語、羅馬尼亞語、瑞典語 -> 英語Google 表示,通過更先進的 AI 模型,翻譯工具不再僅僅是轉換文字,而是幫助使用者捕捉語言背後的深層含義與情感。隨著這些功能的推出,Google 期待收到使用者的反饋,以持續最佳化體驗 (AI寒武紀)
美股AI突變!OpenAI淪為“股價毒藥”,矽谷八巨頭一夜蒸發3.8兆元市值,專家:看好Google,其擁有兩項致勝“法寶”
過去一年,“OpenAI概念股”是華爾街最硬的通貨。但從12月11日這一天開始,“魔法”失效了。甲骨文股價一度跌16%,它手裡攥著的3000億美元OpenAI訂單,在市場眼裡,可能是無法兌現的空頭支票。第二天,AI晶片巨頭博通股價大跌11%,市值蒸發2192億美元,只因它與OpenAI的合同短期內無法帶來收入。美股AI八巨頭也被拖累,市值合計一夜蒸發5470億美元(約合人民幣3.8兆元)。OpenAI已成“股價毒藥”,與它深度繫結的上市公司從10月底開始集體大跌。雖然OpenAI在成立10周年之際,緊急發佈了GPT-5.2,但不少觀點認為,OpenAI僅靠模型難以與Google的全端生態抗衡,最終會制約它的收入潛力和履約能力。博通的“煩惱”:AI訂單達730億美元為何市場只看到風險?美東時間12月11日(周四)盤後博通公佈的2025財年第四季度財報顯示,在旺盛的AI需求下,公司每股盈利達1.95美元,超出分析師預期的1.87美元;營收為180.2億美元,高於預期的174.5億美元。同時,公司預計2026財年第一季度AI晶片銷售額將達82億美元,較去年同期翻倍。財報剛披露時,股價應聲上漲3%,但在財報電話會議後迅速轉跌,盤後跌幅一度超過5%。次日,博通股價收跌11%,市值一夜蒸發2192億美元。原因在於,雖然博通目前擁有730億美元的AI產品訂單積壓,將在未來六個季度內交付,但這一數字令部分投資者失望。儘管博通CEO陳福陽隨後澄清,這一數字是“最低值”,並預期將有更多訂單湧入。更關鍵的是,陳福陽透露了兩個資訊,引發了更大的擔憂。其一,博通的AI收入毛利率低於其非AI收入毛利率;其二,預計公司與OpenAI的合同在2026年不會開始產生太多收益。根據該合同,博通將在2026年至2029年間為OpenAI提供10吉瓦的資料中心基礎設施。他表示,該交易的大部分收益將在2027年、2028年和2029年產生。市場已意識到,將OpenAI訂單轉化為實在的、高額的利潤並非易事。漫長的回報周期和低於預期的利潤率,讓博通與OpenAI的交易充滿了不確定性。甲骨文的“墜落”:5230億美元訂單如何成為達摩克利斯之劍?比博通更焦慮的是甲骨文。12月10日美股盤後,甲骨文2026財年第二季度財報顯示,總營收160.6億美元不及預期,雲業務營收80億美元雖同比增長34%,卻未達80.4億美元的分析師預期。唯一的亮點——剩餘履約義務(RPO)同比飆升438%至5230億美元,遠超FactSet分析師預期的5020億美元——反而成了風險導火索。這5230億美元中,有3000億美元來自OpenAI的一項為期五年的算力採購協議。這意味著,甲骨文的未來已與OpenAI深度捆綁。但OpenAI“支出遠超收入”的現狀,讓市場嚴重懷疑其履約能力。D.A.Davidson分析師吉爾•盧里亞(Gil Luria)估算,OpenAI需在2030年實現逾3000億美元年收入,才能覆蓋甲骨文合同對應的支出規模。吉爾•盧里亞甚至將甲骨文形容為OpenAI“畫大餅”遊戲中的一個“棋子”。此外,前置資本開支的巨額壓力,讓甲骨文的現金流狀況持續惡化。甲骨文上財季的自由現金流約為-132億美元,而市場的預期是-52億美元。公司將2026財年資本支出預期上調150億美元至500億美元。資金鏈的緊張直接反映在信用指標上,洲際交易所資料顯示,甲骨文五年期信用違約掉期(CDS)已升至2009年以來最高點,投資者對其信用質量的信心持續崩塌。截至12月12日,甲骨文五年期信用違約掉期已升至2009年以來最高點甲骨文新任聯席CEO克萊•馬古克(Clay Magouyrk)在財報電話會上試圖安撫市場,稱公司擁有超過700家AI客戶,即使OpenAI違約,也能在“數小時內”將基礎設施重新分配給其他客戶,但這也恰恰暴露了OpenAI可能“吃不下”訂單的風險。摩根士丹利表示,如果甲骨文不能緩解投資者對其大規模AI支出計畫的擔憂,2026年情況將進一步惡化。有媒體在周五報導稱,由於勞動力和材料短缺,甲骨文將推遲與OpenAI相關的資料中心建設,時間由從2027年推遲到了2028年,但甲骨文隨後否認了這一報導。甲骨文發言人Michael Egbert在一份電子郵件聲明中表示:“在協議簽署後,我們與OpenAI密切協調確定了選址及交付時間表,並達成一致意見。履行合同承諾所需的任何站點都沒有延誤,所有里程碑都在正軌上。”當“造王者”OpenAI成為“股價毒藥”甲骨文的債務危機和博通的利潤隱憂,都指向同一個風暴中心——OpenAI。曾憑ChatGPT掀起AI浪潮,如今已滿10歲的OpenAI正因擴張計畫,演變成其合作夥伴乃至整個AI行業的“毒藥”。與OpenAI深度繫結的上市公司,包括甲骨文、軟銀、微軟、輝達和CoreWeave股價從10月底開始集體大跌。Google新一代模型Gemini 3的出現,給OpenA帶來了巨大壓力。12月初,OpenAI首席執行長山姆•奧爾特曼(Sam Altman)宣佈公司進入“紅色警報”狀態,要求調動更多資源,全力提升ChatGPT能力以應對日益激烈的競爭。繼8月GPT-5、11月GPT-5.1後,OpenAI於12月11日緊急推出原定於月底發佈的GPT-5.2。四個月內三次重大更新,但業界卻認為,在對手的壓力之下,OpenAI顯得格外被動。胡延平向每經記者直言,“GPT-5.2打出來的子彈都對著Gemini 3去了,但沒有一顆落到Google的生態裡。”他指出,Google發佈Gemini 3系列產品後,市場看到OpenAI不僅模型水準不再有明顯優勢,而且未來可能難以抗衡Google的全端全生態優勢。胡延平認為,OpenAI緊急推出的GPT-5.2對扭轉不利局面有幫助,但是無法從根本上逆轉多極化趨勢和全生態競爭劣勢。而OpenAI高昂的算力成本和巨額支出承諾,與其尚未完全清晰的盈利模式形成鮮明對比。科技評論員愛德華•齊特隆(Edward Zitron)則在其評論文章中詳細拆解了OpenAI的擴張計畫,認為其完全脫離現實。愛德華估算,建設1GW資料中心需耗資約500億美元且耗時至少兩年半。按此計算,OpenAI要在未來一年內兌現與博通、AMD和輝達的多個1GW部署承諾,就需要籌集超過1000億美元的資金。而要完成其宣稱的33GW目標,總投資將是兆美元等級。至於250GW的宏偉藍圖,其成本將高達約10兆美元,相當於美國去年GDP的三分之一。匯豐銀行發佈一份研報警告稱,到2030年,OpenAI的累計自由現金流仍將為負,資金缺口高達2070億美元,必須通過額外債務、股權融資或更激進的創收手段來填補。在無法通過廣告變現且舉債艱難的背景下,其商業模式的可持續性正在經歷挑戰。美國銀行分析師賈斯汀•波斯特(Justin Post)一針見血地指出:如果OpenAI最終大獲成功,它將憑藉其強大的模型和使用者基礎,成為Google、Meta等所有合作夥伴在企業服務、廣告甚至電商領域的直接競爭對手;但如果OpenAI失敗,它那天文數字般的算力合同將變成一堆無法兌現的“白條”,讓甲骨文、CoreWeave等供應商背負巨額壞帳和大量閒置的資料中心。擁有“全端生態”“財務紀律”Google有望成為最終贏家?OpenAI的困局,恰好成就了Google的崛起。Google擁有OpenAI最稀缺的東西:現金流和完整的產業鏈。Google2026年預期資本支出佔經營性現金流的56%,在巨頭中效率最高。與OpenAI嚴重依賴外部合作的模式不同,Google走的是全端自研路線:用自家張量處理單元(TPU)晶片,支撐Google雲平台(GCP),訓練和運行Gemini系列大模型。這種垂直整合帶來了極致的成本優勢。SemiAnalysis的模型資料顯示,GoogleTPUv7在成本效率上對輝達構成了碾壓優勢,TPUv7的TCO(總擁有成本)比輝達GB200伺服器低約44%。胡延平向每經記者表示,在算力方面,隨著更高效、更有性價比且已經形成技術生態系統的GoogleTPU的崛起,輝達GPU相關生態的價值正出現“消脹”和“回呼”趨勢,這對原有體系、尤其是OpenAI循環投資的參與者的股價預期均產生負面影響。而Google手上長期被視作“內部武器”的TPU晶片,正從成本最佳化工具變為潛在的兆美元級收入新引擎。吉爾•盧里亞預測,若Google認真推進TPU對外銷售,數年內有望佔據AI晶片市場20%份額,催生一個約9000億美元規模的業務。摩根士丹利測算,Google每向第三方資料中心銷售50萬塊TPU,就可能在2027年增加約130億美元的收入。市場預估,Google明年市值有望站穩5兆美元。胡延平指出,Google可能成為全球市值最高公司,“原因有三:一是AI全端;二是軟硬體與服務全端;三是全球使用者市場。”他認為,Google擁有全球50億使用者,“全家桶”數十款產品當中月活20億的服務就有八九種,Android覆蓋30億裝置,使得“一款AI產品出來瞬間,就能擴散到全球且市場閉環,這一點是OpenAI來不及擁有的能力。(OpenAI)僅靠模型能力,不足以抗衡一個體系。” (每經頭條)
8 年後回到史丹佛,布林復盤Google AI:錯在太謹慎
“我們搞砸了。”2025 年 12 月 12 日,史丹佛工程學院百年慶典。Google聯合創始人謝爾蓋·布林(Sergey Brin)回到母校,坐在講台中央,開門見山:Transformer論文是我們發的,但我們沒有足夠認真對待它。算力沒跟上,產品不敢推,就怕聊天機器人說蠢話。時間回到  2017 年。那一年,Google發佈Transformer,技術上領先全球。但 5 年後,率先把大模型變成產品的,卻是 OpenAI。ChatGPT 橫空出世,Claude緊隨其後。而Google,錯過了AI的第一輪爆發。布林沒有迴避這段歷史。他直言:我也在場,但我們沒有行動。2022 年底,他重新回歸Google,親手參與 Gemini的每一個關鍵決策。這一次回到史丹佛,他不講情懷,只講三件事:Google錯在那?現在怎麼追?這場仗,怎麼打?第一節|發明了Transformer,卻輸給了OpenAI2017年,Google的研究團隊發表了那篇劃時代的論文《Attention is All You Need》。Transformer架構由此誕生,點燃了整個大模型時代。彼時Google內部並非沒有察覺其顛覆性意義。Jeff Dean帶隊推動Google Brain,Sundar Pichai在各種公開場合強調AI first,技術積累從未停止。但他們沒敢把這場變革真正推向市場。在史丹佛的公開訪談中,布林承認了這段從領先到落後的全過程:“我們沒投夠算力,太怕產品失控……Chatbots會說蠢話,我們就遲疑了。OpenAI那邊把事情做出來了,很多還是我們的人。包括Ilya,都是我們原來的員工。”這不是情緒化的復盤,而是一份源自一線技術人員的戰略反思。回顧那幾年,Google內部的典型姿態是:算力要調配到更穩妥的應用;模型研究繼續,但謹慎對外發佈;對話式AI被視為高風險、難把控的方向。直到 2022 年底,ChatGPT 引爆全球。Google才終於意識到,自己不是輸在技術,而是敗在心理預期與組織氣質。布林也是在那一刻,決定重新回到公司。他沒在這場訪談裡指責任何人,但他幾次重複一個詞:我們。“We definitely screwed up(我們確實搞砸了).”在那場決定未來十年的 AI 路口,布林在場,也確實錯過了。 但他沒有迴避,而是親自回場修正。第二節|他每天都在用Gemini這一次回來,布林不再只是坐在辦公室裡面聽匯報,而是全職回到研發一線。在訪談裡,他透露,自己從2022年底起幾乎每天都在參與Gemini的研發:親自指導團隊目標;用AI工具分配任務、判斷人才;和Gemini每天對話,連在車上都聊。他要用這種方式向團隊證明:技術人的工作方式,必須和 AI 協作重新定義。他甚至在開車時也會向 Gemini提問。無論是編寫程式碼、設計晶片架構,還是計算電力成本,他都會先請教它,儘管它並不完美,但確實能幫他形成新思路。這不是象徵性的參與,而是一個創始人在用行動告訴團隊:AI 不是工具,而是新的工作方式。在他看來:“AI不是靠單點突破贏,而是靠一整套智能系統,讓人能真正用起來。”如果說 2017 年他們太謹慎,沒敢把Transformer推到台前;那麼2025年,布林親自站在一線,把 Gemini 真正用出來。這是一場落後之後的追趕,也是一個創始人對技術方向的再下注。第三節|Google怎麼追:平台化,不是單點突破Gemini 的定位,從一開始就不是為了再做一個ChatGPT。布林團隊的目標更像是:重構工具鏈,取代人類開多個軟體、切多個窗口的工作方式。從2025年12月的產品更新節奏可以看出戰略意圖:Gemini 3 Pro正式上線:強調多步推理、低幻覺、複雜任務能力,意在超越對話助手的範疇;Gemini Deep Research發佈:不僅能生成研究摘要,還能與資料互動、進行工具呼叫,走向科研工作流助手;MCP託管服務推出:統一模型上下文協議,打通AI與Google自家生態(Maps、BigQuery、Gmail、Finance);AI眼鏡Project Aura官宣:聯動XREAL、三星、Warby Parker,押注AI×空間×多模態硬體入口。這一整套動作指向同一個方向:不是讓你搜尋答案,而是讓AI代你完成整個任務。與之對照,OpenAI 在同一時期發佈GPT-5.2,主攻長上下文處理和對話能力提升,繼續強化ChatGPT作為終極對話智能體的定位。兩家公司的路徑開始分叉。OpenAI 的商業入口聚焦在ChatGPT企業版、瀏覽器外掛和API介面,本質上是讓AI成為更好的對話夥伴。而Google選擇的是平台式工具生態。通過MCP協議,將其他模型、Agent、工具整合進來,把Workspace、Search、Maps、甚至硬體裝置都變成 AI 的觸點。它不追求單個模型最強,而是要讓整個生態最好用。布林在訪談中提到一個關鍵點:“很多公司卡在 AI 能力有了,但落地成本太高。如果我們能讓Agent像API一樣即插即用,這個時代就打開了。”換句話說,Google不只想做一個模型,而是把Gemini變成一套AI介面標準。就像Android定義了移動作業系統,Gemini要定義的是AI 工具的協作方式。第四節|別急著商業化整場對話最有意思的一幕,不是談產品或戰略,而是布林給年輕人的建議。主持人問他:AI正在改變一切,年輕人該怎麼選專業?是不是不該學程式設計了?布林沒有兜圈子,他直言:“我就是學電腦出身的。我不會因為AI現在能寫程式碼,就去轉學文學專業。目前 AI 在文學上可能更強,但程式設計仍然有巨大市場價值。而且,更好的程式設計才能做出更好的 AI。”為什麼這麼說?他給出了兩個理由:第一,AI 能寫程式碼,不代表工程師沒用了。反而意味著工程師需要更強的結構化思維與調度能力。第二,技術力仍是拉開 AI 應用差距的核心。門檻沒有降低,只是能力要求變得更複雜了。但這並不意味著非專業人士就被拒之門外。他還舉了個對比:作為非晶片專家,他現在想瞭解架構、算力預算、冷卻方案,直接用Gemini問一輪,就能快速抓住方向。換句話說:AI降低的是學習門檻,而不是應用門檻。重要的不是你腦子裡存了多少知識,而是你會不會用AI快速定位並掌握需要的知識。對於學生,他建議把注意力放在兩個方向:如何用好AI工具,把創意變成實際工作流;如何與AI協作,培養自己獨特的思考和判斷能力。而對於創業者,他的建議更直接:“不要怕犯錯。這次Gemini,我們在很多核心功能還沒完全打磨好時就上線了,就是想讓它先真正可用,再談擴張。”這句話聽起來像是在鼓勵快速迭代,但重點其實在“真正可用”四個字上。很多 AI 公司在搶速度、拼融資、趕風口時,做的往往是技術demo或概念產品。但布林強調的是:先做出使用者願意每天用的工具,再談完善和擴張。這才是Google現在真正的護城河。結語|不是神話,是選擇布林這次回到史丹佛,講的是一個公司錯過了起點,然後用 8 年追回來的故事。不是靠戰略調整,而是靠創始人每天參與、親自使用、把工具真正用出來。2017年,Google發明了Transformer,但太謹慎沒敢推。2025年,布林親自回場,把Gemini變成了一整套工具鏈。從錯過到追回,靠的不是運氣,而是選擇。技術的錯過,可以靠參與補回來。但前提是,你要在落後的時候,敢回場,敢做事。 (AI深木度研究員)
GoogleTPU挑戰GPU王座!讓Anthropic省下30%算力,買的TPU越多,省下的輝達GPU支出就越多!
面對GoogleTPU的攻勢,輝達開始緊張了。Google的 Gemini 3 和 Anthropic 的 Claude 4.5 Opus 等前沿模型,並非使用輝達硬體訓練,而是運行在Google最新的 Ironwood 架構 TPUv7 上。TPU 的成果無需多言:Gemini 3 是全球最強模型之一,而且完全在 TPU 上訓練。連山姆·奧特曼也公開承認,Gemini 搶走了 OpenAI 的風頭,“前景有些不妙”。這意味著,一種可行的 GPU 替代方案已經到來。輝達也慌了,趕緊發佈了一份安撫性的新聞稿,告訴所有人保持冷靜,我們仍然遙遙領先。輝達的緊張不難理解,這幾個月對 Google DeepMind、GCP 和 TPU 戰線而言是一路大勝:TPU 產量預期大幅上調Anthropic 超過 1GW 的 TPU 採購Gemini 3 和 Claude 4.5 Opus 在 TPU 上拿下 SOTA客戶名單迅速擴大(Meta、SSI、xAI、OAI 全部被瞄準)為什麼在 Blackwell 還沒完全鋪開、輝達的 GPU 帝國依然銅牆鐵壁的情況下,TPU 卻突然具備了挑戰 GPU 的實力?——輝達的統治地位要結束了嗎?這一切還得從2006年開始嘮起。GoogleTPU:從內部自用走向商業化早在 2006 年,Google就開始推銷建構專門 AI 基礎設施的想法, 但問題在 2013年發生了轉變。Google開始意識到,如果想在任何規模上部署人工智慧,就必須將現有的資料中心數量翻倍。因此,他們開始為 TPU 晶片奠定基礎,並於 2016 年投入生產。TPU 協議棧長期以來一直與輝達的 AI 硬體抗衡,但它主要支援Google內部工作負載。過去,Google只通過 Google Cloud Platform 出租 TPU,外部團隊無法直接購買。直到最近,Google開始將 TPU 硬體直接出售給企業客戶。關鍵轉折點在於Google與Anthropic達成的戰略協議。今年九月初,就有消息稱Anthropic 作為主要外部客戶之一, 需求至少有 100 萬個 TPU。這一消息在十月得到了 Anthropic 和Google的正式確認 。關於 100 萬顆 TPU 的分配結構:通過Google長期的硬體設計合作夥伴博通,約有 40 萬顆晶片直接銷售給 Anthropic剩餘的 60 萬顆晶片通過傳統的Google雲合同租賃據SemiAnalysis報導,Anthropic 的承諾為Google的利潤增加了數十億美元。此外,Meta 也是 TPU 的大客戶。即便作為競爭對手,OpenAI也計畫租賃GoogleTPU。有消息稱,今年OpenAI 希望通過 Google Cloud 租賃的 TPU 能夠幫助降低推理成本,這可能會推動 TPU 成為輝達 GPU 更廉價的替代品。值得注意的是,OpenAI 甚至還沒有部署 TPU,僅僅是存在可行的替代方案,就爭取到了輝達GPU大約 30%的折扣。因此有分析師調侃道:“你買的TPU越多,你節省的輝達GPU支出就越多。”這句話真是狠狠打臉了老黃在介紹BlackWell時那句知名的口號:“買得越多,省得越多。”為什麼 Anthropic 想要 TPU:節省約30%的成本!從紙面規格看,TPUv7 “Ironwood” 的理論算力(FLOPs)和記憶體頻寬已經接近輝達最新一代 Blackwell GPU。但真正的殺手鐧是:TPU極低的總擁有成本(TCO)。根據分析:Google 內部使用 TPU 的每晶片 TCO 比同級 GB200 系統低約 44%;即使是像 Anthropic 這樣的外部客戶(需要支付Google的利潤),每單位有效算力的成本依然比輝達系統低 30~50%。TPU 的架構還帶來天然擴展優勢:Google的系統能把 9,216 顆晶片聯成一個高密度的訓練域;而傳統輝達系統通常只有 64~72 顆晶片能做到緊密互聯。這使得 TPU 更適合超大規模 AI 訓練任務。另一個關鍵因素是 Anthropic 的工程實力。團隊中有前 Google 編譯器專家,既熟悉 TPU 軟體棧,也精通自家模型架構。他們可以通過定製核心提升 TPU 利用效率,從而實現 更高的模型 FLOP 利用率(MFU) 和更優的 $/PFLOP 性能。綜合考慮更低的 TCO 和更高的有效算力:對Google來說,每個有效 FLOP 的成本更低;盈虧平衡點僅需約 15% 的 MFU,而 GB300 則需 30% 的 MFU。換句話說,即便Google或 Anthropic 僅實現 GB300 FLOPs 的一半,成本也能持平。憑藉頂尖的編譯器團隊和對模型的深度理解,Anthropic 在 TPU 上的 MFU 潛力甚至可能達到 40%,這意味著每單位有效訓練 FLOP 的成本可降低約 62%,帶來巨大的經濟優勢。Google試圖打破 CUDA 鎖定效應長期以來,軟體生態是 TPU 最大的短板。和所有非輝達加速器一樣,TPU 生態系統中的外部開發者數量遠少於 CUDA 生態系統。CUDA 是行業標準,開發者要遷移到 TPU 需要重寫大量工具鏈。但現在情況正在改變,因為Google正在三件事上投入大量資源:讓 PyTorch 在 TPU 上原生運行TPUv7 支援原生 PyTorch 整合,包括急切執行、完全支援分佈式 API、torch.compile 以及 PyTorch 工具鏈下的自訂 TPU 核心支援。目標是讓 PyTorch 能像在 Nvidia GPU 上一樣輕鬆運行 TPU。整合主流推理庫(如 vLLM)Google還大力參與 vLLM 和 SGLang 這兩個流行的開源推理框架,並宣佈通過一個非常“獨特”的整合,支援 vLLM 和 SGLang 的測試版 TPU v5p/v6e。最佳化編譯器自動平行能力Google的目標很明確:讓開發者無需重建生態,就能無痛切換到 TPU。不過,TPU 軟體棧的核心XLA 編譯器仍未開源,文件也不完善。這導致從高級使用者到普通使用者都感到沮喪,無法偵錯程式碼出了什麼問題。此外,他們的 MegaScale 多重訓練程式碼庫也不是開放原始碼的。SemiAnalysis 認為,如果能開源,將顯著降低 TPU 的採用門檻。此外,為了讓數十萬顆 TPU 快速落地,Google 還採用了一種非常激進的融資策略:與新型雲服務商(Neocloud)合作,如 Fluidstack與加密礦場營運商合作,如 TeraWulf在這些交易中,Google充當“最終兜底者”,如果營運方失敗,Google 保證繼續支付租金。這使得大量舊的加密挖礦資料中心被迅速改造成 AI 資料中心,也讓 TPU 的部署速度大幅提升。這對輝達來說意味著什麼?面對Google的威脅,輝達正在準備反擊。其下一代 “Vera Rubin” 晶片,預計將在 2026~2027 年推出,將採用相當激進的設計,包括:HBM4 高頻寬記憶體新一代互聯與系統架構而Google計畫中的應對方案 TPUv8,則採用了雙重策略。據瞭解,Google計畫發佈兩個變體:一個與長期合作夥伴博通(代號“Sunfish”)共同開發,另一個與聯發科(代號“Zebrafish”)合作開發。但TPUv8的設計稍顯保守。有分析師指出,該項目存在延誤,且依賴架構避免了競爭對手中激進使用台積電的 2 奈米工藝或 HBM4。SemiAnalysis也指出,一開始,Google在矽晶片設計理念上相較於輝達更為保守。歷史上,TPU 出廠時峰值理論 FLOP 數量明顯少於相應的輝達 GPU 和更低的記憶體規格。如果輝達 Rubin 按計畫實現性能躍升,TPU 當下的成本優勢可能會被徹底抹平。甚至可能出現,輝達 Rubin(特別是 Kyber Rack)比 Google TPUv8 更便宜、更高效的情況。此外,TPU 也並非完美。它在特定深度學習場景中表現出色,卻遠不如 GPU 靈活。GPU 能運行各種演算法,包括非 AI 工作負載。如果明天出現一種全新的 AI 技術,GPU 基本可以立即運行;TPU 則可能需要編譯器或核心最佳化。此外,從 GPU 體系遷移出來的成本依然高昂,特別是對於深度依賴 CUDA、自訂 kernel 或尚未針對 TPU 最佳化的框架的團隊。WEKA 的首席人工智慧官Val Bercovici 建議:“當企業需要快速迭代、快速上市時,應選擇 GPU。GPU 使用標準化基礎設施、擁有全球最大的開發者生態、適合動態複雜的工作負載,並能輕鬆部署在現有本地資料中心,而無需進行電力或網路的重構。”由於 GPU 更普及,對應工程人才也更多。TPU 則需要更稀缺的技能。Bercovici 也表示:“要充分發揮 TPU 的潛力,需要能寫自訂 kernel 與最佳化編譯器的工程深度,這類人才極為稀缺。”總的來說,AI 硬體的競爭愈演愈烈,但現在預測誰將獲勝還太早,甚至無法確定是否會有一個唯一的贏家。TPU 的性價比和架構優勢確實讓人眼前一亮,但輝達的 GPU 在生態、軟體和成熟度上依然不可小覷。在輝達、Google快速迭代,以及亞馬遜也加入競爭的背景下,未來性能最高的 AI 系統很可能是混合架構,同時整合 TPU 與 GPU。 (51CTO技術堆疊)