#自研
比肩輝達H20!阿里自研PPU浮出水面
這款備受業界矚目的PPU,此前已被央視《新聞聯播》曝光,如今正式揭開面紗。1月29日,阿里巴巴旗下半導體公司平頭哥在官網上線了其高端AI晶 片“真武810E”的詳細資訊。此次發佈的不僅是單一產品,更是意味著由通義實驗室、阿里雲和平頭哥共同構成的阿里巴巴AI戰略核心——“通雲哥”協同體系的首次公開亮相,展示了阿里在AI時代從底層算力、雲端運算平台到頂層大模型應用的全端自研實力。(圖源:平頭哥官網)1. 全端自研,賦能400+行業客戶“真武810E”是一款實現從硬體到軟體全端自研的高端AI晶片。目前,該晶片已在阿里雲上完成了多個萬卡叢集的規模化部署,並成功服務於國家電網、中科院、小鵬汽車、新浪微博等超過400家行業客戶,覆蓋了科研、能源、汽車、網際網路等多個關鍵領域。該晶片的核心技術優勢體現在:先進架構:採用自研的平行計算架構和ICN(Inter-Chip-Network)片間互聯技術,配合全端自研軟體棧,打通軟硬體壁壘。超大記憶體:整合HBM2e記憶體,容量高達96GB,滿足大模型訓練與推理的海量資料吞吐需求。高速互聯:支援7個獨立ICN鏈路,片間互聯頻寬達到700GB/s,可靈活配置多卡組合,輕鬆應對大規模叢集擴展。生態友好:全面相容主流AI生態,並提供原始碼級編譯能力與統一程式設計介面,極大降低了使用者的遷移和二次開發門檻。2. 實測表現卓越,瞄準核心AI場景經驗證,“真武810E”在實際應用中表現突出:自動駕駛:相容超過50個常見模型,泛化性強,絕大多數模型無需特殊適配,既便於客戶自服務,也降低了技術外洩風險。AI訓練:通過軟硬協同最佳化,有效解決大規模訓練中的通訊瓶頸,高效適配各類主流模型、框架與算子庫,顯著加速訓練迭代。AI推理:不僅支援主流推理引擎,還提供自研的專用推理框架和算子庫,為推理場景提供針對性極致最佳化。多模態生成:結合強大的AI算力與硬體級視訊編解碼能力,在文生視訊、圖文生成等前沿場景的推理與訓練中均展現出卓越性能。(圖源:平頭哥官網)“真武810E”的強勁性能,源於其底層採用的創新PPU架構。這是一種專門為AI計算設計的新型晶片架構,它採用了獨特的機率計算方法,能夠在處理複雜的AI任務時實現更高的效率和更低的功耗。外媒“The Information”此前爆料,平頭哥研發的第一代PPU性能可匹敵輝達暢銷的H20,而升級版的PPU性能則比輝達A100更強。另據業內人士透露,相比輝達H20晶片,平頭哥PPU性價比更高、能效高,特別在AI推理場景下表現突出。3. “芯”路歷程,注入新活力自2018年9月成立以來,平頭哥作為阿里全資的晶片業務主體,已建構起端雲一體的完整產品線,涵蓋資料中心晶片、IoT晶片等,實現晶片端到端設計鏈路全覆蓋。2019年,平頭哥推出AI推理晶片含光800,推理性能達到78563 IPS,每秒可處理7.8萬張圖片,創造了當時同類晶片的性能和能效比兩項第一。2021年,平頭哥發佈阿里首個通用伺服器晶片倚天710,性能超過同期業界標竿20%,能效比提升超50%。(圖源:平頭哥官網)此外,在儲存晶片方面,鎮岳 510 SSD 主控晶片已成功落地;在終端側,羽陣IoT晶片已實現數億顆出貨;網路晶片領域,資料中心核心場景的晶片佈局已基本成型。近期,多方消息顯示,阿里巴巴集團已決定支援平頭哥探索未來獨立上市的路徑。公司計畫先進行內部重組,引入員工持股,再擇機啟動IPO。這一戰略舉措,無疑將為平頭哥在激烈的全球晶片競爭中注入新的活力與發展空間。目前,具體上市時間還未確定。4. 寫在最後隨著“真武810E”的正式亮相與“通雲哥”體系的協同發力,阿里巴巴正將其在AI時代的全端自研技術實力清晰呈現,為中國在全球AI算力競賽中增添了重要籌碼。 (芯師爺)
賭城豪賭!亞馬遜“All in”自研晶片,招招刺向輝達軟肋:表面喊著合作,背後全是“算計”
(本圖片由AI生成)本周的拉斯維加斯,金錢永不眠,但真正的豪賭不在賭場,而在AWS的發佈會現場。當眾多開發者湧入re:Invent大會時,雲端運算霸主亞馬遜終於不再沉默。面對輝達的步步緊逼,它直接將籌碼推向了桌子中心:All in自研晶片。亞馬遜先是用一張Trainium3鎮住全場:性能飆升4倍,成本直接腰斬一半;緊接著,它又亮出了袖中的“底牌” Trainium4,FP4吞吐量暴漲6倍、記憶體頻寬提升4倍,招招直指輝達的軟肋。這一次,亞馬遜不再甘心做一個“賣鏟子”的中間商。這場關於算力控制權的戰爭,亞馬遜已經不想再忍了。與此同時,全新的Nova模型家族和“模型鍛造”工坊更顯示出亞馬遜試圖在AI時代重塑“雲端霸權”的野心。這不只是一次產品發佈,這是亞馬遜對輝達“稅收”的抗爭,也是對Google和微軟等雲服務商發起的大規模反擊。矽谷出租屋裡的歡呼:輝達GPU不再是唯一選擇故事的開始,發生在一個看似不起眼的矽谷出租屋裡。那裡聚集著AI視訊初創公司Decart的幾十名工程師。這是一家剛剛融資1億美元、估值高達31億美元的新晉獨角獸企業。但此時正陷入一場絕望的程式碼馬拉松:他們試圖訓練一款名為“Lucy”的AI視訊生成應用,目標是實現即時渲染,沒有任何卡頓。在嘗試了輝達GPU等多款競品晶片後,結果都不怎麼樣。Decart聯合創始人迪恩·萊特斯多夫(Dean Leitersdorf)回憶道:“在突破之前,我們只能生成1.5到2秒的視訊,然後螢幕上的畫面就變成了一團噪點。模型運行越來越亂,一切都會模糊。”直至AWS向他們提供了尚在保密階段的自研AI訓練晶片Trainium3。那是馬拉松程式設計的兩周後,所有人都身心俱疲。萊特斯多夫正在打Zoom電話,突然聽到身後傳來瘋狂的歡呼聲。“那一刻,我看到四個人興奮地跳上跳下,”萊特斯多夫說,“Trainium3讓我們運行了更龐大、更聰明的模型,而且不會崩潰。”Decart的實測資料顯示,Trainium3生成的視訊影格率是其他晶片的4倍。這一幕極具象徵意義。長期以來,輝達GPU是AI行業的硬通貨,是不可踰越的護城河。但現在,缺口被撕開了。亞馬遜在周二正式宣佈Trainium3開始上市銷售,採用3奈米工藝,由AWS旗下的Annapurna Labs設計。官方資料顯示,相比同等GPU系統,Trainium3能將AI模型的訓練和運行成本降低高達50%。(本圖片由AI生成)在這個算力成本決定生死的時代,“50% 的成本削減”對任何一家AI公司來說,都是無法拒絕的誘惑。AWS Trainium晶片首席架構師羅恩·迪亞曼特(Ron Diamant)直言不諱地表示:“歸根結底,主要優勢就是性價比。”會上,亞馬遜AWS宣佈已擁有包括Anthropic、Karakuri、Metagenomi、Neto.ai、理光和Splash Music在內的穩定客戶群。此外,亞馬遜發佈了計算叢集Trainium3 UltraServer,每個UltraServer可容納144顆Trainium3晶片。更誇張的是,這些伺服器可以連接起來,為單個應用提供高達100萬顆晶片的算力支援。這是上一代系統規模的10倍。在能源消耗日益成為資料中心噩夢的當下,AWS宣稱新系統的能效比上一代提高40%。 這對於那些正為“天文數字”般電費帳單發愁的AI巨頭們來說,無疑是另一劑強心針。“特洛伊木馬”:亞馬遜的陽謀如果說Trainium3是正面強攻,那麼亞馬遜對下一代晶片Trainium4的預告,則是一記精妙的“側翼包抄”。眾所周知,輝達最深的護城河不僅是GPU,更是NVLink互連技術和CUDA生態。為了打破這一壟斷,亞馬遜AWS祭出了一招“以夷制夷”。AWS在大會上透露,正在研發中的Trainium4將支援輝達的NVLink Fusion高速互連技術。這意味著,客戶可以在AWS的機房裡,混用亞馬遜的自研晶片與輝達GPU。亞馬遜似乎拋出了這樣的橄欖枝:“你不需要立刻拋棄輝達,而是可以把它們連在一起用。但你會發現用我的晶片更便宜、更高效。”這是一種典型的“特洛伊木馬”策略。通過相容對手標準,降低客戶的遷移門檻,然後用極致的性價比慢慢蠶食市場份額。(本圖片由AI生成)迪亞曼特在接受採訪時表現得十分“謙遜”。他說:“我不認為我們是在試圖取代輝達。”一再強調是要給客戶更多選擇。但市場反應很誠實。當Meta開始與Google商談購買TPU晶片、OpenAI與博通合作開發晶片的消息傳出,再加上亞馬遜的這一記重拳,輝達股價應聲波動。儘管輝達曾在社交平台X上強硬回擊稱自己“領先行業整整一代”,是唯一能運行所有AI模型的平台,但不可否認的是,“去輝達化”正在成為矽谷巨頭們心照不宣的共識。即便像Anthropic這種接受輝達100億美元投資的盟友,在AWS的誘惑面前也表現出了“渣男”的一面。AWS透露,Anthropic正在使用超過100萬顆Trainium2晶片建構Claude模型。Nova模型與“代工廠”模式:不僅僅是賣雲服務如果硬體層面比拚的是“省錢”,那麼軟體和模型層面的競爭則是“奪權”。亞馬遜一直被詬病在生成式AI大模型方面“趕了個晚集”,落後於OpenAI的GPT和Google的Gemini。但這次,AWS CEO馬特·加曼(Matt Garman)顯然想通過“實用主義”彎道超車。全新的Nova模型家族周二悉數亮相:——Nova Pro與Nova Lite: 對標GPT-5和Gemini 3.0等等級的強力模型。——Nova Sonic: 即時語音模型。——Nova Omni: 能夠像人一樣處理音訊、視訊、圖像和文字的多模態推理模型。亞馬遜宣稱,Nova 2 Pro在各項基準測試中匹配甚至超越了OpenAI和Google的旗艦模型。亞馬遜特別提到,該模型在執行複雜指令和電腦操作等智能體任務方面表現突出。較小的Nova 2 Lite模型則在多項基準測試中與Claude 4.5 Haiku、GPT-5 Mini和Gemini Flash 2.5性能相當。但真正的殺手鐧並非模型本身,而是名為Nova Forge的新工具。這一工具允許企業客戶在模型“預訓練”階段就匯入自己的資料。這與目前市面上常見的“微調”(Fine-tuning)截然不同。微調只是在成品模型上修修補補,限制了調優空間;而Nova Forge是讓客戶參與到地基澆築中。亞馬遜AI業務負責人羅希特·普拉薩德(Rohit Prasad)在發佈前接受採訪時表示:“每個企業都需要精通自身業務領域的前沿模型。”他透露,Nova Forge的技術最初是為Alexa等內部團隊開發的,“這本質上是全新的開放式訓練範式”。Reddit就成為了第一個吃螃蟹的人。(本圖片由AI生成)Reddit首席技術官克里斯·斯洛維(Chris Slowe)表示,傳統的微調根本不管用,因為大多數通用模型被設計得過於“嚴格”,會拒絕分析Reddit上某些具有爭議或攻擊性的內容。但通過Nova Forge,Reddit將自家龐大語料庫注入模型底層,訓練出了一個真正的“Reddit專家”。“其他大語言模型只是從概念上理解Reddit,而我們的模型真正懂其中的‘黑話’。”斯洛維說。這正是亞馬遜的精明之處。它沒有選擇用一個通用的超級ChatGPT來統治世界,而是通過Nova Forge,讓每一家公司都能以更低成本擁有一個屬於自己的“前沿模型”, 無論是Reddit、索尼還是Booking.com。“授人以漁”的策略,或許正是亞馬遜在AI時代差異化競爭的關鍵。AWS CEO的冷靜思考:拒絕泡沫,擁抱實效在AI淘金熱中,AWS CEO加曼的態度顯得異常冷靜。在大會前的專訪中,加曼毫不避諱地談到了他對所謂“AI泡沫”的看法。“當人們談論泡沫時,我認為風險最大的是那些交易,”加曼直言那些雖然沒有大規模應用、甚至沒有寫出多少程式碼,卻獲得數十億美元融資的初創公司,“一家沒有程式碼的初創公司估值能有30億美元?也許吧,但也可能不是。這些才是大問號。”加曼的賭注不在於製造下一個ChatGPT,而在於將AI變成一種像水電一樣廉價、可靠的基礎設施。他更看重AI的實際效能,並舉了亞馬遜內部案例:AWS一個團隊最近對內部程式碼庫進行了大規模重寫。按照傳統估算,這需要30個人工作18個月。但在AI智能體的輔助下,僅僅6個人只用71天就完成了任務。這種效率的提升是實實在在的,而不是資本講的故事。當然,挑戰依然存在。雖然亞馬遜在上一季度交出了超預期財報,但Google和微軟憑藉Gemini、OpenAI ChatGPT等明星AI,依然在快速蠶食市場份額。此外,亞馬遜內部激進的AI轉型也引發了陣痛,包括10月份宣佈的裁員計畫以及部分員工對AI環境影響的擔憂,都是加曼必須面對的難題。結語:巨人的反擊很長一段時間裡,亞馬遜在AI領域給人的印象是“沉睡的巨人”。微軟深度繫結了OpenAI,Google擁有DeepMind,而AWS似乎還在靠著老舊的雲服務模式慣性滑行。但re:Invent 2025徹底粉碎了這種印象。亞馬遜正在建構一個嚴密的戰略包圍圈:(本圖片由AI生成)底層: 用Trainium晶片打破輝達的價格壟斷,用更低能耗解決資料中心的電力焦慮。中層: 用Nova Forge打破通用大模型的壟斷,讓企業擁有定製化模型的主權。頂層: 用Bedrock和智能體平台,將AI嵌入到每一個具體的應用開發中。正如加曼所說:“兩年前,人們在建構AI應用;現在,人們在建構內建AI的應用。”這不再是關於誰的模型能寫出更優美的詩歌,而是關於誰能讓AI以更低成本、更可控方式,真正流淌進商業的各處毛細血管裡。輝達的股價或許還會繼續走高,OpenAI的發佈會或許依然吸睛,但亞馬遜已經把戰場拉回了它最擅長的領域:規模、成本與效率。在這場沒有硝煙的戰爭中,亞馬遜不想做那個最亮眼的公司,它只想做那個笑到最後、賺走每一分基礎設施利潤的公司。對於黃仁勳和奧特曼來說,真正的麻煩可能才剛剛開始。 (網易科技)
亞馬遜出招:新一代 Trainium3 登場 —— 會撼動輝達的“王座”嗎?
AWS 在 re:Invent 上推出自研 Trainium3 晶片並透露與輝達合作的路線圖,引發“雲端晶片戰”新一輪比拚。一、到底發生了什麼?事實速覽在 AWS re:Invent 大會上,亞馬遜正式發佈了其新一代 AI 訓練加速器 Trainium3,並推出基於該晶片的新伺服器據稱能比上一代大幅提升性能與能效。與此同時,AWS 透露計畫在未來的 Trainium4 中採用輝達的 NVLink Fusion 技術以實現更高效的互聯。AWS 還在大會上同步推出包括 Nova 2 在內的新款基礎模型與定製化工具(如 Nova Forge),表明 AWS 正在把晶片 + 模型 + 雲服務做一體化競爭策略。(以上為最核心的兩點:亞馬遜既自研晶片,又願意相容/協作輝達的互聯技術,這種“自研+開放互通”的策略,是本次事件的關鍵。)二、Trainium3 技術與定位(通俗解讀)定位:Trainium 系列是 AWS 專為模型訓練設計的加速器家族。Trainium3 為該路線的最新一代,主打“更高訓練吞吐與更低能耗”的雲端訓練平台。性能承諾:AWS 宣稱新一代伺服器在訓練性能和能效上實現顯著提升,能以更低成本支援大型模型訓練。多家媒體報導 Trainium3 在某些指標上比上一代快數倍,並得到部分企業使用者的試用認證。路線靈活:值得注意的是,AWS 同時宣佈將在未來版本引入 NVLink Fusion(輝達的高速互聯方案),顯示 AWS 在“自研”和“相容主流生態”之間尋求平衡。三、這對輝達意味著什麼?——威脅在那兒、機會又在那兒為什麼有人說這會對輝達構成威脅?雲端客戶大量自研等於潛在替代需求:AWS 是全球最大的雲服務商之一,如果越來越多 AI 客戶選擇在 AWS 的 Trainium 實例上訓練模型,長期會壓縮對輝達 GPU(如 H100/H200)的純粹需求。價格與成本優勢:Trainium 的早期版本就主打“比通用 GPU 更低的訓練成本”;若新代繼續擴大性能/能效比優勢,企業在算力採購上會更傾向於成本更優的專用實例。“機房級整合”能力:AWS 不只是賣晶片,它能把晶片、網路、儲存、模型服務整合為一套完整產品(比如 Bedrock / Nova Forge),這對客戶吸引力極強。輝達雖然生態龐大,但云服務商的“端到端”產品也有不可替代性。但這並非單向打壓——也可能演變為合作或互補:AWS 已公開表示將在 Trainium4 中採用 NVLink Fusion,這意味著即便 AWS 自研,面對更大規模的多晶片互聯場景,它也願意使用輝達的互聯技術。兩者既競爭又存在合作空間。四、對我們產業的三點啟示雲廠商自研晶片是長期趨勢中國的阿里、華為、浪潮等也在推進自研 AI 晶片與雲端算力佈局。AWS 的動作再次證明:掌握“硬體 + 雲服務”能顯著提高平台議價能力與成本控制。對中國雲廠商與晶片廠商而言,這是追趕與競合的雙重機會。模型與算力“捆綁銷售”更普遍AWS 除了晶片,還推出 Nova 家族模型與 Nova Forge 工具,說明未來客戶更在意“效率與一體化服務”,不僅僅是買晶片。中國企業若要搶市場,需提供同樣一體化、低門檻的產品體驗。輝達的王座短期難以被一錘定音撼動輝達在硬體生態、軟體工具(CUDA)、合作夥伴與市場份額上都具備深厚優勢。單靠一款晶片難以立即替代其全盤優勢;但“雲端自研+局部互通”的策略會長期重塑需求格局。對中國本土晶片廠商而言,這既是挑戰也是進入機會窗口。五、競爭與共生並存,真正的贏家是“有整合力者”AWS 推出 Trainium3,並同時選擇在未來版本中支援 NVLink Fusion,這一組合耐人尋味:一方面 AWS 希望通過自研降低成本並掌控堆疊;另一方面又承認在互聯等技術上,與已有生態協作更有利於客戶。換言之:未來的雲端晶片戰不會是單純的“全盤替代”或“徹底孤立”,而是以“更強的整合能力、服務能力與成本優勢”為贏者。對關注 AI 基礎設施的你來說,值得持續關注的點包括:Trainium3 的真實基準與客戶案例、Trainium4 與 NVLink 的合作細節、以及中國雲/晶片廠商的應對節奏。 (思考的邊界)
「給不出2000億顆晶片?行,我自己來!」馬斯克急了,正在憋一個「超級大招」
“給不出2000億顆晶片?行,那我自己造。”當全世界都在盯著Robotaxi何時上路,或是星艦何時能征服火星時,伊隆·馬斯克正在美國德克薩斯州的荒野深處,悄悄推進一項鮮為人知的「地下工程」。這一次,他不再滿足於買晶片,而是要從零打造一個全端半導體帝國。多年來,馬斯克一直把一句話掛在嘴邊:“決定特斯拉未來的,不是汽車而是晶片。”現在馬斯克不再只是說說而已。在被全球供應鏈短缺和代工巨頭產能瓶頸「逼到牆角」後,馬斯克決定不再等待。 他在秘密建構一個全端半導體製造生態系統,從最基礎的PCB 印製電路板,到尖端的先進封裝,甚至還要自建晶圓廠。這是一場豪賭,賭注是AI、機器人和衛星網路的未來控制權。受他大力宣傳自主研發AI 晶片的影響,特斯拉本周以來已經上漲6%。01. 被「逼」出來的野心:沒人能跟上我的速度馬斯克為什麼要自己造晶片?原因很簡單:在他的眼中,台積電和三星都太慢了。特斯拉的AI 路線圖依賴高效能晶片,SpaceX 的星鏈需要定製射頻晶片。但在全球晶片荒期間,馬斯克發現自己只能排在蘋果、輝達和高通身後。更讓馬斯克抓狂的,是傳統晶片製造業的「慢」。在與投資者羅恩·巴倫(Ron Baron)的對話中,馬斯克毫不留情地吐槽:“我對台積電和三星充滿敬意,但當我們問建一個新廠要多久時,他們說五年。五年?對我來說那簡直是永恆。”馬斯克的字典裡只有「立刻」和「馬上」。“如果他們不能在我們需要的時間內提供1000億到2000億顆(亦或是千億美元)等級的AI 晶片需求,那我們就自己幹。”這是一個讓行業分析師聽了都會「噴飯」的數字。要知道,2023年全球半導體裝置出貨量約為1.5兆顆,但其中包含了大量低階晶片。馬斯克張口就是千億等級的AI 晶片需求,這不只是野心,簡直是「瘋了」。要滿足單一客戶如此龐大的AI 算力晶片需求,現有的供應鏈根本做不到。但馬斯克的邏輯很簡單:既然你們不夠快,那我就自己幹。02. 德州的秘密工程:除了造車,還造“心臟”馬斯克沒有在開玩笑。在德克薩斯州,龐大的晶片製造版圖正在成型。他已經在德州建成了一座PCB(印刷電路板)工廠。這讓他能夠擺脫外部供應商,對特斯拉和SpaceX 的硬體迭代擁有絕對的控制權。而真正的重頭戲是FOPLP 先進封裝廠。由SpaceX 管理的一座FOPLP(扇出型面板級封裝)工廠正在接收裝置。FOPLP 是目前全球最先進的後端技術之一,專門用於處理高密度、高效能的AI 晶片。根據內部洩漏的時間表,工廠建設節奏快得驚人:· 2025年9月:裝置開始進場· 2026年初:開始安裝調試· 2026年第三季:限量試產· 2027年第一季:全面量產雖然初期產能僅為每月2,000個高效能封裝,但這標誌著馬斯克將掌握只有極少數美國科技巨頭才擁有的內部先進封裝管線。雖然在產能爬坡期間,SpaceX 將暫時採購意法半導體(STMicroelectronics)和群創光電(Innolux)的產品作為過渡,但最終目標是實現完全的「封裝自主」。03. 終極目標:月產百萬晶圓的超級工廠然而,封裝廠並不是馬斯克的極限。在特斯拉股東大會上,馬斯克拋出了真正的「核彈」:「我們準備建立一個晶圓廠,起步月產10萬片,最終目標是月產100萬片。”如果真如馬斯克所說,那將是美國乃至全球最大的晶圓廠之一。儘管分析師認為馬斯克可能會從14奈米等成熟過程切入,而非直接挑戰台積電的3奈米過程,但這對於汽車電子、電源管理和部分邏輯晶片來說已經綽綽有餘,且能極大降低成本和供應鏈風險畢竟特斯拉需要海量晶片餵給FSD 駕駛系統和柯博文(Optimus)機器人,SpaceX 也需要穩定的晶片供應來維持星鏈的擴張。04. 敵人的敵人就是朋友:英特爾入局馬斯克還找到了一個急需翻身的盟友:英特爾。業內人士透露,英特爾正成為馬斯克晶片帝國的核心合作夥伴。特斯拉Dojo 3晶片由台積電和三星代工,但封裝環節交給了英特爾在亞利桑那州的工廠。這是一場完美的利益交換:英特爾急需大客戶來證明IDM 2.0戰略的合理性,而馬斯克需要美國本土製造能力和英特爾的工程人才。05. 人才爭奪戰:這一局,我要贏從特斯拉已經普及的AI4到即將流片的AI5,再到已經開始研發的AI6,為實現「每年推出一款新AI 晶片」的瘋狂迭代速度,馬斯克正在矽谷發起一場人才掠奪戰。他在社群媒體X 上直接喊話,呼籲擁有AI 晶片設計、實體佈局和訊號完整性專長的頂尖工程師直接發郵件毛遂自薦。為了挖人,馬斯克開出的價碼非常豐厚:· 物理設計工程師(10年+經驗):年薪15.2萬至26.4萬美元(約合人民幣110萬-190萬),外加現金獎金和股票期權。· 訊號與電源完整性工程師:年薪最高可​​達31.8萬美元(約合230萬美元)。不僅給錢,馬斯克還親自下場督戰。他透露自己每周二和周六都會與晶片團隊開會,深度參與設計,直到AI5流片完成。06. 結語:別低估那個“瘋子”輝達CEO 黃仁勳曾說過,複製台積電的先進製造能力幾乎是「不可能的任務」。確實,從零打造晶片供應鏈面臨難以想像的技術壁壘。但華爾街的分析師們也不敢輕易看空馬斯克——畢竟他已經顛覆了火箭和汽車兩個重資產產業。馬斯克的邏輯很清晰:在AI、機器人和衛星網路的未來戰場上,算力就是生命線。他不能把這條生命線交到任何其他人手裡。當競爭對手還在為搶不到輝達的GPU 而焦慮時,馬斯克正在打造自己的兵工廠。這很瘋狂,但這很馬斯克。 (網易科技)
Google TPU強勢出擊,正面挑戰輝達AI晶片霸權
Google正加速推進自研AI晶片業務,與輝達展開正面競爭。多年來,Google一直將自研的AI晶片——張量處理單元(TPU)出租給客戶,供其在Google雲(Google Cloud)的資料中心內使用。據知情人士透露,Google現已開始向部分客戶(包括Meta Platforms和大型金融機構)推廣新方案:允許他們在自有資料中心部署TPU晶片。知情人士表示,Facebook和Instagram的母公司Meta目前正與Google洽談兩項合作:一是計畫在2027年斥資數十億美元,在自有資料中心採用TPU晶片;二是明年從Google雲租賃Google晶片。當前,Meta的AI運算主要依賴輝達的圖形處理器(GPU)。對Google而言,此類合作有望擴大TPU的市場覆蓋面。Google推TPU新方案。一位直接知情人士透露,Google在向企業推廣“自有資料中心部署TPU”方案時提到,客戶希望此舉能讓敏感資料滿足更高的安全與合規標準。Google還指出,TPU對那些在自有設施中運行AI模型的高頻交易公司尤為適用。這項業務還可能大幅提升Google的營收。Google雲部門部分高管表示,該方案有望搶佔輝達年營收的10%,對Google而言相當於每年數十億美元的收入增量。Google吸引客戶使用TPU的核心優勢之一在於成本——相比價格高昂的輝達晶片,TPU的使用成本更低。這也使得甲骨文等其他雲服務商難以通過出租輝達晶片獲得理想的毛利率。不過,輝達大機率會抵制Google在AI晶片市場的擴張步伐。作為AI伺服器晶片市場的絕對霸主,輝達已成為全球市值最高的公司,當前市值達4.36兆美元。其市場壟斷地位推動營收飆升,進而積累了豐厚的現金流,這些資金又可反哺給OpenAI、Anthropic等客戶,加深合作繫結。輝達CEO黃仁勳一直密切關注GoogleTPU的技術進展,並迅速採取行動,說服OpenAI、Anthropic等現有及潛在TPU客戶,與輝達GPU簽訂大額合作協議。有分析認為,黃仁勳可能會通過促成與Meta(輝達最大客戶之一)的新交易,來阻撓Meta與Google的TPU合作。“我們始終在探索與頂尖AI實驗室深化合作的方式。”輝達發言人表示。Meta發言人拒絕對TPU相關洽談發表評論。Google發言人未就TPU推廣計畫置評,但表示“市場對我們自研TPU和輝達GPU的需求正在加速增長;我們將一如既往地同時支援這兩種方案。”Gemini的成功:為TPU推廣添力Google當前在AI領域的強勁勢頭,或許能為其TPU推廣提供助力。本月早些時候,Google發佈了最新大型語言模型Gemini 3,獲得了眾多科技界知名人士的高度評價。他們認為,Google已彌合了與OpenAI之間的技術差距。據英國《金融時報》11月25日報導,GoogleTPU引發市場焦慮,輝達股價盤初急挫超7%、收跌2.6%,市值蒸發約1150億美元,超微電腦等關聯公司跟跌。Google長期以來一直使用TPU開發AI模型。部分開發者認為,借助TPU,Google在“為新大型AI模型訓練所需的密集伺服器叢集提供算力”方面,已縮小與輝達的領先差距。這一進展的佐證是:Meta與Google洽談的TPU合作,核心是用於訓練新AI模型,而非用於現有模型的推理過程。這一細節值得關注,因為多數分析師此前認為,鑑於暫無企業能在訓練晶片技術上與輝達抗衡,挑戰輝達的最大機會應在推理晶片領域,而這類晶片無需大型互聯伺服器叢集。與此同時,Meta也在繼續開發自研的AI推理晶片,以降低成本並減少對輝達的依賴。為推動“客戶自有資料中心部署TPU”的新計畫(該計畫名為TPU@Premises),Google專門開發了一款軟體,旨在降低客戶使用TPU的門檻。這款名為“TPU指揮中心”(TPU command center)的軟體,似乎是Google針對輝達核心優勢的破局之舉。輝達的Cuda軟體已成為AI開發者的“事實標準”。開發者對其操作極為熟悉,能輕鬆讓模型在輝達晶片上運行。而Google用於TPU的配套程式語言Jax,開發者熟練度相對較低。不過Google向客戶保證,他們可以使用與PyTorch相關的軟體來操作TPU,無需成為Jax專家。客戶可通過PyTorch相關軟體與控制TPU伺服器叢集的指揮中心進行互動。值得一提的是,PyTorch由Meta研發並開源。輝達的應對:以投資繫結核心客戶無論Google的TPU計畫最終能否成功,僅“出現強大替代方案”這一事實,就已為Anthropic、OpenAI等不願過度依賴單一AI晶片供應商的輝達大客戶帶來了利多。上個月,在Google宣佈向Anthropic提供最多100萬個TPU後,黃仁勳迅速宣佈向Anthropic投資數十億美元,並獲得了這家AI初創公司使用輝達GPU的承諾。類似地,在OpenAI計畫從Google雲租賃TPU的消息曝光後,黃仁勳與OpenAI達成了初步協議:擬投資高達1000億美元,助力其自建資料中心,同時探討向其出租輝達GPU的可能。輝達發言人強調,其對AI初創公司的投資不強制要求對方採購輝達GPU。黃仁勳已認可Google在AI晶片領域的進展。今年秋初的一檔播客節目中,黃仁勳表示:“Google已迭代至第七代TPU,我們確實應該給予應有的尊重。”輝達於26日凌晨發文回應GoogleTPU擴張,稱樂見GoogleAI進展、將繼續為其供貨。同時,輝達強調自身“是唯一適配全計算場景、支援所有AI模型的平台”,並暗指TPU這類專用ASIC晶片在通用性、性能靈活性上遜於自家產品,意在穩住市場信心。Google早在近十年前就啟動了TPU研發項目,並於2018年左右向有意自研AI模型的客戶開放TPU使用權限。目前,Google雲仍在向客戶出租搭載輝達晶片的伺服器,這項業務的營收仍顯著高於 TPU 相關業務。亞馬遜、微軟等雲服務領域的主要競爭對手,以及OpenAI、Meta等其他大型AI開發者,均已啟動自研AI晶片的嘗試,但迄今為止成效有限。夏季加速擴張:繫結小型雲服務商今年夏天,Google在TPU市場擴張方面變得更為激進。Google開始接觸那些主營輝達晶片租賃的小型雲服務提供商,提議在其資料中心部署TPU。目前,Google已與至少一家雲服務提供商達成協議——總部位於倫敦的Fluidstack將在紐約的資料中心部署TPU。該協議包含讓Fluidstack難以拒絕的條款:如果Fluidstack無法承擔紐約資料中心的租賃成本,Google將作為“後盾”提供最高32億美元資金支援。這一承諾正幫助Fluidstack及其資料中心提供商籌集該資料中心的建設資金。輝達也曾向CoreWeave等AI雲合作夥伴作出過類似承諾。Google還試圖與其他主打輝達晶片的雲提供商達成交易。其中,包括正在為OpenAI開發輝達晶片資料中心的Crusoe,以及向微軟出租輝達晶片且與OpenAI有合作的CoreWeave。目前這些洽談的進展暫未披露。 (創新觀察局)
Arm第二財季淨利暴漲122%,自研晶片又進一步!
當地時間11月5日,半導體IP大廠Arm公司公佈了截至2025年9月30日的2026財年第二季財報,營收同比大漲34%至11.4億美元,這是Arm連續第三個季度營收突破10億美元大關,超越了分析師預期的10.6億美元。第二財季GAAP淨利潤2.38億美元,同比暴漲122%;Non-GAAP口徑下淨利潤4.17億美元,同比增長32%;Non-GAAP營運利潤4.67億美元,超出分析師預期的3.855億美元;Non-GAPP每股收益(不含股票報酬等項目)為0.39美元,也優於市場預期的0.33美元。Non-GAAP毛利潤率98.2%,優於分析師預期的97.9%。授權費同比大漲56%,累計簽署19項CSS授權協議從具體的業務表現來看,Arm 第二財季版稅(使用其技術生產晶片後所收取的版稅)收入同比增長21%至6.2億美元,這主要得益於其智慧型手機、資料中心與汽車等所有目標市場均呈現同比增長,推動了對於Armv9和Arm 計算子系統 (CSS)等晶片版稅率更高的 Arm 技術的持續採用,以及資料中心對基於 Arm 的晶片使用量的增加。此外,第二財季的授權費收入同比大漲56%,達到了5.15億美元,這主要是歸功於在該財季內的高價值合約的簽訂。Arm稱,其在第二財季署了三項新的CSS授權協議,分別應用於智慧型手機、平板電腦和資料中心領域,使授權總數達到19項,涉及11家公司。其中五家客戶已開始出貨基於CSS的晶片。三星也將把CSS應用於其Exynos系列晶片組,這意味著目前排名前四的Android手機廠商都在出貨搭載CSS技術的裝置。Arm解釋稱,第二季聯發科等合作夥伴將 Lumex CSS配置設計到其下一代晶片中,用於 Oppo 和 vivo 的新旗艦智慧型手機。“這是來自各個領域對Arm CSS技術持續強勁的需求,尤其是在資料中心方面。”Arm CEO Rene Haas表示,Arm CSS產品相比公司其他設計能帶來更高的版稅收入,而採用CSS技術的客戶數量增加,以及整體AI支出上升,都推動了公司給出樂觀的預測。CSS產品屬於更完整的晶片設計,能讓幫助客戶更快地完成整顆晶片的設計。資料中心CPU市場份額將達50%目前Arm 設計的 IP也越來越多應用於資料中心,目前,亞馬遜、Google、阿里巴巴、微軟等雲服務大廠都有自研基於Arm 構架的伺服器CPU。Arm公佈的資料顯示,其Neoverse CPU核心出貨量已超過10億顆,用於運行定義現代計算的複雜AI和超大規模工作負載。據Arm介紹,第二財季內,Google已經將超過 30,000 個雲應用程式遷移到 Arm,包括 Gmail 和 YouTube,並計畫將其超過 100,000 個應用程式中的大部分遷移到 Arm;微軟將基於 Arm 架構的 Cobalt 100 晶片推廣至全球 29 個地區;輝達則獲得了超過 5000 億美元的預期訂單,這些訂單將持續到 2026 年,因為市場對其基於 Arm 架構的 Grace Blackwell 超級晶片的需求依然異常強勁;新增的五個 Stargate AI 資料中心站點均以 Arm 作為戰略計算平台,凸顯了 Arm 在大規模人工智慧領域的作用。今年10月,Arm和Meta宣佈建立戰略合作夥伴關係,重點展示Arm計算平台的全系列產品,涵蓋從支援人工智慧的可穿戴裝置到運行Neoverse CPU核心的人工智慧資料中心,這些核心為Meta旗下包括Facebook和Instagram在內的眾多應用提供推薦引擎支援。Arm預計到2025年,Arm 構架的中央處理器(CPU)在主要雲端科技巨頭的資料中心當中的部署佔比將接近50%,進一步鞏固Arm作為AI資料中心新型計算單元的地位。Rene Haas 表示,這些Arm CPU在能效表現上比使用英特爾或AMD 技術設計的CPU高60%。“當觀察Arm CPU在資料中心的發展時,就會發現市場對AI計算的需求激增,而目前的瓶頸在於功耗問題,“對Arm來說,這反而是我們的優勢”。因此,Arm的Neoverse產品線帶來的收入已經翻了一倍。持續開拓邊緣人工智慧市場Arm還介紹了在第二財季內其與客戶在邊緣人工智慧領域的合作成果:在智慧型手機領域,Google的 Pixel 10 搭載了基於 Arm 架構的 Tensor G5 晶片,運行 Gemini 的速度比上一代快 2.6 倍,效率高 2 倍。在 PC 領域,輝達開始發售其基於 Arm 架構的桌面級 DGX Spark——一款用於本地模型訓練、微調和推理的緊湊型桌面超級電腦——將資料中心的功能直接帶到開發人員的辦公桌上,並加速裝置端 AI 的創新。在汽車領域,一家領先汽車製造商推出了一款基於 Arm 計算平台打造的旗艦電動汽車,而特斯拉推出了其下一代 AI5 晶片,該晶片專為特斯拉即將推出的汽車和機器人而設計,並基於 Arm 計算平台,其 AI 性能比上一代產品快 40 倍。Arm 在人工智慧領域的領先地位得益於其在電腦領域最廣泛的開發者生態系統,該生態系統目前擁有超過 2200 萬名開發者,佔全球開發者總數的 80% 以上。今年10 月,Arm 推出了與 GitHub Copilot 的智能 AI 整合,使數百萬開發人員能夠自動執行和最佳化雲工作負載向基於 Arm 的基礎架構的遷移。Arm KleidiAI 持續提升 AI 軟體在領先框架上的性能,包括在 PyTorch 中基於 transformer 的模型上性能提升高達 2.5 倍,以及在ExecuTorch上將裝置端速度和能源效率提高 20% 以上。Arm 貢獻了基礎晶片系統架構 (FCSA)標準,以加速晶片的設計和整合;同時,Arm Total Design的成員數量增加了兩倍,在開放計算項目 (OCP) 全球峰會上新增了 10 個成員,其中包括 Marvell。發力自研晶片根據TD Cowen 研究顯示,採用Arm 技術的晶片每年為各大晶片製造商帶來約2,000億美元的營收。相比之下,Arm自身的營收規模卻相對有限,只有幾十億美元。為了擴大營收規模,Arm CEO Rene Haas在上一財季時透露,計畫將部分利潤投入開發自家完整晶片與其他元件,意味著Arm將從以往僅提供半導體IP授權的商業模式,轉向對外銷售完整的晶片設計。而首要的客戶目標則是亞馬遜、Meta、OpenAI等雲資料中心大廠。Rene Haas在接受媒體採訪時表示,在持續探索自研晶片的方向上,Arm已經“又向前推進了一點點”。不過,Arm的這種轉型,顯然需要更多工程研發投入,這將在侵蝕Arm的盈利能力。並且,此舉也會使得Arm直接與部分大客戶競爭,可能會影響與客戶的合作。第三財季指引超預期對於第三財季的指引,Arm預計,營收為12.25億美元(±5000萬美元),中位數為12.3億美元,高於分析師平均預期11億美元;Non-GAAP每股收益0.41美元(±0.04美元)。Rene Haas 表示,旗下晶片設計方案CSS 產品帶來較高權利金收入,且越來越多客戶採用該技術,再加上整體AI 投資增加,預期公司前景相當樂觀。 (芯智訊)
阿里巴巴加速AI及雲計算佈局 自研芯片與全球數據中心同步推進
在人工智能與雲計算領域的戰略佈局持續深化,阿里巴巴近期在技術研發與全球基礎設施方面取得多項進展。據行業分析報告顯示,儘管面臨芯片進口的不確定性,中國科技企業通過自主研發與系統優化正快速提升算力水平。阿里巴巴在AI芯片領域的投入尤爲突出。公司已開始部署自研AI訓練芯片,其最新研發的T-Head PPU芯片在關鍵硬件規格上已接近國際主流水平。同時,百度等國內科技企業也相繼推出多代自研芯片,形成本土化技術生態。行業專家指出,通過"超節點"系統設計,國產芯片已能支持更復雜的AI推理場景,未來有望擴展至訓練工作負載。在雲計算基礎設施方面,阿里雲近日在迪拜啓用第二座數據中心,這是其今年在全球範圍內新增的又一重要節點。至此,阿里雲已覆蓋全球29個地域和92個可用區,爲中東地區日益增長的雲服務與AI需求提供支持。市場研究機構認爲,阿里巴巴在AI價值鏈條中的持續投入將鞏固其技術領先地位。特別是在算法優化方面,國內開發者已開始針對本土硬件特點進行專項優化,這將進一步提升國產芯片的實際應用效能。隨着國家政策支持與企業研發投入的持續加大,中國AI產業生態有望實現更快速的迭代發展。
小米17 4499開賣,首發五代驍龍8!雷軍:500億砸自研晶片
剛剛,小米秋季新品發佈會來了。整場三個多小時,節奏沒斷過,產品一直在上。小米17系列打頭陣,起售價4499元。平板、音響、路由器、冰箱、洗衣機也接連登場,這回直接把“全家桶”拉滿。不只是例行上新,小米這次更像是把壓箱底的智能軟硬體,一口氣全抖了出來。怎麼說,感覺小米從網際網路玩家向硬核科技公司轉型的決心藏不住了。小米17系列:跳號命名,叫板iPhone之前見有網友調侃:小米為何跳過16直接上17?有網友回覆:因為iPhone 17叫17啊……(doge)不過說真的,這場發佈會上,雷總確實真沒少cue iPhone……正面叫板、反覆對比,該內涵的內涵了,該明牌的也明牌了。說歸說,鬧歸鬧。這次雷軍第六次站上年度發佈會舞台,說的是“改變”,但重頭戲其實藏在小米17系列裡。小米17系列包括標準版、Pro和Pro Max三款機型。從名字、晶片、外觀到副屏體驗,小米這次不是“對標”,而是超越蘋果。這代小米手機,從芯就開始卷。小米17全系首發搭載的,是全新第五代驍龍8至尊版移動平台——第三代3nm工藝加持,架構全大核,主頻拉到4.6GHz,性能參數直接幹到了天花板。小米17帶著這顆芯來,就是奔著“最強旗艦”打的,不拐彎、沒水分。接下來是機身設計。這代小米17,在“輕薄”和“高級感”之間,找到了恰到好處的平衡點——整機採用超窄邊直屏,邊框窄至1.18mm,整機薄至8.06mm,重量也只有191克,一上手就能感受到“輕”和“薄”的誠意。視覺幾乎貼邊,握持更貼合,正面觀感乾淨利落。螢幕尺寸上,標準版與Pro均為6.3英吋,而Pro Max升至6.9英吋,看劇黨和小手黨都能找到適配~鏡頭模組的改進也很明顯——同色鏡組+透明底座設計,不再“頂個大黑餅”,視覺觀感更清爽、手感更順滑。雷總說,所有的細節、精緻度,完全不亞於iPhone。這回邊角的處理也更成熟了。小米17這次用了四微曲中框+超大R角的設計,整機線條圓潤流暢,握起來更貼手。正反兩面還都覆蓋了小米自研的龍晶玻璃,官方說抗摔強度提升了10倍。(能摔是能摔,但說實話,看著還真不太捨得摔……)此外,這代螢幕,最底層的“光”,也被小米重新捲了一遍。小米17系列採用了中國廠商盧米藍的新型紅色發光主材,發光效率提升11.4%。這意味著螢幕不僅更亮、更省電,而且紅得更正,色更通透。更關鍵的是——這是中國國產發光材料技術突破,在發光效率上超越國際廠商,實現真正的領跑,這一步,挺有里程碑意義的。再看續航——直接上了大電池不說,還拿出了實測。小米17標準版電池容量高達7000mAh,Pro Max更是做到7500mAh。雷總現場直接放了個實測視訊——小米17連續跑12.2小時後還剩26%,iPhone 17早就彈窗告急。視訊播完了,和iPhone 17也對標完了,雷總臉上的笑也藏不住了:最不同的變革,在背面。小米17 Pro/Pro Max新增妙享背屏——不只是展示資訊的窗戶,而是一次對手機互動方式的重構。它支援120Hz更新頻率,既能顯示時間通知、航班行程,也能用來自拍預覽、控制汽車。副屏的意義,在於補足正面互動的盲區,讓手機多了一塊“第二視角”。最後說說影像,還是熟悉的徠卡調教。主攝+超廣角+長焦的三攝組合,在硬體上繼續打磨,在演算法上重點最佳化了“人像”。新增人景分離、膚色還原、超清演算法,逆光也能拍出原生肌理,輪廓立體。比起堆料,小米這回是真的在拍“人味兒”。從晶片到副屏,從電池到發光材料,小米17系列就像是一次集體進擊: 正面剛iPhone,側面卷Android。雷總說小米17是“小米史上最強的小尺寸全能旗艦”,但他說的其實還不止這些——這不是像iPhone,而是要打贏iPhone。小米平板8:不像平板像電腦,“桌面OS”也玩明白了發佈會上,小米17是主角,但真正成為“第二塊屏”的焦點產品,其實是這一代小米平板。小米這次一口氣帶來了標準版與Pro兩款新品,2199元起。先從外觀看,小米這次確實拿捏住了“能帶出去又不嫌重”的剛需。小米平板8系列配備11.2英吋、3.2K的高畫質旗艦屏,整體尺寸剛剛好。標準版厚度僅5.75mm,重量485g,是小米平板裡面輕薄的LCD平板。大家沒概念沒關係,用雷總的話說,只要知道比iPad Air的6.1毫米還要薄就好了~(doge)這代小米平板,最大的底層升級是系統。首發搭載澎湃OS 3,直接照著“電腦那一套”做系統。瀏覽器、CAD、CAJ、WPS全都能本地跑,窗口縮放、懸浮拖動統統支援,不是“平板相容桌面模式”,而是乾脆平板變電腦。甚至連學生黨都被精準照顧到了——支援無痛接入校園網。別看是平板,晶片堆料也相當猛。小米平板8標準版搭載了驍龍8s Gen 4處理器,Pro則上了驍龍8至尊版,CPU性能提升了78%,GPU性能提升了105%。雷總一句話總結:“這是小米史上最強平板 ”總的直觀的感受是,這代小米平板,不再是“能相容”,而是真的能勝任高效工作流。你可以把它當副屏,也能當主力機用。甚至在某些場景裡,它比你那台老筆記本都靈~One More Thing值得一提的是,雷總昨晚又一次提到了自己的“造芯夢”。他說,小米自研手機SoC至少要堅持10年,至少投入500億元,且必須從最高切入——因為只有做最高端,才有一線生機。他也特別強調,玄戒O1隻是小米晶片之路的第一步,離真正的成功還有很長的路要走。但他也說了,小米會堅持做下去,直到成功的那一天。 (量子位)