#語言處理單元
華為老兵押注LPU:一個比GPU更快的賽道,正在被輝達引爆
2025年9月,一個華為晶片老兵創立了一家叫"元川微"的公司。沒有發佈會,沒有媒體報導,創始人楊濱只是在幾個投資人的小圈子裡說了一句話:"DeepSeek R1論文看完那天晚上,我覺得終於可以下場了。"然後,他拿到了數億元天使輪。01. 這是什麼賽道?LPU,Language Processing Unit,語言處理單元。如果說GPU(顯示卡)是AI訓練的標配,那麼LPU就是AI推理的下一代心臟。為什麼需要一個新的晶片?因為大模型推理和訓練不一樣。訓練需要大量平行計算,GPU擅長的正是這個。但推理——尤其是大模型一個token一個token往外吐——本質上是順序計算,GPU的平行優勢發揮不出來。更大的問題是記憶體牆:GPU要從外部視訊記憶體(HBM)反覆搬運資料到計算單元,延遲大、能耗高。LPU的解法是:把資料全部放在晶片上,不用來回搬運。這就是"存算一體"——整個模型塞進晶片,訪問延遲從納秒級降到皮秒級,功耗斷崖式下降。效果有多誇張?Groq(全球首家LPU公司)的實測資料:Llama-2 70B跑出185 Token/秒,Mixtral模型近500 Token/秒——比所有雲推理提供商快幾倍到十幾倍。02. 為什麼輝達花200億美元買它2025年12月,輝達宣佈以200億美元整合一家叫Groq的美國公司。不是投資,是收購整合。這讓整個晶片行業都震驚了——輝達為什麼要買一家初創公司,而不是自己複製?答案很簡單:LPU的架構和GPU有本質差異,沒法簡單疊加。輝達選擇"買賽道"而不是"自研",等於給LPU賽道蓋了個官方認證章。到了2026年3月GTC大會,黃仁勳直接把Groq的LPU技術整合進輝達的Vera Rubin平台,用於智能體即時推理。"推理時代的算力基礎設施,LPU是不可或缺的一環。"——這就是輝達用200億美元發出的訊號。03. 元川微是誰?憑什麼值得關注?創始人:楊濱,華為晶片老兵2008年,赴美組建華為處理器團隊2012年,回國主導華為無線基帶演算法與晶片部門深度參與華為海思無線通訊晶片從研發到商用的完整周期關鍵洞察:楊濱在無線通訊基帶處理領域有20年積累。而LPU的核心理念——資料流架構、確定性執行——與無線基帶晶片在工程學上高度相通。這是元川微團隊最核心的差異化優勢:別的AI晶片團隊做不了,因為他們不懂通訊基帶;而楊濱團隊剛好兩邊都懂。融資情況(天使輪,數億元):財務投資方:東方嘉富、元禾原點、峰瑞資本、中芯聚源、深創投、浙江省科創母基金、杭州潤苗基金產業投資方:星宸科技(301536)、智微智能(001339)注意這兩家產業資本的佈局方向:星宸科技深耕算力中心,智微智能佈局大端側與邊緣側——與元川微的產品分層邏輯高度契合。而且這兩家"既是股東,也是客戶",已在產品定義、供應鏈和早期市場層面提供實際支援。產品路線:雙系列佈局Mountain系列 — 資料中心/高端邊緣節點,算力優先River系列 — Agent/端側場景,側重連接能力和行業適配技術進度:已完成系統模擬、原型驗證、FPGA驗證,計畫2027年上半年完成投片。04. 國內還有誰在做LPU?根據公開資訊,元川微是目前中國已知唯一以LPU為核心架構的AI推理晶片初創公司。此外有邁特芯、深明奧思等少數企業在嘗試,“但多數AI晶片公司仍沿GPU或通用算力路徑推進”。楊濱認為,推理場景對CUDA生態的依賴遠低於訓練場景,國內創業者有機會從零開始建構自己的軟體棧,繞過CUDA壁壘。這是時間窗口,也是風險所在。05. 投資判斷:怎麼看這個賽道?利多因素:✅ 輝達200億美元背書,賽道已驗證✅ 推理算力需求爆發(Agent時代,推理算力佔比將從75%提升至90%+)✅ 國內唯一LPU+架構玩家,無直接對標✅ 團隊背景強,產業資本"出錢+出訂單"雙支援✅ 降低對先進製程依賴,供應鏈自主性優勢風險因素:⚠️ 2027年才能投片,商業化空窗期長⚠️ 軟體生態(工具鏈、開發者社區)建設是勝負手⚠️ 需要持續融資,稀釋壓力⚠️ 大廠隨時可能入局(寒武紀、燧原均有AI晶片能力)06. 元一智庫分析LPU是值得重點關注的賽道。輝達已經用真金白銀告訴我們方向是對的。元川微是國內當前最值得跟蹤的標的:團隊強、方向對、產業資本背書。但天使輪階段,距離真正商業化還有2年,中間變數很多。兩個關鍵跟蹤節點:2027年投片結果 — 晶片性能是否達到設計預期第一個種子客戶 — 誰願意在生態不成熟時第一個吃螃蟹躬身入局是正當時,但入局之後能否走出來,才是真正的考驗。 (MBB top info)