#AI
OpenAI簽下近700億AI晶片巨單!
將成為全球最大的高速AI推理平台。百億美元AI晶片大單來了!智東西1月15日報導,今天,OpenAI與美國AI晶片獨角獸Cerebras聯合宣佈,將部署750兆瓦的Cerebras晶圓級系統,為OpenAI客戶提供服務。該合作將於2026年起分階段落地,並於2028年之前完成,建成後將成為全球規模最大的高速AI推理平台。另據《華爾街日報》援引知情人士消息稱,這筆交易價值超過100億美元,同時,Cerebras正在洽談以220億美元的估值融資10億美元,這將使其估值升至原有的近3倍。知情人士稱,Cerebras仍計畫推進IPO。值得注意的是,OpenAI聯合創始人兼CEO山姆·奧特曼(Sam Altman)同時也是Cerebras的個人投資者。Cerebras打造的晶片以“大”著稱,能在一塊晶片上塞入4兆顆電晶體。OpenAI認為,Cerebras晶片的速度來自於將龐大的計算量、記憶體和頻寬整合在一塊巨型晶片上,消除了傳統硬體推理速度下降的瓶頸。Cerebras上大模型的響應速度,是基於GPU的系統的15倍。OpenAI稱,將Cerebras整合進其計算解決方案組合,旨在進一步提升AI響應速度。當AI能夠實現即時響應時,使用者可以完成更多工,停留時間更長,並運行價值更高的工作負載。在公告中,Cerebras稱雙方的合作醞釀了十年之久。OpenAI和Cerebras幾乎同時創立,自2017年以來,雙方團隊頻繁會面,分享研究成果、早期工作,並堅信模型規模和硬體架構終將深度融合。根據奧特曼與馬斯克相關訴訟中公開的法庭檔案顯示,早在2017年,OpenAI就曾討論過與Cerebras建立合作關係的可能性。OpenAI一直在尋找比輝達晶片更便宜、更高效的替代方案。去年,OpenAI宣佈正與博通合作開發定製晶片,並單獨簽署協議,使用AMD的新型MI450晶片。Cerebras CEO Andrew Feldman在接受《華爾街日報》採訪時稱,OpenAI和Cerebras於去年秋季開始正式洽談合作事宜,並在感恩節前簽署了合作意向書。Feldman認為,目前推動市場的因素是“對快速計算的非凡需求”。OpenAI基礎設施負責人Sachin Katti稱,隨著工程師不斷反饋現有晶片在運行AI應用時速度仍有提升空間,尤其是在程式設計相關任務上,OpenAI開始認真評估並推動與Cerebras的合作。Katti在採訪中提到:“算力是衡量OpenAI收入潛力的最關鍵因素。過去兩年裡,我們的整體計算能力幾乎每年翻倍,收入增長也呈現出同樣的趨勢。”Cerebras成立於2016年,在2024年提交上市申請時披露,其大部分收入來自一家客戶——總部位於阿布扎比的G42公司。次年,Cerebras撤回了上市計畫,轉而通過私募融資11億美元,彼時Cerebras的投後估值為81億美元。Feldman稱,Cerebras此後已與IBM和Meta簽署了新的合作協議。市場研究公司PitchBook的資料顯示,該公司已累計融資18億美元,還不包括新籌集的資金。結語:大模型商用引爆推理需求,多元算力路線獲頭部玩家押注隨著大模型進入大規模商用階段,如何在更短時間內、以更低成本完成推理,正成為影響使用者體驗、應用上限乃至商業化能力的關鍵。雖然輝達GPU仍是當前AI算力生態的絕對主流,但包括晶圓級架構、定製ASIC在內的多元算力路線,正在被頭部模型廠商納入基礎設施佈局。 (智東西)
【CES 2026】復盤:算力的“階級固化”與端側AI的“暴力美學”
如果說2024年是AI PC的概念元年,2025年是架構混戰的亂紀元,那麼CES 2026則標誌著晶片行業正式進入了“存量博弈”與“暴力落地”並存的新階段。穿梭在拉斯維加斯的展館,一種微妙的壓抑感取代了往年的狂熱。我們看到的不再是百花齊放的創新,而是巨頭們在物理極限和供應鏈瓶頸下的極限拉扯。一、 趨勢拆解:三大戰場的格局重塑PC戰場的“降維打擊”:高通 Snapdragon X2 與“80 TOPS”的新基準CES 2026上,Qualcomm再次扮演了“攪局者”的角色,發佈了 Snapdragon X2 Elite/Plus。X2系列並未像傳統x86廠商那樣“擠牙膏”,而是直接將NPU算力從上一代的 45 TOPS拉升至 80 TOPS。這不僅是數字的翻倍,更是對微軟Copilot+ PC標準的“暴力重塑”。高通正在用手機SoC的迭代速度捲動PC行業。其推出的 $800 美元主流價位段產品,直接刺穿了Intel和AMD的防線。ARM架構在PC端的“諾曼底登陸”已經成功。接下來不再是“相容性”的掃尾戰,而是“能效比”甚至是“體驗”的全面碾壓。Windows on ARM不再是笑話,而是Wintel聯盟瓦解的催化劑。製造工藝的“背水一戰”:Intel Panther Lake (18A) vs. TSMC N2Intel 在本屆CES上展示了基於 18A工藝(1.8nm級) 的 Panther Lake (Core Ultra Series 3) 處理器。這是Intel Foundry能否重回巔峰的“生死狀”。Panther Lake採用了RibbonFET(全環繞柵極)和PowerVia(背面供電)兩大殺手鐧,試圖在能效上反超台積電。AMD 則在暗處磨刀,確認其下一代 Zen 6 架構將全面擁抱 TSMC N2(2nm) 工藝,雖然產品要等到2026下半年,但“製程紅利”的預期讓市場對Intel保持審慎。這是2026年是晶圓代工的“分水嶺”。Intel 18A如果成功,美國本土製造將迎來復興;如果失敗,及良率或性能不及預期,x86陣營將徹底淪為台積電的附庸。這已不僅是商業競爭,更是地緣政治在矽片上的投射。消費者的“失落”:NVIDIA的“產能降級”NVIDIA 的展台依舊人山人海,但傳遞的資訊卻讓遊戲玩家小小的失望了一下。儘管 RTX 50系列 已上市一年,但在CES 2026上,供應鏈傳出確切消息——為了優先保障高利潤的Blackwell/Rubin AI資料中心晶片,NVIDIA計畫在2026年上半年削減 30-40% 的消費級顯示卡,即RTX 50系列的產能。原本預期的“Super”系列,大機率被擱置或無限期推遲。這是典型的“算力階級固化”。最先進的晶圓,如CoWoS封裝、HBM記憶體等被優先供給給微軟、OpenAI和Meta。普通消費者和端側裝置,只能撿食巨頭指縫中漏下的產能。顯示卡將長期保持溢價,因為在黃仁勳眼裡,每一平方毫米的矽片如果不跑AI大模型,就是在浪費。二、 深度思考:繁榮背後的冷邏輯作為行業觀察者,我有以下兩點思考:“通用算力”的終結,專用晶片(ASIC)的復興CES 2026 隱喻了一個趨勢:CPU正在淪為配角。 無論是高通的Hexagon NPU,還是Intel Panther Lake中佔據更大面積的NPU/GPU單元,都在說明一個問題——通用計算(General Purpose Computing)的邊際效益已接近為零。 未來的晶片設計邏輯是 “場景定義晶片”。正如高通在汽車領域推出的“雙Snapdragon Elite”中央計算平台,它不再是一顆通用的處理器,而是一顆“長了輪子的伺服器”。對於從業者而言,這意味著掌握Verilog/VHDL不再夠用,你必須懂PyTorch,懂Transformer架構,因為晶片是為演算法服務的。“摩爾定律”死於經濟學,而非物理學Intel 18A 和 TSMC N2 的每億顆電晶體成本(Cost Per Transistor)並未顯著下降,甚至在上升。 CES 2026 讓我們看到,只有高附加值的AI業務,如Copilot訂閱、自動駕駛FSD才能覆蓋先進製程的昂貴成本。手機、PC等消費電子因缺乏新的溢價能力,將長期停留在“夠用就好”的製程節點,如N3/N4。晶片行業將分裂為兩個世界:一個是不計成本追求極致的“AI貴族世界”,一個是追求極致性價比的“消費平民世界”。三、 結論與展望CES 2026 是一場極其務實的展覽。它告訴我們,AI不再是PPT上的魔法,而是需要巨額資本(Capex)和能源(Energy)喂養的巨獸。對於晶片產業鏈的從業者,現在的核心競爭力在於“搶佔產能”和“架構定製”。現在是時候重新評估企業的IT資產了——因為在未來三年,高品質的算力也許將比石油更稀缺。 (AI Xploring)
2nm晶片,OpenAI想用AI耳機打爆iPhone?
“由軟到硬”,OpenAI正在推進其成立以來最具戰略意義的一次嘗試。日前,據長期爆料蘋果新產品資訊的供應鏈從業者“智能皮卡丘”披露,OpenAI正在推進內部代號為“Sweetpea” 的隨身AI硬體項目——以語音互動為中心的音訊裝置。據瞭解,Sweetpea項目隸屬OpenAI內部的“To-go”硬體體系,有多種形態裝置同步進行研發,包括家用形態AI終端與AI智能筆等。富士康已被要求,為截至2028年第四季度共五款裝置提前進行產能準備。另外,由於富士康在AirPods代工競爭中幾乎全面失利,Sweetpea被視為富士康重新切入下一代音訊與互動硬體核心賽道的重要機會。Sweetpea摒棄入耳式方案,採用耳後佩戴設計,主裝置採用金屬材質,整體形態類似一塊“蛋石”,內部包含兩枚可拆卸的膠囊式模組,實際佩戴時固定於耳後,面向全天候、去螢幕化的語音使用場景。“Sweetpea” 的物料清單的成本更接近一部智慧型手機,而非傳統耳機產品。這意味著,OpenAI正試圖繞開智慧型手機這一既有入口,重新定義個人計算的起點。現有智能裝置,無論是手機、電腦還是家居終端,都遵循“先喚醒再操作再呼叫智能能力”的邏輯。生成式AI只是嵌入其中,成為“更聰明的功能”。Sweetpea試圖打破這一順序:它不要求使用者主動啟動,目標是在使用者開口的第一瞬間捕捉意圖,讓AI成為“默認存在”的第一響應者。據透露,Sweetpea主處理器將採用2奈米製程的智慧型手機級晶片,並輔以定製晶片,使裝置能夠通過語音指令直接呼叫Siri。裝置音訊模型同樣經過最佳化,可表現自然情緒並處理即時插話,這是Sweetpea能否擺脫“語音助手”標籤、晉陞為全功能AI助理的關鍵。不過,然而業內對這類產品的態度謹慎。分析師本·格倫尼指出:“這對OpenAI可能是一場艱難戰鬥……幾十年的蘋果硬體經驗很可能勝過Sweetpea的首發優勢。”站在蘋果的視角,它也在系統層面加速整合ChatGPT技術,將AI功能深度嵌入iOS,同時與Google強化語音助手和雲服務互通,通過AirPods、Apple Watch、HomePod建構多終端協同網路,防止新興裝置打破護城河。 (騰訊科技)
頻寬戰爭前夜,“中國版Groq”浮出水面
在AI算力賽道,輝達憑藉Hopper、Blackwell、Rubin等架構GPU,早已在AI訓練領域建立起了難以撼動的技術壁壘與行業地位。但隨著即時AI場景需求爆發,傳統GPU在面對低批處理、高頻互動推理任務中的延遲短板愈發凸顯。為破解這一痛點,輝達重磅出擊,斥資200億美元收購Groq核心技術,搶跑AI推理市場。這一金額不僅創下輝達歷史最大手筆交易、刷新了推理晶片領域的估值紀錄,更鮮明地昭示著輝達從“算力霸主”向“推理之王”轉型的意志。緊隨這一動作,據技術博主AGF消息進一步披露,輝達計畫在2028年推出新一代Feynman架構GPU——採用台積電A16先進製程與SoIC 3D堆疊技術,核心目的正是為了在GPU內部深度整合Groq那套專為推理加速而生的LPU(語言處理單元),相當於給GPU加裝了一個專門處理語言類推理任務的專屬引擎,直指AI推理性能中長期存在的“頻寬牆”與“延遲瓶頸”。這些動作表明:AI行業的競爭正從單純的算力比拚,轉向對單位面積頻寬的極致追求——這與輝達此前“大模型推理90%的延遲源於資料搬運,導致算力利用率常低於30%”的結論不謀而合。無獨有偶,AMD通過3D V-Cache持續驗證儲存靠近計算的效能邏輯;d-Matrix、SambaNova等明星AI推理晶片公司,更是聚焦流式執行與片上頻寬建構核心競爭力,用實際行動印證這一行業共識。頻寬戰爭打響,誰是“中國版Groq”?回看中國市場,AI浪潮推動下,國產大模型多點突破、強勢崛起,本土AI晶片企業集體爆發並密集衝擊IPO,資本熱度居高不下。然而,當輝達選擇通過Feynman架構來補齊推理短板時,就意味著誰能率先解決“頻寬牆”問題,誰就握住了下一輪周期的入場券。在這一背景下,國內賽道湧現出前瞻性佈局者。近日,半導體行業觀察注意到,一家源於北京大學物理學院的AI晶片公司——寒序科技(ICY Technology),宣佈完成數千萬元人民幣新一輪融資。這家企業以“超高頻寬推理晶片”為核心產品,被業內視為中國大陸少有的在技術路線層面正面對標Groq的前沿技術團隊。“中國版Groq”的名號,初見端倪。實際上,寒序科技的技術披露並非偶然,而是源於在內部保密原則下的長期的低調深耕。早在2024年9月與2025年11月,寒序科技就已聯合北京大學物理學院、電腦學院、積體電路學院,以及澳門大學模擬與混合訊號積體電路全國重點實驗室,先後承擔、主持兩項北京市科技計畫項目。他們前瞻性地鎖定0.1TB/mm²/s超大頻寬流式推理晶片研發,在省部級重大研發任務中,在北京市科學技術委員會的指導下,在任務書中全面對標Groq的技術路線與頻寬指標。這意味著,當Groq因LPU爆紅被視為“推理新範式”時,中國科研與產業團隊已在國內同步推進一條差異化的實現路徑。據瞭解,寒序科技採用“雙線佈局”建構核心競爭力:一方面,已發佈SpinPU-M系列磁機率計算晶片,推出1024位元全連接伊辛退火求解硬體,覆蓋組合最佳化與量子啟髮式計算市場;另一方面,本輪融資的核心看點——SpinPU-E磁邏輯計算晶片系列,直指大模型推理解碼(Decode)階段加速,以片上MRAM(磁性隨機儲存器)為核心介質,建構超高頻寬磁性流式處理架構。能看到,寒序科技並未跟隨主流GPU的片外DRAM/HBM或Groq的存算一體SRAM方案,而是選擇了片上MRAM這條更底層、更物理本征、更具長期想像力的技術路線。眾所周知,當前主流的AI計算範式面臨多重困境:採用HBM的GPU方案,頻寬受限於昂貴的2.5D/3D先進封裝,核心儲存器件HBM產能被海外巨頭壟斷且面臨出口管制;採用SRAM的Groq方案,則因SRAM單元面積大、成本高,單晶片儲存容量有限,難以規模部署千億參數大模型。面對這些行業普遍的困局,寒序科技源自北大物理學院,從凝聚態物理的角度,從第一性原理進行思考,利用本征功耗更低、速度更快的“電子自旋翻轉”,代替“電子電荷運動”來進行儲存與計算。而這種底層邏輯的革新,正是源於MRAM技術帶來的核心優勢。它兼具SRAM的高速、DRAM的高密度與快閃記憶體的非易失性等優勢,其直立結構的磁性隧道結,通過垂直微型化和CMOS工藝相容性,能夠大幅降低對複雜封裝的依賴,在成本、功耗和可靠性上具有顯著優勢。與SRAM方案相比,MRAM技術的差異化優勢十分突出:儲存密度領先:主流AI推理架構深度依賴片上SRAM以換取高速,但SRAM正面臨嚴峻的微縮困境。傳統SRAM每個儲存單元由6個電晶體(6T)組成,儲存密度低,儲存容量小,儲存典型的DeepSeek-R1-671B大語言模型可能需要數千片Groq LPU晶片,且5nm以下節點尺寸幾乎停止縮減;而MRAM天然採用1T1M(1個電晶體+1個磁隧道結)結構,單個MTJ可以執行SRAM 6個電晶體的儲存功能,同等晶片面積和工藝節點下,儲存密度是SRAM的5-6倍。工藝成本更低:MRAM的物理結構優勢,使其在國產工藝製程即便落後一代的情況下,性能指標也能對標甚至超越採用先進製程的SRAM方案。這意味著MRAM無需追逐極先進製程,大幅降低流片與量產成本(單片成本可降至原來的十分之一以下),同時保障了供應鏈自主可控。非易失性與高能效:MRAM斷電後資料不丟失,無需像SRAM/DRAM那樣持續刷新,待機功耗接近零,具備快速啟動、低待機功耗、高耐用性等優勢;同時避免了SRAM的漏電流損耗,為邊緣端和雲端的大規模部署提供極佳能效優勢,大幅降低運行成本。通過自研的磁性存算一體流式架構,寒序科技將MRAM的器件優勢轉化為晶片級系統性能。據悉,SpinPU-E晶片架構的目標是將訪存頻寬密度提升至0.1-0.3TB/mm²·s,不僅能比肩以“快”成名的Groq LPU(0.11 TB/mm²·s),更是輝達H100(0.002-0.003 TB/mm²·s)的數十倍。據瞭解,輝達GPU的架構最初面向大規模訓練與圖形渲染場景設計,強調峰值算力與吞吐能力,並通過多級快取、動態調度和共享儲存來適配高度平行但相對粗粒度的工作負載。在大模型推理的Decode階段,GPU性能瓶頸主要來自對外部儲存(HBM)和複雜記憶體層級的高度依賴。該計算過程呈現出強序列性、小批次和頻寬主導等特徵,與GPU設計初衷明顯錯配。在實際執行中,GPU仍需要通過多級快取和共享儲存來訪問,資料到達計算單元的時間並不固定,不同計算單元之間也需要反覆等待和協調。這使得訪存延遲和執行順序經常波動,矩陣加乘單元很難按照固定節拍持續運行,算力難以穩定發揮。而寒序科技採用確定性的“磁性流式處理(MSA)架構”,將大規模MRAM Banks緊鄰矩陣加乘單元部署,並圍繞推理資料流建構多級流水執行路徑,使權重和中間啟動在局部高頻寬範圍內按固定順序流動。通過在硬體層面同時約束儲存位置、訪存頻寬、通訊路徑與執行節拍,該架構在Decode階段顯著降低了延遲抖動與外部儲存訪問依賴,實現更高的頻寬與更快、更穩定的推理性能。值得關注的是,MSA架構並非簡單的存內計算概念,而是圍繞推理場景,對資料流組織、儲存-計算耦合方式以及執行節拍進行重新設計,在保證超高頻寬的同時,顯著降低對先進製程與複雜封裝的依賴。有業內人士指出,這一路線與NVIDIA在Feynman架構中所釋放的訊號高度一致:未來推理性能的競爭核心,不再是算力規模,而是單位面積頻寬與執行範式。走出北大實驗室的秘密武器——“天時地利人和”SpinPU-E展現出的性能優勢,並非偶然的技術選擇,而是核心團隊跨學科積澱、全鏈條技術把控與前瞻性路線佈局的成果。據報導,寒序科技是國內首個有能力跑通從物理、材料、器件到異質整合、晶片設計、演算法的交叉團隊,核心成員源自北京大學物理學院應用磁學中心——國內磁學研究的頂尖高地,擁有近70年的磁學積澱,核心成員橫跨凝聚態物理、電子科學、電腦技術、人工智慧等多領域:首席執行長朱欣岳兼具凝聚態物理、人工智慧演算法與積體電路的交叉背景,曾主導多模態AI演算法開發、多顆高性能專用晶片研發,帶領團隊完成四輪市場化財務融資與產品化;首席科學家羅昭初作為MIT TR35入選者,曾於清華大學、蘇黎世聯邦理工學院完成自旋電子學、磁性計算的科研工作,深耕微納磁電子學與磁儲存/計算,擁有深厚的學術積累與Nature、Science正刊成果,團隊歷經多次流片驗證,既保有前沿技術探索的銳氣,又具備工程化落地的能力。相比純粹的架構創新,寒序科技這種“材料-器件-晶片-系統-演算法”的全鏈條視野和全端攻關能力,讓MRAM技術得以從底層原理到上層系統實現協同最佳化與突破,而非僅停留在邏輯和架構層面的修補。這也是寒序科技被視為精準踩中2030年行業時間軸的前瞻性下注的核心原因。這種對行業趨勢的精準踩點,不僅體現在技術路線的選擇上,或許也蘊含在對商業化路徑的思考中。回溯Groq的成長軌跡來看,其業務從核心的GroqChip LPU推理晶片起步,逐步延伸至加速卡、伺服器系統、資料中心叢集,最終建構了雲服務平台,形成了“晶片-硬體-系統-雲服務”的全端佈局。沿著Groq被驗證的商業邏輯向前推演,寒序科技大概也會沿著相似的路徑開展自己的業務版圖——以SpinPU-E磁邏輯晶片為起點,向上建構硬體產品矩陣,最終通過雲服務觸達更廣泛市場的全端路徑,以建構更強的技術壁壘和產業競爭力。更關鍵的是,這條路徑並非簡單的模式復刻,而是基於本土產業現狀的創新破局——當行業苦於HBM成本高企、SRAM微縮放緩之時,寒序科技沒有陷入“算力堆砌”的內卷,而是利用MRAM磁性計算新範式,在中國本土成熟供應鏈基礎上,築起了一座對標全球頂尖推理性能的頻寬高地。這種從底層物理原理出發的差異化競爭策略,或許正是其作為“中國版Groq”浮出水面的核心底氣。MRAM開啟新型儲存“黃金時代”破局“頻寬封鎖”寒序科技對MRAM技術的探索並非孤例,背後是一場從“備選”走向“必選”的新型儲存技術浪潮。尤其是在全球半導體產業的演進與地緣政治激盪背景下,為MRAM在內的新型儲存鋪就了一條通往AI算力核心舞台的“黃金賽道”。2024年12月,美國商務部工業與安全域(BIS)發佈新出口管制規則,明確限制向中國出口記憶體頻寬密度超過2GB/s/mm²的尖端儲存器。這一封鎖點,直指AI推理晶片的命門——頻寬。目前,輝達、AMD等巨頭極度依賴HBM,而HBM產能幾乎被SK海力士、三星、美光等海外儲存原廠壟斷,且受限於複雜的2.5D/3D先進封裝。同時,Groq所代表的SRAM路線價格極高(Groq 230MB片上SRAM記憶體的單卡售價2萬美金),在先進製程微縮上也已近極限。在此背景下,MRAM路線的戰略價值陡增。它不僅在物理特性上具備跨代超越SRAM的潛力,更重要的是,它能基於國產28nm/22nm等成熟製程實現超高頻寬,徹底規避對尖端工藝和海外HBM供應鏈的依賴。這不僅是技術路線的“備選”,更是中國半導體產業在算力領域破除卡脖子困境、實現差異化突圍的“必選”。有業內專家表示,這一戰略意義迫切需要國家有關部門給予更高重視與政策傾斜。MRAM不僅是單一儲存技術的革新,更能帶動磁性材料、磁電子器件、存算一體架構等全產業鏈突破,有望徹底改變國內在HBM領域的落後局面和SRAM對先進製程的依賴,為AI算力產業打造自主可控的“第二曲線”。全球共振,商業化拐點已至?當前,產業界正在用實際行動表明,MRAM不再只是實驗室裡的美好構想,而是憑藉獨特優勢正成為全球半導體產業佈局的重點。其中,晶圓代工龍頭與晶片大廠均在積極佈局:台積電、三星、英特爾、SK海力士、IMEC等憑藉其先進的技術研發和大規模生產製造能力,已明確將嵌入式MRAM推進到22nm、16nm甚至更先進節點,持續提升MRAM的性能和整合度。恩智浦與台積電合作推出16nm FinFET車規級eMRAM,應用於其S32系列高端MCU,實現寫入速度比傳統快閃記憶體快10-15倍、耐久性超百萬次;瑞薩電子也推出了基於22nm工藝的STT-MRAM技術,瞄準汽車MCU市場;GlobalFoundries、Everspin在12nm和22nm工藝上緊密合作,將MRAM納入工業級和車規級量產方案;Avalanche與聯電攜手合作推出22nm STT-MRAM,在工業級和航天級市場擁有深厚積澱。據LexisNexis資料統計,2004-2013年間,MRAM市場的專利申請量保持穩定,每年約有300至400項專利申請。需要注意的是,圖表末尾的下降並不代表興趣的下降,而是專利申請和公開之間的時間存在滯後。這些頭部廠商的集體行動,清晰印證著MRAM正從“備選技術”升級為“主流方案”,在汽車電子、邊緣AI、高端計算等領域的商業化落地進入爆發前夜。回看國內市場,本土半導體廠商同樣敏銳捕捉到了新型儲存技術的發展機遇,積極佈局相關領域。RRAM領域湧現出昕原半導體、銘芯啟睿、燕芯微等玩家;MRAM賽道,寒序科技、致真儲存、馳拓科技、凌存科技、亙存科技等紛紛嶄露頭角,為國內MRAM的發展奠定了產業基礎。相對於RRAM基於電子電荷遷移,是一種統計物理範疇下的阻變器件;MRAM的存取機理是基於自旋的確定性兩態翻轉,更加可控、精準,大規模製造下器件一致性、器件壽命極限都更有優勢與潛力。兩者均被台積電等半導體巨頭作為下一代面向AI的儲存技術重點押注。具體來看,本土MRAM廠商各有側重,多數主要集中於儲存、加密、嵌入式控制等傳統領域,例如:致真儲存專注於磁性隧道結(MTJ)的核心器件研發與製造工藝,掌握從材料研發到器件製造的全鏈路技術,擁有國內唯一的8英吋磁儲存晶片專用後道微納加工工藝中試線。近期與北京航空航天大學聯合攻關,研製出全球首顆8Mb容量自旋軌道力矩磁隨機儲存器晶片(SOT-MRAM),實現SOT-MRAM容量規模化突破。馳拓科技專注於MRAM儲存晶片的技術研發與生產製造,建有12英吋MRAM量產中試線,是國內首家實現MRAM量產的企業。近期成功突破垂直磁化體系技術瓶頸,儲存器件TMR關鍵指標比肩國際頭部代工廠量產的STT-MRAM。凌存科技專注於儲存模組開發,致力於將MRAM技術從核心器件層面推向終端應用,成功開發了世界首款高速、高密度、低功耗的儲存器MeRAM原型機及基於MeRAM的真隨機數發生器晶片,產品廣泛應用於車載電子、高性能運算、安全等領域。寒序科技則獨闢蹊徑,與多數國內MRAM企業不同,其以MRAM為核心介質建構計算晶片,將MRAM的物理優勢轉化為算力與頻寬優勢,開闢了“磁性計算”這一全新賽道,致力於從計算層面引領國內MRAM技術從利基低毛利領域向高端市場跨越,成為國內MRAM技術從儲存替代向計算革新跨越的關鍵力量,舉起大旗與國內磁學領域全面擁抱合作,力爭一同搶佔全球“磁計算”的戰略高地。綜合來看,從器件、裝置、製造到系統應用,國內產業鏈的前期佈局已具備支撐本土MRAM技術產業化與生態發展的基礎。尤其是寒序科技的差異化定位,進一步填補了國內MRAM從儲存到計算的關鍵空白,為後續誕生更多行業廠商提供了土壤和必然性。生態共建:國產MRAM的“磁計算”革命根據市場研究機構Precedence Research資料顯示,2024年全球MRAM市場規模估計為42.2億美元,預計從2025年的57.6億美元增長到2034年的約847.7億美元,復合年增長率高達34.99%。雖然前景廣闊,但MRAM的大規模爆發和商業化落地仍需產業合力,需要產業鏈上下游凝聚共識,共同建構生態。結合國際經驗和國內產業的發展現狀來看,更深度的產業合作與資源傾斜或許是推動MRAM技術發展的有力舉措。例如,國家有關部門可以給予MRAM技術更多重視,加大資金與政策支援,積極推動MRAM這一有希望在頻寬領域實現“變道超車”的關鍵技術。同時,借鑑台積電、三星、GlobalFoundries等頭部廠商對MRAM的關注與投入力度,國內代工廠或許也應加強對MRAM的工藝研發與資源投入,積極與國內廠商共同開展技術研發與工藝最佳化,爭取儘早打通“設計-製造-封測”的本土化鏈路,形成協同創新的合力,降低MRAM晶片的流片成本與量產門檻。還有一點不可忽視。輝達收購 Groq核心技術,計畫在Feynman架構中整合LPU單元的案例,充分證明了“通用算力+專用引擎”的協同優勢和行業趨勢。這一案例極具啟示價值。筆者認為,在未來提升AI推理效率的行業共識下,國內AI晶片廠商應抓住這一變革機遇,加強與在新型介質與架構上具備底層創新能力的團隊的合作力度,打造兼具通用算力與專用推理性能的新技術路徑,快速補強技術短板,建構差異化競爭力。產業界正釋放清晰訊號:以MRAM為代表的新型儲存,已成為後摩爾時代的核心焦點。地緣政治的戰略訴求、國際大廠的技術押注、國內產業鏈的長期積澱,再加上寒序科技的差異化突破,多重力量共振之下,MRAM正逐漸邁入產業化的“黃金時代”,有望成為中國AI晶片產業實現換道超車的關鍵抓手。五年後,誰將主導下一代推理晶片?當摩爾線程、沐曦、天數、壁仞等國產AI晶片公司接連叩響資本市場的大門,一個時代的答卷已然清晰。它們的密集上市,標誌著中國在基於傳統GPU架構的算力競賽中,完成了從無到有的突圍,進入了國產替代的收穫期。如果說上一代AI晶片的競爭是“算力競賽”,那麼下一代的分水嶺將是“誰能率先跨過頻寬牆”。在這個關鍵轉折點上,兩條路徑清晰呈現:一條是Groq選擇的極致SRAM片上整合路徑,用極高成本將頻寬推向極限,並因此獲得了行業霸主輝達以數百億美元估值的戰略整合;另一條,則是以MRAM為代表的新型儲存介質路線,為突破頻寬瓶頸提供了一種更具根本性,也更符合長期成本與供應鏈安全需求的方案。數年後,當AI推理進入“頻寬決勝”的新時代,晶片市場或許不再僅有算力的巨獸,主導市場的佼佼者還將屬於那些能夠率先在“頻寬戰爭”中沉澱出護城河的先行者。正如Groq在矽谷用SRAM驚豔了世界,行業演進的邏輯暗示:“中國版Groq”的出現也將不再是懸念。在這個征程中,中國半導體產業各方也都在積極擁抱AI,拓展產品品類,謀劃新的增長曲線。而寒序科技正依託MRAM磁性計算的新範式,給出“中國版”的實現路徑——並且,這條路,他們早在多年前,就已開始默默鋪設。 (半導體行業觀察)
【CES 2026】CES上的“物理AI”拐點:Robotaxi走向規模化,人形機器人供應鏈悄然形成
德銀預測,今年是Robotaxi規模化與人形機器人部署的元年。人形機器人借力汽車供應鏈加速降本,Mobileye等廠商將成本目標鎖定在1萬美元;自動駕駛告別測試進入規模化,Waymo訂單激增,輝達推出Alpamayo平台助車企“即插即用”。物理AI正從實驗室走向量產。2026年或許是AI大規模進軍物理世界的開始——從行走的機器人到自動駕駛汽車,AI正在積累生態硬體。據追風交易台消息,德意志銀行1月13日發佈的研報顯示,該行分析師團隊在上周參加了拉斯維加斯的CES展會,感受到了市場熱度和相關性的顯著飆升。該行指出,車輛自動駕駛(Robotaxi + 消費級L4)以及最引人注目的人形機器人佔據了展會的中心舞台。德意志銀行在報告中總結道:“總體而言,我們預測2026年將是自動駕駛汽車日益從測試/驗證過渡到規模化的一年,而人形機器人將從實驗室實驗轉向小規模部署。”報告強調,人形機器人領域正在培育全新的供應鏈,供應商正試圖向該領域轉型以期未來實現大規模放量。與此同時,自動駕駛領域的Robotaxi部署勢頭強勁,輝達等晶片巨頭正在通過推出新平台重塑競爭格局。德意志銀行在報告中列出10點核心觀察:01類人機器人供應鏈在成形執行器成為“肌肉”入口德銀認為雖然仍在早期,但供應商已經在向類人機器人供應鏈轉向,路徑類似電驅動總成:既提供整合方案,也提供底層零部件。舍弗勒(Schaeffler)試圖成為類人機器人的主要“肌肉”,提供線性與旋轉執行器。其在CES展示了面向類人機器人的一體化行星齒輪執行器:兩級行星齒輪箱+電機+編碼器+控製器的緊湊整合。該單元具備高熱穩定性、60–250 Nm(牛米)扭矩範圍,且回驅能力很低,可承受外力並避免驅動部件意外反轉,適合連續工況。德銀提到NEURA已同意在其類人機器人上使用舍弗勒執行器,且看起來還有其他客戶已在用(至少部分元件)或未來會用。現代摩比斯(Hyundai Mobis)也宣佈將為波士頓動力Atlas供應執行器,意在讓機器人能借助汽車規模化供應鏈來製造。當供應鏈開始“汽車化”,最先被定價的往往不是概念,而是關鍵部件的滲透與規模化製造能力。02機載晶片格局輝達仍是首選,但分化開始出現德銀觀察到,類人機器人機載處理器上,輝達仍佔據主導,原因主要是性能與易用性。使用Jetson Orin或Thor的公司包括:1X、Agility、Apptronik、Boston Dynamics、Figure AI、Mentee、(目前)NEURA、UBTECH、Unitree等。對比之下:特斯拉與小鵬使用自研推理晶片。CES上高通推出面向機器人“全端架構”的下一代方案(Dragonwing IQ10 Series),但德銀表示尚不清楚能否獲得客戶大規模採用;同時VinMotion的Motion 2類人機器人使用IQ9 Series,IQ10最初面向工業AMR與更先進的全尺寸類人機器人。03“物理AI”從指令碼走向AgentVLA成為主線現場最顯著的範式變化之一,是從“預程式設計/指令碼化動作”轉向視覺-語言-動作(VLA),讓機器人能夠“推理”完成任務。Boston Dynamics用Google DeepMind Gemini Robotics的VLA模型替代傳統MPC(模型預測控制),使Atlas能理解此前未見過的環境(如非結構化工廠混亂場景)。其動作執行由TRI的大型行為模型(LBM)補充,類似Figure的Helix雙系統模型:System 1高頻快速響應,System 2低頻做高層推理與語言;德銀同時指出Figure似乎在自研兩套模型。04訓練之爭升級真實世界資料與模擬“閉環”才是重點德銀判斷,行業爭論已從“模擬 vs 真實誰更好”轉為“如何高效閉環”。NEURA採取更偏“物理優先”的路線,建設NEURA Gym大型實體訓練中心,認為模擬是“近似”,在複雜接觸(例如“穿針引線”)上會失真;其通過數百台機器人做分揀、裝配等真實任務收集高保真資料,再輸入“Neuraverse”,生成真實失敗的“合成孿生”在模擬中訓練,最後把修複方案推回真實機器人。另一家公司提到無法模擬物體“觸感”,需要人先示範:通過遠端操作,人穿VR服控制類人機器人執行如“撿起葡萄”等動作;用少量“完美示例”後,再用輝達 GROOT-Mimic在模擬中生成“100,000+”種動作變體,並用強化學習讓動作更順滑。相對地,Mobileye強調其Mentee將基本以模擬來訓練。05“通用”先讓位於“崗位”商業化證明優先德銀認為短期內,“通用類人機器人”更多會被匯入具體場景,以證明商業可行性,再談進入家庭。Keenon Robotics(中國):已擁有服務機器人全球40%市場份額,海外累計出口約10萬台;產品價格從低於1萬到約10萬,主打強任務定製。CES 2026重點是其旗艦類人機器人XMAN-R1,可做爆米花、倒飲料、擬人化手勢互動等;其“Brain”為Keenon Operator Model 2.0,VLA模型面向服務業,可理解如“找到4號桌客人並給他糖果”等指令。Keenon還提到在上海香格里拉酒店建構協作生態:MAN-R1做人機互動“門面”,W3送物到房間,S100搬重行李,C40/C55清潔。並且在日本等高人工成本市場,其機器人使用壽命達到8年,顯著高於行業常見的3–5年。Deep Robotics聚焦工業巡檢:以覆蓋距離衡量(最高63km),可在變電站、電廠、油氣設施等危險區域執行24/7自主巡邏監測;在應急場景用於救災、消防、有毒氣體檢測,並採用可更換電池降低充電摩擦。06降本公式很直接規模=成本下行的前提在類人機器人側,德銀把降本的主驅動歸結為:上量提升費用攤薄 + 供應商議價改善。有公司稱成本已從“20萬降至10萬”美元,並規劃在“未來幾年”降到“5萬”美元,前提是銷量達到數千台。波士頓動力與現代汽車宣佈目標是在2028年實現年產能3萬台;並且其2026年產量已全部提前分配給現代的汽車工廠。公司還指出執行器約佔BoM的~60%,而這部分將由現代體系內供應商Hyundai Mobis製造以加速規模化。Mobileye在收購Mentee背景下披露:若年產量5萬台,一個較簡化設計(無腱驅系統)的製造成本約“2萬/台”;若年產量“10萬台”,成本可降一半至“1萬/台”,並以2028年爬坡為目標,生產由Aumovio負責。07Robotaxi動能在堆疊2026年更像“商業化加速年”德銀認為,隨著特斯拉在2025年推出Robotaxi,2026年多家玩家的商業化動能會更強,CES上Waymo與Zoox的大規模存在就是訊號:Waymo:自成立以來已提供10m+付費乘車;最新披露顯示在2025年12月達到45萬次付費乘車/周,並擴張至休斯敦、邁阿密,以及東京、倫敦等國際市場。亞馬遜的Zoox:從拉斯維加斯公開測試走向“可上市產品”展示,主打面向密集城市的“車廂式”Robotaxi,完全沒有傳統駕駛艙。Mobileye與大眾:將在今年於洛杉磯用特別準備的ID. Buzz電動廂式車推出L4級Robotaxi服務。另有由合作夥伴Nuro、Lucid、Uber共同推進、基於Lucid Gravity的自動駕駛車輛計畫在2026年末於舊金山灣區啟動,並再擴張到更多城市。0820%輝達 Alpamayo把“腦+頭骨”打包給車企,但驗證仍在路上輝達宣佈推出面向自動駕駛的Alpamayo(“大腦”),並配合Thor(“頭骨”),試圖降低車企部署高階能力的門檻:像Lucid、Mercedes這類公司無需從零投入數十億美元搭建AI基礎設施,可直接“插入”輝達方案。德銀同時保持克制:這確實引發對特斯拉護城河的討論,但現在擔憂為時過早;輝達仍需要傳統OEM兌現承諾,且其模型能否覆蓋真實世界邊界案例仍待觀察。德銀指出,其訓練資料量僅為特斯拉改採集資料的一部分。即便Alpamayo效果理想,德銀仍認為特斯拉憑藉垂直整合(整車、晶片、AI基礎設施、網路等)存在結構性成本優勢;如果自動駕駛/Robotaxi趨於商品化,成本將成為最大分化點。09Aptiv:端到端AI ADAS + 連接與軟體平台講的是“跨行業”Aptiv展示核心是下一代端到端(E2E)AI驅動的ADAS平台:用新發佈的Gen 8雷達與PULSE感測器實現城市複雜環境下的L2++免手駕駛“類人邏輯”。軟體側推出與Wind River共建的雲原生中介軟體平台LINC,通過5G與C-V2X實現真正的軟體定義車輛;並與Verizon演示車輛通過共享即時資料實現“看見拐角後的行人/騎行者”。Aptiv還強調感測器向航天與協作機器人擴展——德銀認為這是“新Aptiv”要證明的敘事,以爭取估值倍數重評。10Visteon:700 TOPS域控、外掛式升級,主打“執行”Visteon在CES發佈SmartCore HPC域控製器,算力達700 TOPS,可把最多14個攝影機與多路高速資料連接整合到單一“中央大腦”。同時擴大與Mahindra合作,推出面向即將上市的XUV700的SmartCore Pro(三聯屏+360度視野)。為解決“存量平台”障礙,Visteon還推出由輝達 DRIVE AGX Orin驅動的AI-ADAS Compute Module外掛式方案,讓車企無需完全重構架構就能加裝AI助手或安全功能;德銀提到該產品已上到中國的極氪車型。此外,Visteon發佈面向7英吋以下螢幕的“Entry Cockpit”,把手機投屏與數字導航帶到兩輪車與入門車型。德銀評價其“外科式”的垂直整合有助於成本競爭力,並推動其在過往滲透較低的車企(尤其亞洲OEM)中進一步擴張。在德銀看來,CES 2026傳遞的資訊很直接:自動駕駛與類人機器人正在從“能不能做”轉向“能不能規模化、能不能把成本打下來”。當波士頓動力把執行器成本佔比點到約60%、把2026年產量預分配說出來時,產業已經開始用製造業語言定價;而Waymo的10m+付費乘車與45萬次/周節奏,則把Robotaxi從概念推向更硬的營運資料。對投資者而言,下一階段要跟蹤的不是更炫的demo,而是供應鏈繫結、產能爬坡與單位成本曲線。 (硬AI)
全球半導體格局劇變:輝達首破千億,昔日霸主跌出前三
破紀錄的7930億美元!全球半導體格局劇變:輝達首破千億,昔日霸主跌出前三AI晶片的滾滾浪潮中,一家公司獨佔行業增長的三分之一以上,昔日晶片巨頭卻在這場競賽中節節敗退。2025年,全球半導體市場收入飆升至7930億美元,同比增長21%。這一前所未有的增長速度背後,AI成為最核心的推動力量。市場調研機構Gartner最新資料顯示,AI半導體——包括處理器、高頻寬記憶體和網路元件——持續推動半導體市場增長,預計到2025年將佔總銷售額的近三分之一。隨著AI基礎設施支出激增,預計2026年將超過1.3兆美元,AI半導體在市場中的主導地位將進一步鞏固。01 AI驅動,格局生變AI熱潮正在重塑全球半導體產業格局。2025年全球半導體市場呈現出前所未有的增長態勢,AI處理器銷售總額超過2000億美元,專為AI加速器打造的高頻寬記憶體(HBM)銷售額也突破300億美元,佔據DRAM市場的23%。三星電子、SK海力士和美光科技三大DRAM製造商,憑藉HBM產品斬獲了自身記憶體業務總營收中約23%的份額,成為AI熱潮的最大受益者之一。從區域市場看,美洲和亞太地區預計2025年將增長25%-30%,主要受邏輯電路和儲存器業務的推動。歐洲預計增長6%,而日本則預計下降4%。世界半導體貿易統計組織(WSTS)預測,2026年全球半導體市場規模將繼續增長超過25%,達到9750億美元。02 輝達領跑,千億美元里程碑在全球半導體供應商排名中,輝達以1257億美元的營收一騎絕塵,成為首家半導體銷售額突破1000億美元的供應商。這一數字較排名第二的三星電子高出近74%,貢獻了行業增長的35%以上。輝達的營收同比激增近64%,市場份額達到15.8%,展現出其在AI晶片領域的絕對領先地位。傳統晶片巨頭英特爾的市場份額則持續下滑,至2025年底僅為6%,是2021年的一半。英特爾的營收同比下降3.9%至479億美元,排名跌至第四。這一變化清晰地反映出英特爾在AI晶片領域的滯後,未能充分享受到AI熱潮帶來的增長紅利。03 儲存三巨頭,HBM成新戰場三星電子雖然保住了第二名的位置,但其半導體收入的增長主要依賴於儲存器業務(增長13%),非儲存器業務收入則同比下降8%。相比之下,SK海力士憑藉AI伺服器對HBM的強勁需求,以610億美元的營收躍升至第三位,同比增長37%,一舉將英特爾擠出前三甲。美光科技同樣依託HBM記憶體產品,營收實現50%的同比增長,達到415億美元,排名升至第五位。這一排名變化突顯了HBM在AI時代的重要性。隨著AI模型規模不斷擴大,對高速、大容量記憶體的需求日益增長,HBM已成為AI晶片不可或缺的組成部分。04 第二梯隊,差異化競爭高通營收穩健增長12%,達到370億美元,但增速遠低於深度受益於AI浪潮的晶片企業。這家公司主要依靠移動裝置晶片市場維持增長。博通與AMD則分別實現23%和35%的營收增長,排名第六和第七。博通以服務商身份助力其他企業開發AI加速器,而AMD的AI加速器業務營收佔比已大幅提升。蘋果營收增長約20%,達到246億美元,主要得益於自研晶片在iPhone、Mac等產品中的廣泛應用。聯發科以約185億美元的營收排名第十,其產品以面向智慧型手機、電視及汽車領域的ARM架構晶片為主。值得注意的是,純晶片代工商台積電等並未出現在Gartner的這份榜單中。原因是其不直接銷售自有晶片,而是為輝達、英特爾、AMD等企業提供代工服務。2025年,台積電營收同比增長31.6%,達到3.81兆新台幣,折合美元約1200億美元。05 未來趨勢,AI主導過半市場Gartner預測,到2029年,AI半導體將佔半導體總銷售額的50%以上,成為半導體市場增長的核心動力。隨著AI技術的不斷成熟和應用場景的持續拓展,AI晶片的需求將持續攀升。同時,HBM等高性能記憶體產品也將迎來更加廣闊的發展空間。這一趨勢正在加速半導體產業的技術演進和資本投入。AI不僅改變了市場需求結構,也在重塑整個產業的競爭格局。那些能夠快速適應這一變化、在AI領域提前佈局的公司,正獲得前所未有的增長機遇。另一方面,中國大陸半導體IDM營收最高的公司為聞泰科技,前三季度營收約300億元,全年估算按照400億元來算,距離排名第10的185億美元差距仍然很大。未進入前十的廠商方面,歐洲最大的晶片製造商英飛凌,2025財年營收達 146.6億歐元,折合美元約171億美元,這一規模大致能使其躋身全球半導體企業第11或12名,與德州儀器(TI)處於同一梯隊。專注於NAND快閃記憶體領域的閃迪,近期增長勢頭同樣強勁,資料中心業務貢獻突出。受NAND快閃記憶體價格大幅上漲的預期推動,自2025年秋季起,閃迪股價已實現數倍增長。全球半導體產業正站在一個新時代的門檻上,7930億美元的市場規模只是起點。隨著AI技術向各行各業滲透,半導體作為數字時代“基石”的地位將更加穩固,而這場由AI引領的產業變革,才剛剛拉開序幕。 (芯果)
讀懂馬斯克的6張底牌,看透中國生意的下一個十年
朋友們,今天聊聊眼下的生意和未來的錢。最近很多人在焦慮,做外貿的擔心關稅,做實體的抱怨內卷,做網際網路的在裁員。大家的共識是,舊地圖找不到新大陸了。如果感到迷茫,不妨抬頭看看那個瘋子——馬斯克。不管你喜不喜歡他,都得承認,他是地球上最敏銳的資本雷達。馬斯克最近的佈局非常清晰,他在賭國運,也在賭人類的命運。他手裡攥著六張底牌:商業航天、人形機器人、無人駕駛、腦機介面、AI應用、新能源與儲能。這六個詞,很多人聽了會覺得,這太高科技了,跟我這賣貨的、做加工的有什麼關係?其實關係大了。如果只把它們當成科技新聞看,那確實是在看熱鬧。如果把它們當成產業鏈重構的訊號看,那裡就都是黃金。我們一個個拆解,看看這六大方向裡,到底藏著中國生意人什麼樣的機會。第一張牌:AI應用。請注意,是應用,不是大模型。以前做生意靠資訊差,以後做生意靠效率差。馬斯克為什麼要瘋狂推進xAI?因為他知道,未來的公司只有兩種:一種是全副武裝AI的公司,一種是即將倒閉的公司。對於中國的中小老闆來說,大模型那是神仙打架,跟我們沒關係。我們要做的,是極致的AI應用。客服是不是AI?設計是不是AI?程式碼是不是AI寫一半?AI應用的本質,是把原本屬於高薪白領的技能,變成廉價的水電煤。誰能最快把AI應用落地到具體的場景裡,誰就能在這個低利潤時代活下來。第二張牌:人形機器人。這是我認為對中國製造業衝擊最大、也是機會最大的一張牌。人形機器人是勞動力的替代品,馬斯克預言人形機器人的數量會超過人類,這意味著什麼?意味著藍領危機將被技術性化解。中國有著全球最強的硬體供應鏈,當特斯拉的人形機器人Optimus開始量產,不僅需要電機、減速器,還需要無數的感測器和精密部件。這就是中國工廠的下一個十年。就像當年蘋果產業鏈造富了一批中國企業,人形機器人產業鏈的爆發力,會是手機的十倍。盯著人形機器人,其實是在盯這一條全新的、巨大的供應鏈。第三張牌:無人駕駛。無人駕駛真正的革命在物流,如果貨車可以24小時不休息,不需要司機,物流成本會降到什麼程度?無人駕駛一旦全面鋪開,整個商業零售的邏輯都會變。庫存周轉率會快到嚇人,路邊店的價值會被重估。對於各位老闆來說,關注無人駕駛,其實是在關注履約成本。未來,無人駕駛會讓物理世界的傳輸成本,無限逼近於資訊傳輸成本。第四張牌:新能源與儲能。這一塊大家很熟,中國已經捲成紅海了。但馬斯克的側重點變了,他更強調儲能。太陽能板鋪滿屋頂不稀奇,稀奇的是怎麼把電存下來。新能源與儲能是硬幣的兩面。未來的能源生意,不是看誰發的電多,是看誰能做能源的時間管理大師。電力的波動性是電網的噩夢,而新能源與儲能系統就是安眠藥。對於在這個賽道的中國企業,出海去賣儲能裝置,去解決那些基建落後國家的用電痛點,可能比在國內卷價格戰要香得多。第五張牌:商業航天。這個聽起來最遙遠,似乎是國家隊的事。但SpaceX的火箭可以回收,衛星可以像撒豆子一樣撒向太空。商業航天帶來的星鏈正在覆蓋地球的每一個死角。這意味著什麼?意味著全球無死角的網路覆蓋。對於做跨境生意、做遠洋運輸、做偏遠地區礦產開發的老闆們,商業航天不僅是通訊工具,更是資產保全的手段。而且,商業航天的零部件外包,也是高端製造業的下一個風口。雖然門檻高,但一旦進去,就是護城河。第六張牌:腦機介面。這聽起來很科幻,但Neuralink確實已經讓癱瘓患者用意念下棋了。腦機介面目前看是醫療器械的巔峰,但長遠看,它是人類進化的入場券。這一塊,咱們普通創業者可能吃不到肉,但無論什麼技術都是要落地的,都是要場景的。圍繞腦機介面的康復醫療、資料分析、高端養老服務,將是老齡化社會裡的頂級奢侈品,這些都是普通人夠得到的機會。富人最後買單的,一定是生命質量。腦機介面,就是通往生命質量的那把鑰匙。馬斯克這六張底牌,其實邏輯是一脈相承的。新能源與儲能提供動力,商業航天搭建網路,無人駕駛解決運輸,人形機器人解決勞動力,AI應用解決大腦算力,腦機介面解決人類自身的極限。這是一個閉環。我們成為不了馬斯克,但我們可以看懂這個閉環。現在的經濟環境,讓人覺得那是垃圾時間。但歷史告訴我們,巨頭們押注未來的時刻,往往是普通人彎道超車的唯一縫隙。這些技術落地的過程,就是舊財富毀滅、新財富誕生的過程。風起於青萍之末,在這些看似瘋狂的賭注裡,靜靜地等待著那些有心人去拆解,去重組,去變現。如果是你,這六張牌,你看好那一張? (張揚創業說)
華爾街日報:韓國力推的本土人工智慧模型含中國程式碼
The Row Over South Korea’s Push for a Native AI Model: Chinese Code韓國的努力表明,開發自主人工智慧模型並擺脫對美國或中國科技巨頭的依賴是多麼困難。首爾資訊技術展上的SK Telecom展館。Jeon Heon-Kyun/Shutterstock首爾——去年六月,韓國政府發起了一項競賽,旨在開發一款基於韓國本土技術的全新獨立人工智慧模型。在人工智慧領域已被美國和中國主導的當今世界,開發這樣一款本土工具對於確保韓國的技術自主性至關重要。事實證明,說起來容易做起來難。在為期三年的比賽中,五家入圍決賽的公司中,有三家被發現使用了至少一些來自國外人工智慧模型的開放原始碼,其中包括中國的人工智慧模型。這些公司和人工智慧專家認為,摒棄現有的人工智慧模型而試圖從零開始建構一切毫無意義。但也有人指出,使用外國工具會造成潛在的安全風險,並削弱開發出真正屬於本國的人工智慧模型的希望。哈佛大學電氣工程教授魏顧延表示,在進行人工智慧模型開發時,要求每一行程式碼都必須完全由公司內部編寫是不現實的。魏顧延熟悉韓國的比賽,但並未直接參與任何參賽者。魏說:“放棄開放原始碼軟體,就等於放棄了巨大的好處。”世界各國都在日益尋求減少對外國的依賴,並提升自身在可能對其經濟競爭力和國家安全產生深遠影響的技術方面的能力。韓國擁有眾多晶片巨頭、軟體公司和政治支援,是所謂“主權人工智慧”最積極的倡導者之一。這項競賽旨在到2027年選出兩家本土優勝企業,使其人工智慧模型的性能達到OpenAI或Google等領先公司的95%或更高水平。優勝企業將獲得政府提供的資料和人才招聘資金,以及用於人工智慧計算的政府採購晶片的使用權。近日,入圍決賽的Upstage項目引發爭議。據其競爭對手Sionic AI的首席執行長稱,Upstage人工智慧模型的部分元件與中國智普AI的開源模型存在相似之處。此外,他還聲稱Upstage的部分程式碼中保留了智普AI的版權標記。Sionic首席執行長高錫鉉在領英上寫道:“令人深感遺憾的是,一款疑似對中國模型進行精細改造的模型竟然被提交到由納稅人資助的項目中。” Sionic也參加了韓國的這項競賽,但未能進入決賽名單。對此,Upstage 舉行了一場直播驗證會,分享了其開發日誌,以證明其模型是使用自主研發的方法從零開始開發和訓練的。但用於運行模型的推理程式碼使用了源自智普AI的開源元素,而智普AI在全球範圍內被廣泛使用。Sionic 的首席執行長為此道歉。這一審查促使人們對其他入圍決賽的方案進行了更深入的考察。Naver的AI模型被指與中國阿里巴巴和OpenAI的產品在視覺和音訊編碼器方面存在相似之處,這些編碼器可以將圖像和聲音轉換成機器可以理解的格式。SK Telecom曾因運行其人工智慧模型的推理程式碼與中國 DeepSeek 的程式碼相似而受到批評。Naver承認使用了外部編碼器,但表示採用標準化技術是出於戰略考量。該公司強調,模型的核心引擎——決定其學習和訓練方式——完全由公司自主研發。SK Telecom也提出了類似的觀點,強調其模型核心的獨立性。比賽規則並未明確規定是否可以使用外國公司的開放原始碼。負責監管此次比賽的韓國科學技術部自爭議發生以來,尚未發佈任何新的指導方針。韓國科學技術部長官裴京勳對這場激烈的辯論表示歡迎。“當我觀察目前席捲我們人工智慧行業的技術辯論時,我看到了韓國人工智慧的光明未來,”裴在本月初的一篇社交媒體帖子中寫道。該部門在接受《華爾街日報》採訪時拒絕置評。該部門計畫按原計畫在本周淘汰五名決賽選手中的一名。首爾國立大學人工智慧研究所所長李在宇表示,人工智慧模型是通過設定和微調內部數值來獲得輸出的,而這些核心任務在面臨質疑的決賽入圍模型中似乎並沒有依賴於外部工具。他說:“他們是從零開始訓練的。” (invest wallstreet)