#AI行業
行業深度:從風冷到液冷 資料中心散熱的破局與未來
數字經濟爆發下,全球資料中心耗電量佔比逐年攀升。據統計,2024年中國資料中心能耗總量1660億千瓦時,約佔全社會用電量的1.68%,同比增長10.7%。2024年全社會用電增速為6.8%,資料中心用電量增速遠高於全社會用電量平均增速【1】。資料中心能耗已成為不可忽視的能源消耗領域。隨著人工智慧技術的迅猛發展,AI相關行業正經歷著前所未有的快速增長和技術迭代。這一變革不僅推動了社會的進步,也帶來了對計算能力的巨大需求。智能計算中心,作為AI技術發展的核心基礎設施,正面臨著前所未有的挑戰。01AI行業的快速發展AI技術的進步和應用場景的拓展,使得智能計算中心的建設成為推動行業發展的關鍵。技術的快速迭代要求資料中心能夠迅速適應新的計算需求,保持技術的領先地位。02高密散熱的需求關注隨著AI計算密度的增加,散熱問題成為智能計算中心必須面對的挑戰。高密度計算裝置產生的熱量如果不能有效管理,將直接影響資料中心的穩定性和效率,甚至可能導致裝置損壞和性能下降。03液冷技術的應用為瞭解決高密度散熱問題,液冷技術作為一種高效、環保的冷卻解決方案,已經成為智能計算中心散熱管理的重要趨勢。液冷技術能夠有效降低資料中心的能耗,提高裝置的散熱效率,是應對高密度散熱挑戰的有效手段。隨著晶片功耗增長加速,在面對不同業務需求時,製冷解決方案變得更多多樣。隨著機架功率密度的不斷攀升,行業內普遍認同,40~60kW/Rack已經達到了風冷極限,超過這個能力邊界,無論是考慮到散熱能力還是散熱成本,必須開始部署液冷。資料中心製冷從完全風冷邁向風液混合製冷,不同機架功率密度的製冷解決方案推薦如圖1所示。▲ 圖1 不同功率密度機櫃製冷解決方案機櫃功率密度在20~25kW以內時,常規遠端風冷方案即可解決伺服器散熱需求。當機櫃功率密度進一步提升,單機櫃功率密度在25~45kW時,就應該開始考慮近端風冷的解決方案。風冷方案再疊加背板熱交換器(Rear Door Heat Exchanger,RDHx),可以進一步解決單機櫃60kW以內的散熱需求。單機櫃功率密度在40~60kW時,就可以開始考慮採用液冷,但根據伺服器或晶片不同,也可以更早開始採用液冷。即使採用液冷,根據風液比不同,伺服器仍然有5%~50%的熱量需要通過風冷散熱來解決,風液混合將成為大多數高熱密度機櫃散熱方案。根據伺服器供液溫度要求,室外一次側需選擇不同的散熱方案。伺服器供液溫度要求大於40℃時,室外一次側散熱可以採用完全自然冷的解決方案,當伺服器供液溫度要求較低時,室外一次側需要採用機械冷卻。在單機櫃功率密度小於40kW時,考慮伺服器類型,往往更多選用風冷技術。為實現PUE要求,各類自然冷技術在機房空調裝置中已經大量應用。從節能技術維度,可以分為三類:01風側自然冷方案通過利用室外低溫空氣直接為資料中心供冷。在實際應用中有兩種方案:直接空氣自然冷,直接引入自然界新風對資料中心進行冷卻,但該方案受空氣質量、濕度等因素限制,適用場景較為有限。間接空氣自然冷,借助換熱器實現自然界低溫空氣與資料中心高溫空氣的熱交換,以降低機房溫度。此類方案可有效解決空氣質量及濕度問題,但在夏季室外溫度較高時,其應用仍會受到限制。02水側自然冷方案通過利用低溫水源或者水蒸發潛熱來為資料中心供冷。在過往的水側自然冷應用案例中,有直接引入湖水為資料中心供冷的方式,但此方案受水質條件,以及可能對當地生態環境影響的限制,應用範圍較窄。另一種通過水蒸發利用自然冷的方式應用則更為普遍,常見的冷卻塔及間接蒸發冷裝置等,在開啟水噴淋的情況下,均屬於水側自然冷,通過水的蒸發潛熱利用自然冷源。03氟泵自然冷方案通過氟泵來驅動冷媒循環,付出少量機械能,在室外低溫時將室外自然冷源的冷量通過冷媒相變傳遞至機房,從而達到降低機房降溫的效果。一般氟泵自然冷和壓縮機製冷整合在一個系統裡,當室外低溫時,壓縮機停止運行,啟動氟泵完成製冷循環。當時外溫度較高時,則需要啟動壓縮機來完成製冷循環。以上自然冷方式可以單獨應用,或者組合應用,充分挖掘室外自然冷潛能,實現節能效果。近期在資料中心領域應用比較多的混合雙冷源方案,即為一種組合式的自然冷方案。機房空調設計兩組盤管,層疊安裝。高溫迴風首先經過第一組盤管進行預冷,此時預冷冷源可以是氟泵自然冷,也可以是冷卻塔提供的冷卻水,之後通過第二組盤管,第二組盤管可以是氟泵自然冷,也可以是壓縮機機械製冷,根據製冷需求進行自動切換,詳見圖2所示。▲ 圖2 兩種不同雙冷源自然冷方案通過“預冷+補冷”的控制思路,實現自然冷源利用最大化,從而實現空調裝置高能效,有效幫助降低資料中心PUE。以資料中心常用100kW空調為例,採用上述自然冷技術的機組,在以下區域應用,可以達到的製冷因子CLF如表1所示。在空調機組100%輸出的條件下,水側自然冷通過利用更長時長的自然冷,製冷因子更低,見表2所示。在空調機組75%輸出條件下,可以看到氟側機組的能效提升更快,在北京以及上海,均可表現出比雙冷源機組更好的節能效果,見表3所示。隨著負載率進一步降低,在空調機組50%輸出條件下,氟泵自然冷機組的能效已經全面優於水側自然冷雙冷源機組。不管採用那種雙冷源,北方全年室外環境溫度更低,可以收穫更好的節能效果。隨著負載率降低,氟泵自然冷工作時長顯著增加,氟泵功耗遠小於水泵功耗,在各地均可獲得更好的節能效果。可以看到,利用“預冷+補冷”設計方案,兩類雙冷源方案可達到系統級的製冷因子相當,在選擇具體方案時,需結合項目地自然條件進行選擇。液體冷卻是指利用高導熱性能的流體介質(諸如25%丙二醇諸如25%丙二醇,去離子水、冷卻液或製冷劑)而不是空氣來冷卻資料中心。液體直接參與資料中心關鍵發熱源(如伺服器內部高性能晶片)的熱量交換過程。液冷技術縮短了熱傳導路徑,使得熱量能夠更直接、更有效地從熱源匯出,進而顯著降低了對伺服器內部風扇輔助散熱的依賴,從而降低整體能耗與噪音水平。資料中心液冷技術的應用可細分為兩大主流類別:直接到晶片(Direct-to-Chip, DTC)冷卻技術,常被稱為冷板冷卻,其特點在於將冷卻液直接匯入至伺服器內部,通過緊貼晶片的冷板結構實現高效熱交換。浸沒式冷卻技術,該技術將整個或部分伺服器元件完全浸沒於非導電冷卻液中,實現熱量的全面、均勻散發。在DTC配置中,液體不直接與電子元件接觸,液體冷卻劑被泵送到解決伺服器內部電子元件散熱的冷板上。雖然大部分熱量都被冷板帶走了,但仍然需要風扇來幫助去除電路板層面的熱量,儘管風量和風速都非常低。在這種情況下,一些設計通過空氣將熱量從伺服器機箱交換出去,而另一些設計則需要在機架或行級使用熱交換器將熱量傳輸到主冷卻回路,具體見圖3冷板液冷系統原理圖。▲ 圖3 冷板液冷系統原理圖CDU是液體冷卻系統中必不可少的元件,可在整個系統中均勻分配冷卻液。CDU建立了一個獨立的二次側回路,與提供室外散熱的一次側回路隔離開,並調節和控製冷卻液的流量以保持二次側回路所需的溫度和流量。其次,CDU要採用高耐腐蝕性的不鏽鋼材質,確保與冷卻液的完美相容,有效防止腐蝕。設計上尤其要注重關鍵器件的冗餘備份,如電源、泵、感測器及過濾器等,確保系統在任何情況下都能穩定運行。同時,CDU需內建精準溫控系統,能有效消除伺服器CPU和GPU的熱衝擊問題。此外,配備補液罐以滿足長期運行需求,並設有自動排氣裝置以排除空氣,保持冷卻效率。1)供液溫度冷板液冷系統的供液溫度設計需充分考慮不同晶片及伺服器製造商的特定要求,如Dell可能接受高達32℃甚至更高的供液溫度,而Nvidia則設定在25℃至45℃的較寬範圍內。需要注意的是,必須嚴格避免供液溫度過低,以防止水蒸氣凝結現象的發生,這可能嚴重損害IT裝置的正常運行。此外,系統還需具備強大的穩定性,確保在一次側流量出現波動時,二次側仍能維持穩定的供液溫度,以保障整體散熱效能與裝置安全,見圖4所示。▲ 圖4 一次側流量波動,二次側仍可保障穩定供液溫度2)供液流量冷板液冷系統的供液流量設計是確保高效散熱與穩定運行的關鍵環節。CDU(冷量分配單元)在此過程中扮演著核心角色,負責精確調控一次流體與二次流體的流量。具體而言,二次流體需維持穩定的流速進入IT裝置,以在裝置滿載時能夠有效從冷板中帶走所有熱量,保持IT入口溫度的恆定。同時,一次流體的流量則根據需散熱的熱量動態調整,並依據CDU的接近溫度(ATD)進行調整,見圖5所示。▲ 圖5 一次側流量波動,二次側仍可保障穩定回液溫度為了確保流量控制的精準性,系統要採用壓差控制並輔以即時監控,以確保系統中的洩漏不會導致壓力下降。此外,通過CDU內,泵與電源的冗餘設計,系統能夠在關鍵業務場景下保障流量的連續供應,進一步提升整體系統的可靠性與穩定性。3)過濾要求冷板液冷系統要求冷卻液順暢通過冷板內極其微小的通道,這些通道的寬度可精細至低於50微米,甚至達到30微米以內。堵塞不僅會限制流量,甚至可能完全中斷IT裝置的冷卻,導致維護成本急劇上升,因此系統對冷卻液的過濾精度提出了嚴格標準。通常,這一精度需低於冷板通道的最小尺寸,業界經驗傾向於採用25微米或更細的過濾等級。此外,為確保系統長期保持清潔狀態,CDU(冷量分配單元)需持續進行線上過濾,這是維護系統高效運行與延長使用壽命的關鍵措施。4)流體選擇在設計冷板液冷系統的初期,選擇合適的流體化學成分及可靠的供應商非常重要。一旦確定流體策略,後續的任何更改都將涉及繁瑣且成本高昂的清洗與淨化過程。此外,流體的選擇還會在偵錯階段帶來顯著複雜性,包括循環測試、雜質沖洗以及系統氣泡的排除,這些工作對於每台伺服器及整體解決方案的順利運行都至關重要。在整個系統使用周期內,對液體的持續關注同樣不可或缺,需定期進行pH值、外觀、抑製劑濃度及污染物水平的檢測,以確保其性能穩定與系統的持續高效運行。同時,所有冷卻液均需遵循嚴格的儲存與處理規範,並配備適當的個人防護裝置以保障操作安全。在冷板液冷系統的二次側流體選擇中,存在三種主流方案。首先,去離子水配方液換熱效果優越,然而其腐蝕風險不容忽視,需採取額外措施加以防範。其次,乙二醇配方液雖具備一定的防腐能力,但其毒性相對較大,且在環保要求較高的地區,其排放處理成為一大現實問題。最後,丙二醇配方液作為Intel、Nvidia等業界巨頭推薦的選擇,由於其防腐效果更好,成為眾多使用者信賴的優選方案。在選擇時,需綜合考慮流體性能、成本、環保要求及安全性等多方面因素,以做出最適合自身需求的決策。5)故障預防和檢測在冷板液冷系統中,除了二次流體網路內其他感測器的監測外,CDU的嚴密監控與管理是預防並儘早發現故障的關鍵。資料中心尤為關注洩漏問題,大部分洩漏案例發生在manifold與伺服器軟管快速斷開附件處,對IT裝置影響很小。但伺服器機箱內部的洩漏,特別是發生在內部manifold、軟管與冷板之間的洩漏,則對IT裝置構成重大威脅。因此,實施額外過濾與感測器在內的防錯系統至關重要,這些措施不僅能在熱交換性能下降時提供預警,還能有效遏制人為錯誤導致的污染物增加或液體質量漏檢風險,從而全面提升系統的穩定性與安全性。液體輔助DTC冷卻:機箱級、閉環的獨立產品,帶有冷板、泵和散熱器,針對處理器的局部熱點。熱量通過伺服器內部的液體-空氣熱交換器消散。與液體-液體DTC冷卻相比,這種液體輔助DTC產品不需要和伺服器外部的液體進行熱交換,也不需要CDU或其他液體基礎設施或對現有基礎設施進行修改,同時能夠解決高密度點。全液冷板冷卻:目前大部分DTC冷卻伺服器僅覆蓋高功率、高發熱部件,如中央處理器(CPU)、圖形處理器(GPU),其他部件仍需通過風扇提供的氣流進行冷卻,包括記憶體、儲存、硬碟驅動器/固態驅動器、外圍元件互連高速通道/開放計算項目(OCP)卡和電源單元。全液冷板冷卻配置將為所有部件配置冷板,並使用液體進行冷卻,完全消除風扇,進一步提高電源使用效率(PUE)。根據執行階段液體的狀態,DTC還可以進一步分為單相和雙相兩類。在單相系統中,液體冷卻劑始終保持液態。在雙相系統中,液體冷卻劑蒸發以將熱量從液體中轉移出去,然後通過熱交換器冷凝並轉換回液態。負壓液冷:有三個氣密性較好的液腔,分別是主真空腔、儲液腔、輔真空腔。主真空腔和輔真空腔交替保持高真空度確保工藝冷媒從伺服器冷卻環路流回,儲液腔保持較低的真空度使工藝冷媒流進伺服器冷卻環路。二次泵採用低揚程潛水泵,安裝於儲液腔內部,當檢測到二次側供液溫度低於機房的露點溫度時,潛水泵將停止工作以確保不會有凝露產生。配有真空泵等負壓系統(包含氣液分離器、消音排氣口,空氣流量感測器),用以保證三個腔體的真空度。三個腔體各配有兩個氣動開關閥,一個接通真空泵,另一個接通大氣相連的氣液分離器,用於控制各個腔體的真空度,以確保液體順利循環。伺服器不同,伺服器運行的冷卻液體溫度不同。根據水溫,冷板液冷有不同的製冷系統架構設計方案。當一次側水溫在W32及以下時,一次側冷源不能完全依靠冷卻塔全年供應,需要補充額外的機械製冷,即冷凍水冷源機組,常見可用的冷凍水冷源機組有水冷冷水機組、風冷冷水機組等。1)同源液冷方案和風冷部分均採用冷卻塔同源冷卻塔方案,不同末端例如液冷部分(XDU)以及水冷型空氣處理機組(AHU)等所需負荷都由同一冷卻塔進行供應。2)非同源液冷方案採用冷卻塔,風冷部分採用機械製冷或冷機非同源方案,包括高水溫不同源風冷和高水溫不同源冷凍水方案。當採用不同源風冷補冷方案時,精密空調和液冷CDU分別採用不同的冷卻塔或乾冷器;當採用不同源冷凍水方案時,空氣處理機組(AHU)冷源採用冷水機組,液冷部分(XDU)冷源採用冷卻塔,見圖6所示。▲ 圖6 風液混合系統製冷架構3)風液方案:機房已有風冷精密空調裝置,需要部署少量液冷機櫃,此時集中式風液型CDU方案是優選方案。CDU和液冷機櫃間通過軟管連接,液冷伺服器中的熱量通過冷板,Manifold,以及管路傳遞至風液CDUSB 隨身碟管,最後散至機房,再通過機房空調將所有熱量帶至室外,見圖7所示。▲ 圖7 風液方案系統製冷架構在做液冷方案選擇時,需要考慮伺服器可接受的冷卻液溫度,以及機房條件,來選擇適合的製冷系統架構方案。在當前的AI算力範式下,擴大算力的一個基本邏輯是不斷提高“堆疊”密度,由此帶來(單位空間內)的能量密度持續上升,將進一步推動液冷技術的應用。基於此,對於未來智算中心液冷技術發展方向可以概括為以下兩點:目前主流的冷板式液冷仍然存在較大比例的熱量需要風冷解決,這對智算中心的複雜度造成了很大影響。進一步降低風冷佔比,是進一步提升單機櫃功率密度、降低資料中心複雜度的迫切需要。傳統冷板方案可進一步最佳化伺服器和冷板設計,將主要發熱器件儘可能使用冷板散熱,單相浸沒式液冷、全覆蓋冷板液冷也是可以大力發展的方向。單相浸沒式液冷在解決高功率晶片擴熱問題後,可以實現100%液冷。全覆蓋冷板方案可以較好地適配AI伺服器,而不用考慮普通伺服器的通用性要求。進一步降低風冷佔比後,可能會面臨以下難點:晶片層面由於製程改進的效果越來越有限,利用先進封裝技術將多個較小的晶片拼裝為一體的Chiplet技術正得到普遍的應用,其中的一個重要趨勢是3D堆疊,這意味著單位面積上的電晶體數量會繼續高速增長,如何將晶片封裝內的熱量有效的傳匯出來,將成為行業面對的一大挑戰。機櫃層面以NVIDIA GB200 NVL72為代表的解決方案目前採用風液混合模式,櫃內互聯採用大量的銅纜,對散熱風道的設計形成了一定的阻礙。隨著機櫃功率的進一步提高,需要提高冷板在各節點內的覆蓋率,向全液冷的方向演進。隨著AI晶片功率的進一步提升(1500W-2000W以上),風冷散熱器已達瓶頸(1000W),單相水冷板也將很快到達散熱能力瓶頸(1500W),相變散熱技術是必然的方向,包括相變浸沒液冷和相變冷板液冷。相變冷板又包括泵驅兩相(Pumped twophase)冷板和自驅動兩相(Passive 2-Phase)冷板等方向。相比較而言,泵驅兩相冷板國外有較多的研究,但其複雜度較高、可靠性問題比較難以解決;自驅動兩相冷板的技術基於環路熱管(LHP)技術,挑戰更大,但其具有解熱能力強、高可靠、易維運、長壽命等優點。 (零氪1+1)
AI圈都在緊張:一塊GPU能撐幾年?
過去三年,AI 行業就像在開加速掛。模型越跑越大,資料中心越建越多,輝達的股價越飛越高。但就在全球科技巨頭準備在未來五年砸下 1 兆美元造 AI 資料中心時,一道靈魂提問突然冒出來:一塊 GPU,到底能撐幾年?就是這麼一個看起來挺小的硬體壽命問題,已經成為了影響 AI 行業的最刺激、最敏感、最能影響股價的 KPI。包含在投資人、高管在內的各界人士似乎都在試圖判斷核心裝置的使用壽命。而讓人焦慮的是,這個問題沒有正式的標準答案。其中,Google、Oracle 和 Microsoft 給出的伺服器壽命最高可達 6 年,而像做空者 Michael Burry 這樣的懷疑者認為沒那麼長,可能也就 2~3年。AI圈都在緊張的一個問題當全球 Top 的一批公司計畫在未來五年投入 1 兆美元建設 AI 資料中心時,有一個項目讓高管與投資人都格外緊張:折舊。過去十年,伺服器、儲存裝置這些老貨都能用 5 到 7 年,大夥都心裡有數。但 GPU 不一樣。三年前才開始狂買,沒人知道它們到底能用多久、不值錢得有多快。“折舊”,顧名思義,就是將一項硬體資產的成本分攤到預計可用壽命內,在科技行業經常被提及且很關鍵。因為企業要預測它們購入的幾十萬張輝達 GPU 能使用多久、價值能保留多久。簡單理解:折舊=資產壽命。壽命越長,利潤越好看;壽命越短,利潤“啪”一下蒸發。如果你有關注過,你甚至會發現市面上對於GPU的折舊有完全不同的看法。AI GPU:一個全新的折舊難題AI GPU 在市場上的歷史還很短。輝達面向資料中心的首批 AI 晶片於 2018 年發佈,而真正讓 GPU 市場爆發的是 2022 年底 ChatGPT 的誕生。此後,輝達資料中心收入從 150 億美元飆升到截至 1 月的財年裡的 1152 億美元,足足十倍。“是三年、五年還是七年?”Latham & Watkins 的副主席 Haim Zaltzman(長期從事 GPU 融資業務)表示,目前沒有可參考的長期使用記錄,這對融資影響巨大。樂觀派:6年!業內不少巨頭給出的答案比較統一:6年!Google、Oracle、Microsoft 等基礎設施巨頭認為其伺服器可以用長達 6 年。但微軟似乎最近有所調整:它們也可能更快折舊——微軟在最新年度檔案中稱其計算裝置的壽命為 2 至 6 年。此外,一些輝達客戶認為 AI 晶片會長期保值,因為舊 GPU 對部分任務仍有需求。CoreWeave(大量採購 GPU 並出租)自 2023 年以來一直按照 6 年折舊周期來計提。CoreWeave CEO Michael Intrator 表示,他們對 GPU 壽命的判斷是“資料驅動”的。他曾對外表示,公司手上的 A100(2020 年發佈)全部租滿,還有一批因合同到期而釋放出來的 H100(2022 年發佈),立即以原價 95% 的水平售出。“所有的資料都在告訴我,這些基礎設施是保值的。”不過,市場卻啪啪打臉。CoreWeave 在財報後股價仍跌了 16%,今年高點以來已跌去 57%,反映了市場對 AI 過度投資的擔憂。Oracle 也從 9 月高點跌去 34%。懷疑者:GPU 只能用 2 到 3 年?最激烈的懷疑者之一是著名做空者 Michael Burry,他最近披露了自己正在做空輝達和 Palantir的倉位。為什麼?Burry 認為 Meta、Oracle、Microsoft、Google 和 Amazon 都高估了 AI 晶片的使用壽命,從而低估折舊。他認為伺服器的真實壽命只有 2–3 年,這會導致企業利潤被“虛高”。對於這個言論,Amazon 和 Microsoft 拒絕了回應;Meta、Google 與 Oracle 也尚未置評。黃仁勳暗示:前代 GPU 會提前“過氣”!AI 晶片可能在 6 年內貶值,原因包括:硬體磨損技術更新太快導致迅速過時雖可運行任務,但成本效益大幅降低輝達 CEO 黃仁勳早已有暗示。當輝達發佈新一代 Blackwell 時,他調侃說上一代 Hopper 價值會暴跌:“當 Blackwell 大規模出貨時,你根本送不出去 Hoppers。”“雖然還有些場景 Hopper 能用……但不多。”輝達現已從兩年一代加速到一年一代,AMD 也同步提速。亞馬遜今年早些時候還將部分伺服器資產的壽命從 6 年調降至 5 年,理由是 AI 技術迭代速度更快。與此同時,其它雲廠商卻在拉長新伺服器的壽命預估。微軟:別在單代 GPU 上“押重注”關於這個問題,微軟 CEO 納德拉在本周表示,公司正刻意拉開 GPU 採購節奏,不願在單一代產品上投入過多。他指出,現在輝達新舊 GPU 的競爭更激烈。“我們最大的經驗之一是輝達遷移速度變快了。我不希望被某一代 GPU 的 4–5 年折舊周期套住。”其實,說到底,還是這個行業發展實在太快了。首先,納德拉也提到了,輝達的發佈節奏從兩年一代變成了一年一代。即便硬體壽命沒變,但價值衰減速度暴漲。其次,雖然推理成本可以降低,但代際更新的GPU顯然,速度更快。而舊的 GPU 能跑,但速度變慢、整體下來的算力成本卻會變高,經濟上不划算了。再者,二手市場需求變幻莫測。有些行業用舊卡完全夠用,有些任務必須用最新架構。這就形成了極其神奇的價格波動。所以 GPU 並不是物理壽命上的壞掉,而是從實際業務上不划算了:“還能跑,但跑得不值錢。” (51CTO技術堆疊)
當日本押注晶片製造
7月18日,日本尖端半導體代工廠Rapidus進入量產前的試運轉階段,首次向媒體公開了試制的2nm半導體樣品晶圓。晶圓是從99.99%的純矽圓柱體(矽錠)上切下來的,被打磨得很光滑,然後再根據結構需求將導體、半導體材料薄膜沉積到其上。在一塊晶圓上製造出晶片還需要經過上千道工序,從設計到生產往往得歷時三個多月,換句話說,Rapidus的晶片之路仍然漫長。新聞發佈會上從左到右依次為Rapidus董事長(1949年出生)、Rapidus總裁兼首席執行官(1952年出生)、北海道知事和千歲市市長。Rapidus成立於2022年8月,旨在製造最先進的2奈米晶片,抗衡台積電。這是一家由日本政府全力支援的企業,迄今為止已經拿了1.7兆日元(約114億美元)的政府補貼,而且接下來還要繼續拿數兆日元的財政撥款。與財政資金相比,來自豐田等民營企業的注資僅僅有730億日元(約4.9億美元),給人一種象徵性表態、不好意思不捐的感覺。日本人對於半導體行業的心情十分複雜。作為該領域曾經的霸主,上世紀八九十年代,東京電子、尼康、索尼、佳能等公司在與荷蘭阿斯麥、韓國三星、美國英特爾以及台積電的競爭中紛紛落敗。尼康和佳能在1990年代之前一度主導光刻機市場,但在最尖端的極紫外光刻機(EUV)開發競爭中敗給了阿斯麥;目前阿斯麥成為該領域的霸主,掌握全球市場份額的60%,日本企業則陷入困境。新千年之後,日企基本退出了半導體整合度領域的競爭,不再更新技術,先進半導體只能依賴從台灣省和韓國進口。在本輪AI需求爆發後,日本眼睜睜看著韓國和台灣賺得盆滿缽滿——兩地的最新人均GDP已超越日本,心裡很不是滋味。恰好美國有意扶持日本打壓如日中天的三星和台積電,於是日本政府一拍大腿,決定以政府投資的形式全力支援Rapidus發展2nm晶片工藝,從而為日企在AI資料中心與自動駕駛等領域提供穩定的晶片供應保障。不知是不是受了川普影響,一些日本企業家似乎告別了大家傳統印象裡嚴謹、刻板、低調的作風,也開始學著“放衛星”,張嘴就是台積電3倍。Rapidus成立至今已有三年整,按照計畫將於2027年實現量產,可目前只提供了一份晶圓樣品。據《日經新聞》報導,當下日本國內對Rapidus的評價既有期待也有不安,但不安的聲音佔了多數。一方面,晶片製造領域有一個“良品率”的概念,直接關係到盈利水平。良品率需要長期積累打磨,不同工藝水平的廠差別很大,如果良品率不高,即使技術層面實現了2nm意義也不大,因為價格在市場上沒有競爭力。另一方面,就算真造出來2nm晶片且良品率達標,客戶又在那裡呢?日本國內沒有科技大廠,而美國使用者蘋果、輝達、高通、AMD等多跟台積電簽有長期合作協議,有的乾脆包了台積電的產線。Rapidus作為新入局的玩家,在技術、產能、成本等方面均沒有優勢的情況下,憑什麼讓人家選擇你呢?實際上,Rapidus在日本民間募資時困難重重,基本是靠政府資金在支援——回顧歷史,這類項目鮮有成功之案例。至於說汽車晶片、家電晶片和軍事用途晶片,它們對於製程的要求遠沒有手機和人工智慧晶片高,2nm屬於英雄無用武之地。《日經新聞》這樣點評道:“台積電是被日本政府和Rapidus視為競爭對手的全球最大代工廠,在台積電的客戶名單中,蘋果、輝達等多家世界級企業赫然在列。半導體廠商,尤其是代工廠,生死攸關之處在於客戶的數量、質量以及訂單規模。對於剛起步的企業來說,這樣說或許顯得殘酷,但如果缺乏這些,就不會形成‘優秀產品→良好客戶→開發更優秀產品’的良性循環。半導體行業的特性本來就以良性循環為前提,數字裝置的性能和價格每兩年都會發生劇烈變化,因此Rapidus問題的本質在於開拓客戶。”輝達過去幾年的業績固然是符合了摩爾定律,但全球只有一個輝達。當今半導體製造領域,台積電是2nm和3nm製程的領頭羊,中國大陸企業則在7nm及以上製程裡實現突破,並廣泛供應各類電子裝置和電動汽車。日本如果想憑藉Rapidus分一杯羹,它只能跟台積電競爭尖端製程。說來有趣,過去幾年給日本半導體企業帶來增長希望的恰恰就是中國大陸市場。在美國發起的晶片出口管制行動中,因老一代裝置不在管制範圍之內,於是阿斯麥的手下敗將尼康和佳能開始進入中國廠家視線。儘管它們的裝置略顯落後,但好歹可以起個過渡作用,有總比沒有強。不僅如此,中國公司還從日本廠家那裡收購了不少二手光刻機等急需裝置,以至於東京電子、尼康、佳能等公司頗有捲土重來的架勢。日本學者指出:“無法引進尖端半導體製造裝置的中國廠商正在轉向生產通用半導體,結果讓日本不受限制的半導體製造裝置出口增加。”Rapidus本身極為脆弱,很難靠市場競爭獨立生存,假如僥倖沒被美國管制,僅剩的一線生機就是中國。可美國目前是將Rapidus定位為對抗台積電過度主導晶片代工的替代選項,容不得它變成“中日聯手”模式。在近日Rapidus舉辦的客戶推介活動上,到場者以合作夥伴企業為主,海外大型潛在客戶寥寥無幾,前景很不被市場看好。台積電位於日本熊本的工廠,主要生產12nm及以上製程晶片,精準服務於索尼等公司。台積電計畫2025年在全球新建9座工廠,而Rapidus目前只有北海道一座試營運的工廠。儘管日本錯失了EUV光刻機和晶片製造,但它在光刻膠、掩膜、光掩膜製造等關鍵材料領域仍具備強大實力,近幾年的半導體浪潮也帶火了東京電子等企業。最後簡單聊幾點對半導體行業的看法。1、半導體行業是國際產業鏈分工的代表,可隨著地緣政治升溫和川普關稅風暴到來,支撐半導體產業的國際分工體系正迎來轉折點。目前各國從經濟安全保障的角度出發,竭力推動本土化生產,而越來越多的本地化也正迅速導致供應過剩。2、半導體作為一種元器件,高度依賴下游具體行業發展,從本質上說,晶片只是手段,而不是目的。半導體行業興衰與否取決於搭載晶片的智慧型手機、個人電腦、電動汽車和算力叢集等領域是否持續擴張。目前個人電腦和智慧型手機市場出貨量已趨於穩定,電動汽車對晶片要求沒有那麼高,成熟製程足以滿足需求,唯一有明顯增長趨勢的只剩下用於AI大模型訓練的算力叢集。如果AI浪潮的前景不及預期,將不可避免地波及半導體行業,特別是高端製程。3、曾幾何時,液晶螢幕也是高科技產品的代名詞之一,不過隨著中國企業突破這一技術瓶頸,產業格局驟然改觀——在螢幕生產能力(以面積計算)方面,中國2017年首次超過韓國,到2023年已擴大到韓國八倍的規模。站在中國大陸的角度,半導體行業是當下亟待征服的一座高峰,它不僅具有經濟和產業價值,還有巨大的政治意義。台灣島內,台積電是其相對大陸最後的技術優勢堡壘——島內政客和媒體張嘴晶片、閉嘴晶片,台積電在台灣社會的意義早已超越了一家科技企業的範疇。大洋彼岸,AI革命極大鞏固了美國資本市場的自信,為美元資產重新注入了吸引全球資金的“磁性”。如果中國最終能引領半導體與AI行業的發展,其意義或直接影響到地緣政治領域的權力更迭。 (星火好望角)
AI 新一輪行情的起點!
國際頂級機構近年密集發佈的報告,一致看好人工智慧行業的長期前景,尤其強調中國市場的增長潛力。高盛在報告中指出,儘管增速趨緩,AI 基建投資未來 2-3 年具備持續性,市場過度關注 “回報慢” 可能忽略了成本紅利已經開始釋放,且股價尚未反映這一結構性變化。同時,中國軟體市場在 2025 年二季度延續了 AI 原生應用的強勁發展勢頭,高盛認為中國生成式 AI 應用已進入商業化初期,而 AI Agent、多模態 AI 模型和模型部署成為行業增長的三大核心引擎。摩根士丹利發佈的全球科技藍皮書《中國 - 人工智慧:沉睡的巨人覺醒》,到2030 年,中國核心 AI 行業潛在市場規模達人民幣 1 兆元,相關產業規模達人民幣 10 兆元。光模組雙龍頭業績高增:GPU+ASIC 雲端運算共振,看好AI算力雙重增長!1、中際旭創25Q2歸母淨利潤20.2-28.2億,中值24.2億,對應同比+79.2%,環比+52.7%;扣非歸母淨利潤20.2-28.2億,中值24.2億,對應同比+80.4%,環比+54.4%。2、新易盛發佈25Q2歸母淨利潤21.3~26.3億,中值23.8億,對應同比+339.8%,環比+51.2%;扣非21.2~26.2億,中值23.7億,對應同比+339.3%,環比+51.2%。1、一二線雲廠資本開支堅定,“表觀”增長持續,企業及主權的AI 算力需求加速顯現。GPU與ASIC單卡提升空間低於多卡互連提升空間,單卡對應頻寬/光、銅連線有望提升2、輝達最新技術和產品來自一二線雲廠、主權與企業AI的需求有望繼續增長,同時1.6T等開始參與配套出貨,有望實現基數和滲透率的連按兩下3、一線雲廠自研ASIC出貨快速增長,ASIC 相比GPU單卡性能略差但性價比更高,“單位美元”能夠買的,需要買的算力卡及配套增加,雲廠資本開支投向或在產業鏈再分配,產業鏈增速有望高於雲廠資本開支增速相關標的:光:中際旭創,新易盛,天孚通訊,源傑科技,長光華芯,長芯博創矽光&CPO:致尚科技,太辰光,仕佳光子PCB:勝宏科技,景旺電子,滬電股份,生益電子銅:兆龍互連,鴻騰精密【國內AI應用】歷經4個月充分調整,Q3新的大模型推出有望帶動新一輪行業β重點標的:強β:新致軟體、鼎捷數智、漢得資訊、泛微網路、致遠互聯、賽意資訊等AI落地快:港股:訊飛醫療、邁富時、第四範式、北森控股、金蝶國際等;A股:鼎捷數智、海天瑞聲、稅友股份、金山辦公、合合資訊等。From HT電腦Agent重新定義兆勞動力市場(機構調研記)
奧特曼最新專訪:這,將是接下來10年所有人的作業系統
商業思維筆記君說:5月13日消息,OpenAI聯合創始人兼首席執行官山姆·奧特曼,於美國當地時間5月12日出席了全球知名投資機構紅杉資本舉辦的“2025 AI Ascent”大會。在本次專訪中,奧特曼分享了OpenAI的創業歷程、產品規劃與發展路徑,並深入探討了他對AI行業未來的洞察。奧特曼回顧了OpenAI從一個僅有14人的研究實驗室,成長為全球領先的人工智慧平台的歷程。他設想將ChatGPT演進為一種高度個性化的AI服務——它能夠記住使用者的完整生活背景,從對話記錄到電子郵件內容,同時能夠在多個應用和服務之間無縫銜接、自然協作。他指出,年輕一代使用者已經將人工智慧視為作業系統,而不僅僅是搜尋工具。這種趨勢預示著一個全新的未來:一個高效、統一的大模型,能夠在無需重新訓練的前提下,基於超大規模的上下文進行推理,全面理解使用者的歷史資訊,從根本上重塑人與技術的互動方式。以下為奧特曼最新專訪精華內容:一、OpenAI的“從0到1”:ChatGPT是如何誕生的?問:這是你們當年成立時的辦公室(如下圖)?奧特曼:沒錯,這正是我們最初的辦公地點,2016年我們就在這裡起步!問:2016年的你可曾預見OpenAI會有現在的光景嗎?奧特曼:完全沒想過。那時我們14個人擠在角落裡,圍著白板討論我們到底應該做什麼。說實在的,那時我們就是個純粹的研究實驗室,雖然有著非常強烈的信念和方向感,但沒有明確的行動計畫。別說商業化產品了,連“大語言模型”(LLM)的概念都還很遙遠。問:從公司初創到ChatGPT問世,歷經六年時間,你們是如何設定里程碑的?奧特曼:其實我們的第一個面向消費者的產品並不是ChatGPT,而是DALL·E(文字生成圖像系統),更早的則是API介面服務。我們曾嘗試過多個方向,包括遊戲AI、機械臂控制等。後來有團隊專注於無監督學習,這才誕生了GPT-1和GPT-2。但直到GPT-3,我們才感覺手頭真的有了點“東西”,雖然當時還不清楚該用它來做什麼。與此同時,我們也意識到,如果想繼續擴展模型規模,就必須籌集更多資金。像GPT-4這樣的模型,其開發成本達十億美元級,已不是靠科研資助能支撐的,除非是像粒子加速器那樣的國家級項目。因此,我們開始認真思考,如何將這一研究轉化為可持續的商業模式。我們隱約意識到,這項技術終將變得非常實用。雖然我們開源發佈了GPT-2的模型權重,但市場反應平平。然而,通過觀察許多創業公司,我發現一個模式:開放API介面往往能帶來意想不到的價值,這在很多YC孵化項目中被多次驗證。另一個關鍵體會是:技術越易用,其價值通常越大。當時運行這些大模型仍然非常困難,因此我們決定建構專用軟體以最佳化部署體驗。由於尚未明確產品形態,我們選擇在2020年6月開放GPT-3的API介面,想看看開發者們是否能基於它打造出有價值的應用。有趣的是,雖然全球市場反應較為冷淡,但矽谷創業圈敏銳地意識到這項技術的潛力,有人甚至認為它是通用人工智慧(AGI)的雛形。就我所知,真正基於GPT-3 API建構起可持續商業模式的公司並不多,主要集中在文案生成服務上,這是當時唯一能夠突破商業化門檻的應用場景。但我們注意到一個異常現象:儘管人機對話功能尚不成熟,使用者卻樂此不疲地與模型互動。要知道那時的聊天體驗並不理想,因為還沒有引入基於人類反饋的強化學習(RLHF),但大家依然愛不釋手。除了文案生成,人機對話幾乎是唯一具備“殺手級應用”潛力的功能,這最終促使我們決定開發ChatGPT。在ChatGPT 3.5發佈時,API已支援八大類商業應用場景,遠遠超出早期的單一功能。我們也愈發堅信——人們渴望與AI對話。雖然DALL·E的表現也不錯,但考慮到我們在微調技術方面的積累,我們最終決定投入資源,專門打造一款面向對話的AI產品。經過六年的打磨與探索,ChatGPT終於在2022年11月30日正式上線。如今,每周有超過5億使用者與之互動。二、從精簡團隊到高效協作,OpenAI是如何做到“越大越快”的?問:最近半年,你們似乎在持續不斷地發佈新產品?奧特曼:是的,確實如此。我們發佈了很多重量級更新,而且產品發佈節奏越來越快,連我們自己也覺得非常驚人。問:你是如何在一家如此規模龐大的公司中,仍然保持快速的產品迭代能力?奧特曼:我認為,很多公司都會陷入一個典型誤區:隨著公司規模的擴大,產出卻陷入停滯。他們只是為了擴張而擴張,卻沒有同步提升產品的研發與迭代效率,這就是所謂的“效率停滯”。我始終堅持幾個基本原則:讓每個人都高效運轉;保持團隊小而精;確保人均產出與公司規模相匹配。否則,你就會看到一個40人的會議,為了一個小功能而爭論不休。商業界有句老話:“優秀的管理者永遠很忙”,因為沒有人希望看到閒著的人到處攪局、影響效率。在我們公司,也像許多科技公司一樣,真正創造價值的是研究員、工程師和產品經理。你必須確保這些關鍵崗位上的人始終專注、高效地推進工作,產生實際影響。如果你打算擴張公司規模,那就意味著必須同時增加項目數量,否則就只會增加無謂的會議和內耗。因此,我們儘量保持精簡的團隊結構,但賦予每個人極大的責任感。要實現這一點,唯一的方式就是同時推進大量項目。現在,我們確實有機會打造下一代網際網路的核心平台。要實現“終身個性化AI助手”的願景,意味著必須跨越不同的服務場景,覆蓋主流與長尾應用,而這需要建構豐富的功能模組和配套能力。問:在過去這六個月裡,有沒有那個產品讓你特別自豪?奧特曼:我最自豪的是模型能力的持續躍升。當然,我們距離目標還有不少改進空間,但我們正在以非常快的速度迭代。目前的ChatGPT已經是一款非常優秀的產品,而它之所以如此強大,核心就在於底層模型的出色表現。一個模型能夠高品質地完成如此多樣的任務,這一點讓我感到由衷驚嘆。三、核心AI服務之外,機會無限問:你們既在開發小模型,也在推進大模型,幾乎什麼都在做。那麼我們這些從業者該怎麼做,才能不被OpenAI“碾壓”?奧特曼:你可以這樣理解我們在做的事情:我們希望成為使用者的核心AI訂閱服務提供商。這其中一部分功能將通過ChatGPT實現,其他還會涵蓋一些關鍵模組。但最核心的,還是打造更智能的模型,探索新的互動入口,比如專屬硬體終端裝置,甚至類似作業系統的基礎平台。至於API或SDK 的形態,我們現在還沒有完全想清楚,但一定會找到合理的路徑。可能會經歷幾輪嘗試,但最終我們會做成。我希望我們的平台能為全世界創造巨大的價值,成為其他開發者創新的基礎。問:OpenAI未來的發展目標是什麼?奧特曼:我們就是繼續打造更強大的模型,推出使用者喜歡的產品。除此之外,沒有什麼複雜的“終極藍圖”。我們更關注眼下要做什麼。現場有很多OpenAI的老同事可以作證,我們不是那種喜歡坐下來制定繁複計畫的團隊。我始終相信——如果你從一個“宏大終點”向回推規劃,很容易走偏。與其設計一個自上而下的總體戰略,不如一步步往前走,靠使用者反饋和現實成果驅動決策。我們知道接下來會需要龐大的AI基礎設施,要建“AI工廠”。與此同時,我們會不斷提升模型性能,打磨優秀的終端產品,從模型到介面再到硬體,每一部分都要做到最好。我們以靈活應變為榮。隨著外部世界不斷變化,我們也會及時調整戰術。目前我們還沒開始規劃明年要發佈的產品,但我們有信心打造出真正打動使用者的創新。我對我們目前的研究路線充滿信心,從未像現在這樣樂觀。問:接下來的研究路線圖是怎樣的?奧特曼:更智能化的模型,這是我們的中心目標。但每一步如何走,我們會邊走邊看,通常是走一步看兩步。問:所以你更相信“從現在出發,逐步演進”,而不是“自上而下反向規劃”?奧特曼:完全正確。我聽過很多人講他們有一個宏大的戰略藍圖:比如“最終要統治世界”,然後再往回推算每一步該做什麼……但我從來沒見過,這樣的路徑能真正帶來巨大成功。四、年長者用AI查資訊,年輕人用AI過人生問:你認為大公司在轉型為AI原生組織時,常犯那些錯誤?無論是在使用 AI 工具還是建構 AI 產品方面?為什麼初創公司明顯在創新上更具優勢?奧特曼:幾乎每一次技術革命都會出現類似現象,所以這並不令人驚訝。他們犯的錯誤與以往如出一轍:過度依賴傳統流程,固守舊有思維。當技術每隔一兩個季度就發生飛躍,而你還在依賴一年才開一次會的資訊安全委員會來決定是否引入新應用、如何處理資料,那麼這種轉型註定將異常艱難。這正是“創造性顛覆”的核心,也是初創企業往往能勝出的根本原因。行業就是在這種顛覆中不斷前進的。我對大公司的轉型速度感到失望,但並不意外。我的判斷是,未來一到兩年裡,它們仍會經歷掙扎期——試圖假裝AI不會顛覆一切,等真正危機降臨時才匆忙轉型,但往往已經為時過晚。屆時,初創公司早已利用靈活機制和新範式完成“彎道超車”。而這種落差不僅體現在組織層面,也反映在人身上。比如,你可以觀察一下一個20歲的年輕人與35歲使用者在使用 ChatGPT 時的差異,簡直天壤之別。這就像智慧型手機剛問世時,孩子們能迅速上手,而年長者可能要花三年時間才能掌握基本功能。今天的AI工具,也在重演類似的“代際斷層”,而企業的行為,往往只是個體趨勢的放大。問:你觀察到年輕人在使用 ChatGPT 上有那些獨特的創新方式?奧特曼:他們真的已經把 ChatGPT 當作一個作業系統來使用了。他們會結合檔案、工具鏈與提示詞,設定複雜的操作流程,甚至精心設計提示詞並記在腦子或文件裡,就像使用一門語言一樣。讓我印象最深的是,如今很多年輕人在做人生重大決策之前,都會先來問 ChatGPT 的意見。因為它已經擁有他們完整的背景資訊、過往的對話記錄與行為偏好,具備了“記憶”能力,這使人們與它的互動方式發生了根本變化。簡單來說:年長使用者把 ChatGPT 當作Google的替代品,20–30 歲的使用者視其為“人生顧問”,而大學生則已經把它當作作業系統來用了。問:OpenAI內部是如何使用 ChatGPT 的?奧特曼:ChatGPT在我們內部主要用於大規模輔助程式設計。具體比例難以精確衡量,用“程式碼行數”統計是沒有意義的。例如微軟會說:“我們有20%或30%的程式碼由 AI 編寫。”但我認為,用行數衡量是非常愚蠢的方式。真正關鍵的是,它是否能產出高品質、有意義的程式碼——那些真正解決問題的核心程式碼,而不是邊角料。這才是價值所在。問:你剛才提到你們的核心是打造面向消費者的訂閱服務,收入也主要來自消費端使用者。那為什麼還要繼續保留 API?奧特曼:我的希望是,最終實現一個統一融合的系統——使用者可以用同一個 OpenAI 帳號登錄所有服務,第三方也能通過 SDK 將 ChatGPT 深度整合進自己的應用介面。一旦個性化 AI 掌握了你的完整資訊與使用偏好,你自然希望無論在那種應用場景下,它都能與你保持一致的個性化體驗。雖然今天的API離這個目標還有相當距離,但我相信我們終將實現它。六、OpenAI的終極目標:成為AI時代的“作業系統”問:對於建構應用層產品的開發者來說,我們非常希望能用上你們各種API,比如Deep Research API(雖然還沒發佈)。你們是否會優先打造一個更開放的平台供大家使用?奧特曼:我希望未來能出現一種介於“完全封閉”和“完全開放”之間的新範式,類似一種“HTTP協議等級的AI網際網路標準”。我設想的是,未來的網路結構將支援更加細粒度的功能模組呼叫、智能體系統之間的高效協作,並內建身份認證、支付、資料交換等機制,做到“工具互通、系統互信”。目前我們還無法確切描述這個系統最終會長什麼樣,但我們對這個方向越來越清晰。要實現這樣的平台,可能需要經歷幾輪嘗試和演化,但我們希望這是AI生態發展的主路徑。問:AI想更好理解現實世界,需要更多輸入資料。你們有沒有考慮讓模型接收來自感測器的資料,比如溫度、環境等?奧特曼:實際上,已經有不少開發者在這麼做了。他們通過我們的 API 把感測器資料接入,比如使用GPT-4(03模型)來進行處理。某些場景下,這種做法效果非常出色。更重要的是,我們的最新模型在處理這類非結構化或多模態資料時,比以往更強大。未來我們很有可能會在模型架構上,更明確地支援這類輸入。問:語音模型在OpenAI 的技術堆疊中處於怎樣的位置?未來會如何整合進 ChatGPT?奧特曼:語音互動對我們來說極其重要。坦率地說,目前我們的語音產品還遠未達到理想狀態,但沒關係。我們在文字模型上也經歷了很長的迭代過程,最終做得很好,語音也一樣會做到。我認為,一旦語音技術成熟,很多使用者都會更願意通過語音與 AI 互動。最讓我著迷的是,我們發佈的語音模式允許使用者一邊講話、一邊操作手機介面,這是一種“語音 + UI”的混合互動方式,非常有潛力。雖然目前還不夠理想,但一旦純語音體驗完善,它不僅將在現有裝置上大放異彩,還可能催生全新的人機互動裝置形態。如果AI真的實現“類人語音互動”,一切都將不同。問:程式設計對於OpenAI來說,是一個垂直場景,還是核心戰略?奧特曼:程式設計絕對是我們的核心戰略之一。目前,你向ChatGPT 提問,它返回的可能是文字或圖像。但未來,我們希望它直接返回可運行的程式碼。我們認為,程式設計將成為AI與現實世界互動的主要方式,AI通過寫程式碼呼叫API,實現任務執行。因此,ChatGPT 必須成為世界上最好的程式設計助手。我們的願景是:從“助手”演進為“智能體”,再演化成“完整的應用系統”。這個過程會是連續的、逐步推進的。問:在打造更強大模型的過程中,除了常見的“資料、算力、架構”三要素之外,還有那些關鍵因素被大家低估了?奧特曼:這些基礎要素確實都非常關鍵,但我認為,真正能帶來質變的,是演算法層面的重大突破。我們還可能看到一兩個“數量級等級”的演算法創新(10倍甚至100倍提升),雖然出現的機率不高,但只要出現一次,就將產生巨大影響。問:作為世界頂級機器學習團隊的領導者,你是如何在“放手讓天才研究自己感興趣的課題”和“自上而下推動重點項目”之間取得平衡的?奧特曼:確實有些項目必須高度協調,必須自上而下推進。但我認為很多組織在這方面走得太遠了。我們在創立 OpenAI 時,花了很多時間研究歷史上優秀研究實驗室的運作模式。現代參考案例其實並不多,所以我們主要從歷史中汲取經驗。經常有人問:“為什麼 OpenAI 總能不斷創新,而別的實驗室只是跟隨?”我們其實公開分享過那些經驗與原則,但很多團隊聽完之後,還是更傾向於走自己的老路,結果並不理想。說到底,科學研究本身是可以高效管理的,但前提是你得真正理解“管理”不等於“管死”。問:現在的大模型似乎已經可以幫助研究者解決一些人文學科長期未解的問題,比如藝術周期的變化、系統性偏見等。OpenAI 是否考慮與學術界展開合作,推動這類研究?奧特曼:我們確實設有學術合作項目,核心資源是模型存取權。其實,大多數研究者並不需要完全定製的技術支援,他們想要的是:對通用模型的自由呼叫,或者獲得底層基礎模型的運行權限。好在我們的架構非常適合這類需求。許多學術項目只需標準化API即可完成,OpenAI模型天然適合支援這類探索。雖然我們偶爾會參與一些定製化研究,但我們90%以上的精力,還是集中在提升通用模型能力。這是我們認為最具長期價值的路徑。七、OpenAI真正的野心是“讀懂你一生的AI”問:你怎麼看待模型的定製化?它是過渡方案還是長期路徑?奧特曼:在我理想中的狀態是這樣的:未來會有一個極其輕量、推理能力強大的模型,擁有兆級 token 的上下文窗口。它能夠記住你一生的所有對話、讀過的書、郵件、瀏覽記錄,並持續吸收新增資訊。它無需調整模型權重,僅憑這些上下文資訊就能做出精準推理。當前技術距離這一願景還有相當距離,所有現有方案都只能算是對理想形態的妥協。但我希望最終我們能實現這種純粹由上下文驅動的個性化AI系統。問:你認為未來12個月AI領域的主要價值創造點在那裡?是記憶功能、安全協議,還是智能體與現實世界的連接?奧特曼:歸根結底,價值創造依然集中在三大方向:AI基礎設施建設(更大規模的計算和部署能力)、更聰明的模型、以及將AI納入現實社會結構的“支架”——包括介面、流程和信任機制等。只要持續推進這三項,其他進展自然會跟上。如果細化來看,我認為2025年將是“AI智能體突破年”,尤其在程式設計領域,智能體可能成為主流應用場景之一。2026年或許將成為AI輔助發現新知識的元年,也許AI會參與甚至主導人類歷史上的重要科學發現。長遠來看,一旦人類完成對地球的“擴散與殖民”,經濟增長將主要依賴科學進步與知識的應用落地。我猜測2027年將是AI從“認知層”轉向“物理世界”的關鍵節點,機器人將從探索性項目變為真正的生產力工具。當然,這只是我的直覺式預測。問:GPT-5會不會比我們所有人加起來都聰明?奧特曼:如果你現在還覺得自己比GPT-4聰明很多,那也許還真得加把勁了—— 畢竟GPT-3已經非常強大了。問:你上次來這裡時,剛經歷了OpenAI的“高層風波”。事過半年,有什麼建議可以給創業者,關於“韌性”、“耐力”和“抗壓”能力嗎?奧特曼:作為創始人,你一定會不斷面臨新的挑戰,它們會越來越複雜,賭注也越來越高。但好消息是,你的情緒承受力會不斷增強。即便挑戰更大,處理它們所需的心理能量卻越來越少。你會逐漸變得更“抗打擊”,更擅長應對壓力。問:那一部分最難?是危機爆發當時,還是之後的餘波?奧特曼:其實,最難的不是危機爆發的那一刻。在那個時點,你往往會被腎上腺素驅動,資源和支援也會快速聚集到你身邊,你甚至會“自動進入戰鬥狀態”。最艱難的是風暴過後的恢復期。比如到了第60天,喧囂褪去,你開始清點殘局、重建信心、重新組織團隊——這才是真正考驗心理韌性的階段。很多人關注如何應對“Day 0”的危機爆發,卻忽視了“Day 60”的重建過程。而真正寶貴的能力,是你能在那種低谷中重新站起來。沒有那本書能教你怎麼做,但每經歷一次,你就能變得更強。 (筆記俠)
【Computex】62歲黃仁勳,一鳴驚人
AI行業的一片天,依然由NVIDIA撐著。黃仁勳Computerx開幕演講引爆全球今日,廣受關注的Computex2025(台北國際電腦展)開幕,輝達CEO黃仁勳在開幕演講中,放出了不少“猛料”。首先,黃仁勳宣佈,輝達推出的個人AI電腦DGX Spark已全面投產,將於數周內就緒。DGX Spark  圖源:直播截圖並且,輝達還攜手全球電腦製造商推出“AI優先”的DGX個人計算系統,DGX Spark將搭載輝達GB10超級晶片及張量核心,可以說是“性能怪獸”。同時,預計華碩、戴爾、惠普等業內巨頭今年晚些時候將同步推出DGX Station工作站。這款被稱為 “桌面級AI超算” 的裝置,由輝達超級晶片驅動,將資料中心級算力首次壓縮至150×150×50.5mm的桌上型電腦形態機身內,支援開發者在本地完成大模型的訓練、微調和推理,並實現與雲端算力的無縫遷移。圖源:直播截圖這也意味著,一方面,個人AI算力門檻大幅降低,AI開發正式進入了 “個人時代”。另一方面,輝達AI計算產品線實現了全面升級,為輝達AI生態再添一塊關鍵拼圖。除了個人AI電腦DGX Spark以外,黃仁勳還表示,將聯合台積電、富士康在台灣建立AI超級電腦。AI超級電腦  圖源:直播截圖同時,鴻海旗下工業富聯董事長鄭弘孟表示,鴻海會以輝達GB200和GB300人工智慧晶片平台為核心,在全球打造更多的運算中心。其次,黃仁勳表示:“在物理世界中製造機器人‘不切實際’,必須在遵循物理定律的虛擬世界中訓練它們。”因此,輝達與DeepMind和Disney Research研究合作開發了全球最先進的物理引擎Newton,計畫於七月開源。Newton 圖源:直播截圖Newton完全支援GPU加速,具有高度可微性和超即時操作能力,能夠通過經驗實現有效學習。其正在將該物理引擎整合進Nvidia的ISAAC模擬器,這一整合能夠以真實的方式讓這些機器人“活”起來。再次,黃仁勳還透露,輝達正在將其AI模型應用於自動駕駛汽車,其將與梅賽德斯在全球範圍內推出一支車隊,使用輝達的端到端自動駕駛技術,今年即可實現。接下來,我們來看看晶片方面,黃仁勳有那些重磅宣佈。演講上,黃仁勳表示,輝達將推出NVLink Fusion,透過其讓客戶的客制化CPU 與自家GPU相連,大搶ASIC商機,合作夥伴包括世芯- KY、聯發科、邁威爾、高通、Astera Labs、FUJITSU、Synopsys和Cadence等。以上企業是首批NVLink Fusion的合作夥伴,可實現客制化設計,目前已經IP授權給相關業者。輝達AI工廠 圖源:直播截圖黃仁勳還指出,雲端服務業者(CSP)客戶已經使用自家的CPU、TPU、ASIC或是客制化加速器已一段時間,並建立一個龐大的生態系統,未來若希望將輝達晶片整合進其生態系統,也可以透過NVLink連接,不論是這一代的Blackwell或下世代的Rubin都適合採用該技術。演講的最後,黃仁勳放出了一組NVIDIA新總部的效果圖,宣佈“NVIDIA新總部將落地台灣”。NVIDIA台北新總部黃仁勳將這個新的總部命名為“NVIDIA Constellation”,也就是星座的意思。從效果圖上看,建築風格和NVIDIA全齊總部如出一轍,充滿了科技感和科幻色彩。不過,黃仁勳並未披露它的建築規模、入駐員工數、建成時間等。當然,回到台灣的黃仁勳也並非只為了Computerx。5月17日晚間,他宴請了各大供應鏈高管,包括台積電、聯發科、廣達、華碩、和碩等科技巨頭齊聚一堂。黃仁勳宴請供應鏈高管餐廳為台北敦化北路的“磚窯古早味懷舊餐廳”,這家餐廳也因為黃仁勳第3度在此宴請供應鏈高管,成為了台北人氣餐廳。宴會尾聲,黃仁勳也向媒體透露,這場晚宴是為慶祝輝達最新Grace Blackwell AI系統順利量產,而接下來輝達會在全世界建造AI超級電腦,預示著台灣供應鏈將“會變得非常忙碌”。送台積電董事長魏哲家離開時,黃仁勳還對媒體稱讚台積電,說台積電將不斷打造極限,讓全世界科技公司都成為客戶,是台積電助攻輝達實現AI晶片願景。宴會後黃仁勳接受採訪同時,老黃表示:魏哲家是全世界最優秀的CEO之一、“My Hero(我的英雄)”,他努力工作、為顧客提供服務關心,做的每件事都是在關心台灣。總而言之,正如黃仁勳所言:“AI是新時代的電力”。或許,AI引領的“工業革命”,已經開啟。出口管制下,輝達努力解局當然,在AI晶片蓬勃發展的背後,輝達也正面臨中美科技博弈帶來的一系列棘手難題。為了遏制中國半導體產業的升級,美國政府層層加碼的技術封鎖,今年5月,美國商務部最新聲明,任何國家使用華為昇騰晶片均被視為違反出口管制,而輝達專為中國設計的H20晶片也因性能“超標”被列入禁令清單。這也讓AI晶片巨頭輝達遭受不小的損失:2025年,中國市場的營收佔比從2024年的13%驟降至個位數,其中,僅H20禁令,便導致季度損失55億美元。川普和黃仁勳並且,近日有消息稱,由於美國政府限制Hopper架構的H20晶片出口至中國,輝達正重新審視中國市場戰略,未來Hopper系列晶片不會再推出對華特供版。對此,老黃表示:“不會是Hopper,因為Hopper已無法再調整。”另外,輝達也正尋求減少對大型科技公司的依賴,方法是達成新的合作夥伴關係,將其人工智慧晶片出售給民族國家、企業集團以及微軟、亞馬遜和Google等集團的挑戰者。當然,面對不斷受損的利益,黃仁勳沒有坐以待斃。此前,黃仁勳曾公開發聲,直言美國之前制定的AI擴散規則存在錯誤,他主張AI技術應在全球範圍內實現最大化應用。並且,黃仁勳多次強調中國AI市場的巨大潛力,稱未來兩三年,甚至數年,中國AI市場價值將達到500億美元(約合人民幣3600億元)。他表示,如果輝達無法進入中國,美國等同把3600億AI市場拱手讓給華為。除此之外,輝達還向川普政府承諾,對美國人工智慧資料中心進行新投資,即輝達將在四年內向美國投資5000億美元實現本土製造晶片。同時,輝達正加緊開發另一款符合美國出口規定的對華“特供版”AI晶片,並已通知阿里、字節、騰訊等中國廠商,最快將於今年6月量產出貨。可以說,在美國晶片“緊箍咒”下,黃仁勳正帶領輝達英不斷博弈,尋求突破口。當然,對弈也取得了一定進展,管制“枷鎖”有一定鬆動的趨勢。5月13日,美國商務部正式發佈檔案,宣佈啟動撤銷拜登簽署的《AI擴散規則》的程序。美國商務部撤銷《AI擴散規則》川普政府稱,拜登時期的AI規則過於複雜、官僚,會阻礙美國創新。因此,原計畫5月15日生效的該規則,現被川普政府廢棄,但廢除決定尚未最終確定,且川普政府將採取新的措施,進一步加強對全球晶片出口的管制。近期,輝達也被傳出計畫在上海建研究中心,且已經在上海租賃了新的辦公空間。目前上海市政府已表達對上述計畫的初步支援,而輝達也在遊說美國政府批准。關於該研究中心,據稱將聚焦中國客戶的定製化需求,並參與全球研發項目,涵蓋晶片設計驗證、產品最佳化及自動駕駛技術研究等領域。不過,核心設計和生產仍將保留在海外。輝達表示,我們不會將任何GPU(圖形處理器)設計傳送到中國進行修改以符合出口管制。多方周旋下,關於輝達AI晶片的中國市場動向,仍有多重不確定性。而這種不確定性,有可能會提昇華為等晶片供應商在中國的受歡迎程度。不論如何,讓我們共同等待下一步進展。小米自研晶片也來了提到晶片,還有一則值得關注的消息。今日,雷軍在微博宣佈,小米自主研發設計的3nm製程手機處理器晶片玄戒O1即將亮相。圖源:微博截圖玄戒O1,不是7nm,不是5nm,甚至不是網傳的4nm,而是最頂尖最先進的3nm製程。對此,雷軍表示:“小米晶片已走過 11年曆程,但面對同行在晶片方面的積累,我們只能算剛剛開始。晶片是小米突破硬核科技的底層核心賽道,我們一定會全力以赴。這裡,懇請大家,給我們更多時間和耐心,支援我們在這條路上的持續探索。”玄戒O1也就是說,小米將成繼蘋果、高通、聯發科後,全球第四家發佈自主研發設計3nm製程手機處理器晶片的企業。因此,這顆晶片,事實上不單單是技術突破這麼簡單,在目前格局下,其影響遠比我們想像中大。一方面,這是小米近期的重磅利多消息,換句話說,飽受輿論爭議下,小米“憋了個大招”。另一方面,這是中國大陸地區消費級3nm晶片設計的一次突破,在晶片設計領域,為卡脖子難題的解決方案,再度加碼。總而言之,當下,晶片的意義已不僅是矽基文明的基石,更是人類通向智能時代的“金鑰”。關於半導體行業近在眼前的未來,讓我們共同關注。 (科技頭版)
後DeepSeek時代:六小虎向左,BAT向右
DeepSeek給AI大模型行業,免費贈送了一波國民等級的市場教育,卻也平等地在先行者們頭上,懸起了一把達摩克利斯之劍。其中,AI“六小虎”之中的智譜就是一個縮影,智譜脫胎於清華大學知識工程研究室,素來有“國家隊”之稱。然而就在最近開始頻頻出現融資動作,10天之內補充彈藥達15億人民幣;可與此同時,組織震盪頗有加劇之勢,從一線團隊到高管大牛皆有波及。冰火兩重天的態勢,可謂是目前除了DeepSeek之外,大多數大模型從業者們,真實寫照的一個縮影。2024年底,智譜曾以200億元的估值,完成一輪30億元人民幣的融資,在這之後,包括杭州城投、上乘資本、華發集團等國資背景的資方快馬加鞭地趕到為其注資。不過,也有風投人士對「新熵」分析,DeepSeek的橫空出世還是對智譜的估值造成了一定負面影響,快速拿錢也可能是為了搶下已經出現上漲瓶頸的相對高價。與大開現金糧倉之門形成反差的是,智譜在團隊規模和對外投資上呈現出收縮之勢。高峰期階段的一千餘人團隊,在交付和銷售類股持續進行一定比例的淘汰;高管隊伍中,則有應用AI與合作副總裁李惠子、首席戰略官張闊,以及副總裁曲滕等先後退出。智譜之外,其他“六小虎”成員也都各自或默默或高調地消化著DeepSeek引起的利弊影響,BAT、字節等網際網路大廠同樣出現了路線選擇上的分化,讓這個春天也隱含了一絲返冬的味道。後DeepSeek時代來了DeepSeek猶如一顆投入平靜湖面的巨石,在AI行業掀起了滔天的波瀾,甚至可以誇張點說,其直接改寫了國內大模型的競爭規則。開源大模型DeepSeek-R1以性能比肩GPT-4o、成本僅為十分之一的優勢,迅速成為行業基準線,進而產生出兩個連鎖反應——技術門檻崩塌與B端客戶分流。不少企業開始獨立部署,以及中小硬體廠商抓住機會,快速推出“DeepSeek一體機”,直接衝擊了以智譜為代表的大模型To B私有化部署市場。智譜目前的業務方向雖然對於B端和C端各有側重,但作為CEO的張鵬曾堅定地偏向前者,他坦言稱推C端產品的主要目的,就是為了向B端客戶展示能力。為此,智譜刻意模仿雲廠商建立了一支以區域劃分的銷售團隊,並且挖來了前字節跳動旗下飛書的首席商業官吳瑋傑。另外,擔任副總裁的陳雪松,憑藉過去在AI“四小龍”之一的曠視科技任職經歷,帶動了一大批銷售人才無縫銜接到智譜團隊。在藍海市場的耕耘,使得智譜MaaS平台積累下70萬企業和開發者使用者,2024年的整體商業化收入超過100%;據不完全統計,全年的To B及To G項目的中標數量達32個,披露金額約1.3億元,僅次於科大訊飛和百度。然而,DeepSeek帶來的AI平權,猝不及防地殺到。從深圳市福田區推出70名基於DeepSeek大模型的“AI數智員工”,到上海交通大學宣佈在國產晶片組成的算力叢集上,完成了DeepSeek全系列模型的本地部署,首當其衝被這場AI浪潮席捲的就是政企單位。有統計資料顯示,截至今年2月底,國內98家央企中的45%,皆已經完成了DeepSeek模型的部署。沖在瘋搶政企大模型訂單一線的,不是智譜等大模型先行者,而是更傳統的資料裝置商、算力服務商,以及IT整合商,諸如聯想、中興、浪潮、神州等等。甚至有深圳華強北的中小商家,也開始躍躍欲試。「新熵」從行業人士處瞭解到,部分政企訂單已明確要求“支援DeepSeek介面”。相比BAT等大廠可以卸下心理包袱,選擇自研與開源兩條腿走路的路線,以智譜為代表的“六小虎”們,則必須押注在自家大模型的底層技術能力上。一旦被DeepSeek甩開太多,將失去核心競爭優勢,這也是為什麼資本市場已經開始重新審視閉源大模型的價值。AI六小虎的分化AI行業的競爭異常激烈,本就是一個日新月異的賽道,DeepSeek的強勢登場則進一步加劇了業內的危機意識。“六小虎”中的智譜尚處於前列,一些落後企業受到的衝擊則遠大於行業紅利,逐漸呈現出明顯的分化態勢。據統計,除了與智譜並稱為“北智譜,南階躍”的階越星辰,目前尚未傳出高管離職的消息,其他“六小虎”近一年內都已經有多位高層變動,尤其在進入後DeepSeek時代,離職潮隱隱有著加速的趨勢。比如,百川智能的聯合創始人焦可近期已正式離職,另一位聯合創始人陳煒鵬也即將離開,目前正在辦理相關手續。有消息稱,兩人均已投身AI創業賽道。MiniMax的副總裁、開放平台負責人魏偉,曾在騰訊雲擁有豐富的企業服務經驗,也於年初離職,暫未有更進一步的確認消息。人才隊伍的調整,往往伴隨著業務方向的變化。百川智能如今選擇轉向垂類醫療領域,或許正是基於對自身技術優勢與市場需求的深度挖掘,試圖在特定細分領域深耕細作,以避開與DeepSeek等強大對手的正面競爭。然而,這也意味著其在通用AI大模型市場的競爭力會進一步減弱,市場份額面臨被侵佔的風險。同樣被逼推倒業務模式的還有零一萬物。CEO李開復此前無奈宣佈放棄訓練超大模型,“仰望星空追尋 AGI 需要充足甚至不計代價的彈藥儲備,腳踏實地來看,我們現階段的最高優先順序是先鞏固拿到彈藥的實力。”目前,零一萬物正通過拆分業務“造血”,李開復的態度是“先去找投資人聊,看有沒有人願意投”。不過,在大模型技術快速迭代的背景下,過度專注於應用層的變現,即使是融資困境下的自我救贖,仍不可避免會在技術核心競爭力上與行業領先者逐漸拉開差距,多少有些飲鴆止渴的意思。去年的行業明星月之暗面,也被認為是這波受影響較大的大模型企業。相比於去年在全網管道為Kimi進行的大規模投流,目前被爆出已調整投流戰略,包括暫停多個Android管道的投放,將APP榜首的讓給了近期瘋狂投流的元寶。另一邊,由DeepSeek掀起的開源浪潮中,智譜、MinMax和階躍星辰皆有不同程度的開源基礎,更有跟上腳步的優勢。但是,從DeepSeek公開的程式碼庫內容可以發現,其出於硬體型號上的選擇,更適配輝達的CUDA框架。而從綜合因素考量,未來極大機率會出現一波國產晶片的替代潮,因此在開源這條路上,“六小虎”們並非沒有一點機會。大廠開啟自救行動隨著百度、阿里巴巴、騰訊的最新財報陸續發佈和業績電話會議的召開,AI成為網際網路巨頭們恨不得貼滿全身的標籤。曾經在入局大模型的起跑線上慢人一步的騰訊,成為第一個放下矜持全線接入DeepSeek的代表。除了元寶承接了DeepSeek官網伺服器容量不足外溢出的流量外,騰訊旗下的微信、騰訊文件、QQ瀏覽、騰訊音樂器等C端產品,都迅速地倒戈,絲毫不顧及自家混元大模型的感受。以雲服務為代表的大廠B端業務,更適合接受DeepSeek的“改造”。除了騰訊雲,還有百度雲、阿里雲、華為雲和字節跳動的火山引擎,均在春節假期裡加班加點上線了接入DeepSeek的版本。不過,在“借鑑”了多模型最佳化的演算法實現全面降本增效後,大廠之間的雲戰爭必然會再度加大價格戰力度。國泰君安證券的研報顯示,訓練Deepseek V3(671B參數滿血版)的成本為557.6萬美元(約合4070萬人民幣),僅為Meta公司的大語言模型Llama 3的7%,而OpenAI訓練ChatGPT-4o所花費的成本高達7800萬美元甚至是1億美元,並且還需要上萬張H100晶片。而Deepseek-V3訓練時使用的是性能被閹割過的特供AI晶片——輝達H800。有雲端運算服務商的銷售人員對「新熵」透露,去年全行業掀起的價格戰,明面上都以為是字節、阿里幾個大廠在打頭陣,實際上從下半年開始,DeepSeek在小範圍內釋放出的超低價,更讓大家不能放鬆喘氣。另外,值得注意的是,在由國外AI巨頭曾經倡導的高舉高打邏輯破滅後,大廠們也逐漸回歸到DeepSeek所帶來的彎道超車路線。不管是老巨頭BAT,還是新貴字節,躋身大廠之列就說明已然在一方業務地盤上佔據絕對的優勢,充分利用這一高地再向AI山頭髮起衝鋒,顯然更能事半功倍。比如背靠抖音流量的豆包,就相當有自信地一直堅持未與DeepSeek融合。並且即便如此,也沒有丟掉太多使用者,據QuestMobile資料顯示,截至2025年2月9日,豆包的周日均活躍使用者數為1845萬,僅次於DeepSeek,高於BAT旗下的主力AI應用。對於大廠們來說,開源還是閉源,免費還是收費,在成本側都不會造成太大的負擔,兩邊全都要或者選擇勝率較大的押注即可。而智譜的一邊開源一邊“過冬”,或許會成為國內AI大模型賽道從狂熱走向理性的標誌。DeepSeek的鯰魚效應迫使全行業重新校準技術、資本與市場之間的三角關係。開源不再是理想主義的口號,而是生存的必需品;商業化也不能僅依賴政府訂單或資本泡沫,而需紮根真實場景。當熬過了冬天,春天就不會遠了。 (新浪科技)