#量子計算
a16z 長文:量子計算給加密貨幣帶來那些風險?
關於“能夠對現有密碼體系構成實際威脅的量子電腦”何時到來,人們常常做出誇大的時間預期 — — 從而引發了要求立即、大規模遷移至後量子密碼體系的呼聲。但這些呼聲往往忽略了過早遷移所帶來的成本與風險,也忽略了不同密碼原語所面對的風險畫像完全不同:後量子加密即便代價高昂,也必須立即部署: “先收集後解密”(Harvest-now-decrypt-later,HNDL)攻擊已經在發生,因為當量子電腦真正到來時,即便那是幾十年後,今天用加密方式保護的敏感資料仍然會具有價值。儘管後量子加密帶來性能開銷與實現風險,但對於需要長期保密的資料而言,HNDL 攻擊意味著別無選擇。後量子簽名的考量則完全不同。它不受 HNDL 攻擊影響,而其成本與風險(更大的尺寸、性能開銷、實現尚不成熟以及潛在漏洞)意味著遷移應當是審慎推進,而非立刻實施。這些區別非常重要。各種誤解會扭曲成本收益分析,使團隊反而忽視更關鍵的安全風險 — — 例如漏洞本身。成功邁向後量子密碼體系的真正挑戰,是讓“緊迫性”與“真實威脅”匹配。下面,我將澄清關於量子威脅及其對密碼學 — — 包括加密、簽名與零知識證明 — — 的常見誤解,並特別關注這些問題對區塊鏈的影響。我們目前處於怎樣的時間節點?在 2020 年代出現“對密碼學具有實際威脅的量子電腦(CRQC)”的可能性極低,儘管已有一些引發關注的高調宣稱。ps:對密碼學具有實際威脅的量子電腦/ cryptographically relevant quantum computer,下文都將直接使用簡稱 CRQC。這裡所說的“對密碼學具有實際威脅的量子電腦”,指的是一台可容錯、已糾錯的量子電腦,能夠以足夠規模運行 Shor 演算法,在合理的時間框架內攻擊橢圓曲線密碼學或 RSA(例如,在最多一個月的持續運算內攻破 secp256k1 或 RSA-2048)。根據公開的里程碑與資源評估來看,我們距離這種量子電腦還遙遙無期。儘管一些公司宣稱 CRQC 很可能在 2030 年之前甚至 2035 年之前出現,但公開可見的進展並不支援這些說法。從背景來看,在當前所有架構 — — 離子阱、超導量子位元以及中性原子系統 — — 中,沒有任何量子計算平台接近運行 Shor 演算法攻擊 RSA-2048 或 secp256k1 所需的幾十萬到數百萬個物理量子位元(具體數量取決於誤差率與糾錯方案)。限制因素不僅僅是量子位元數量,還有門保真度、量子位元連通性,以及執行深度量子演算法所必須的、可持續運行的糾錯電路深度。雖然一些系統現在已超過 1,000 個物理量子位元,但單看數量會產生誤導:這些系統缺乏執行密碼學相關計算所需的連通性與門保真度。近期的系統雖已接近量子糾錯開始可行的物理誤差水平,但尚無人展示超過少數幾個具備可持續糾錯電路深度的邏輯量子位元 — — 更不用說運行 Shor 演算法實際所需的上千個高保真、深電路、容錯的邏輯量子位元了。理論上證明量子糾錯可行與真正達到能夠進行密碼破解所需的規模之間,仍存在巨大鴻溝。簡而言之:除非量子位元數量與保真度同時提升幾個數量級,否則“對密碼學具有實際威脅的量子電腦”依然遙不可及。然而,企業新聞稿與媒體報導極易導致誤解。常見的誤區包括:聲稱實現“量子優勢”的演示,但這些演示目前針對的往往是人為構造的問題。這些問題並非因為實用而被選擇,而是因為它們可以在現有硬體上運行,同時看似呈現出顯著的量子加速 — — 這一點常常在宣傳中被刻意弱化。公司宣稱已實現數千個物理量子位元。但這通常指的是量子退火機,而非運行 Shor 演算法攻擊公鑰密碼所需的門模型量子電腦。公司對“邏輯量子位元”概念的隨意使用。物理量子位元本身非常嘈雜,量子演算法需要邏輯量子位元;如前所述,Shor 演算法需要數千個邏輯位元。使用量子糾錯,一個邏輯位元通常需要由數百到數千個物理位元構成(取決於誤差率)。然而一些公司已將該術語濫用到荒謬的地步。例如,某公司近期聲稱通過一個距離為 2 的編碼,用每個邏輯位元僅兩個物理位元就實現了 48 個邏輯量子位元。這顯然不合理:距離為 2 的編碼只能檢測錯誤,不能糾錯。而真正用於密碼破解的容錯邏輯量子位元每個需要數百到數千個物理量子位元,而不是兩個。更普遍地,許多量子計算路線圖中將“邏輯量子位元”用於指代僅支援 Clifford 操作的量子位元。這些操作可以被經典演算法高效模擬,因此不足以運行 Shor 演算法,而後者需要數千個糾錯後的 T 門(或更一般的非 Clifford 門)。因此,即便某條路線圖宣稱“在某一年 X 達到上千個邏輯量子位元”,也並不代表該公司預計在同一年 X 就能運行 Shor 演算法以攻破經典密碼體系。這些做法嚴重扭曲了公眾(甚至包括業內專業人士)對“我們距離真正意義上的 CRQC 有多近”的認知。儘管如此,確實也有一些專家對進展感到振奮。例如 Scott Aaronson 最近寫道,鑑於“當前硬體發展之快速令人震驚”,我現在認為,在下屆美國總統大選之前,我們擁有一台運行 Shor 演算法的容錯量子電腦是種真實可能。但 Aaronson 隨後澄清,他的說法並不意味著一台具備密碼學相關能力的量子電腦:即便一台完全容錯的 Shor 演算法運行只成功分解 15 = 3×5 — — 一個你用紙筆都能更快算出的數 — — 他也會認為其觀點被滿足。這裡的標準仍然只是微型規模的 Shor 演算法執行,而非具有密碼學意義的規模;此前對 15 的量子分解使用的還是簡化電路,而非完整的容錯 Shor。此外,量子試驗持續選擇分解 15 不是偶然:因為模 15 的算術計算極其簡單,而分解稍大一些的數(如 21)就困難得多。因此,一些聲稱分解 21 的量子實驗往往依賴提示或捷徑。簡而言之,預期未來 5 年內出現一台能夠攻破 RSA-2048 或 secp256k1 的量子電腦(這才是密碼學實際關心的)並沒有任何公開進展作為支撐。即便 10 年也仍屬激進預測。考慮到我們與真正密碼學相關的量子電腦之間仍相距甚遠,即便對進展保持興奮,也完全可以與十年以上的時間表並存。那麼,美國政府將 2035 年作為政府系統整體遷移至後量子密碼體系的目標年份又意味著什麼?我認為,這對於完成如此大規模遷移來說是合理的時間表。然而,這並不是對“屆時將出現 CRQC”的預期預測。HNDL 攻擊適用於那些場景(又不適用於那些場景)?“先收集、後解密”(Harvest now, decrypt later,HNDL)攻擊是指攻擊者現在儲存所有加密通訊資料,等待未來某一天當“對密碼學具有實際威脅的量子電腦”出現時,再將其解密。可以肯定的是,國家級攻擊者已經在規模性歸檔美國政府的加密通訊,以便在未來量子電腦真正出現時將其解密。這就是為什麼加密體系必須從今天開始遷移 — — 至少對於那些需要保持 10–50 年以上機密性的主體而言。但數位簽名 — — 所有區塊鏈都依賴的技術 — — 與加密不同:它不存在可被事後攻擊的“機密性”。換句話說,當量子電腦真正到來時,確實會從那一刻起使偽造數位簽名成為可能,但過去的簽名並不像加密消息那樣“隱藏”某種秘密。只要能夠確認某個數位簽名是在 CRQC 出現之前生成的,那麼它就不可能是偽造的。因此,與加密體系相比,向後量子數位簽名的遷移沒有那麼緊迫。主要平台的行動也反映了這一點:Chrome 和 Cloudflare 已在 Web 傳輸層安全(TLS)加密中部署了混合式 X25519+ML-KEM。[在本文中,我為了易讀性將這些稱為“加密方案”,雖然嚴格意義上,TLS 等安全通訊協議使用的是金鑰交換或金鑰封裝機制,而不是公鑰加密。]這裡的“混合式”意味著同時疊加使用一種後量子安全方案(ML-KEM)與一種現有方案(X25519),從而同時獲得兩者的安全性。這種方式希望通過 ML-KEM 阻止 HNDL 攻擊,同時在 ML-KEM 被證明對當下電腦都不安全的情況下,由 X25519 提供傳統安全保證。Apple 的 iMessage 也在其 PQ3 協議中部署了類似的混合式後量子加密,Signal 也在其 PQXDH 與 SPQR 協議中實現了這種機制。相比之下,關鍵 Web 基礎設施向後量子數位簽名的遷移會推遲到“真正逼近 CRQC 出現時”再開始,因為當前的後量子簽名方案帶來了明顯的性能退化(本文稍後會討論)。zkSNARKs — — 即零知識、簡潔、非互動式知識論證,它們是區塊鏈未來可擴展性與隱私性的核心 — — 在量子威脅方面與數位簽名類似。原因在於,即使一些 zkSNARK 本身不具備後量子安全性(因為它們使用與當前加密與簽名相同的橢圓曲線密碼學),其“零知識”性質依然是後量子安全的。零知識性質保證證明不會洩露任何關於秘密 witness 的資訊 — — 即便面對量子攻擊者 — — 因此不存在可被提前“收集”、未來再解密的機密資料。因此,zkSNARKs 不受 HNDL 攻擊影響。正如今天生成的非後量子數位簽名是安全的,只要 zkSNARK 證明是在 CRQC 出現之前產生的,它就是可信的(即證明的陳述一定為真) — — 那怕 zkSNARK 使用了橢圓曲線密碼學。只有在 CRQC 出現之後,攻擊者才可能構造出“看似有效但實際上錯誤”的證明。這對區塊鏈意味著什麼大多數區塊鏈並不會暴露在 HNDL 攻擊之下:大多數非隱私型鏈 — — 例如今日的比特幣與以太坊 — — 主要在交易授權中使用非後量子密碼學,也就是說,它們使用的是數位簽名而非加密。再次強調,數位簽名不會受到 HNDL 攻擊:“先收集、後解密”攻擊只適用於加密資料。例如,比特幣區塊鏈是公開的;量子威脅在於偽造簽名(推導私鑰以盜取資金),而不是解密已經公開的交易資料。這意味著 HNDL 攻擊並不會給當前的區塊鏈帶來立即的密碼學緊迫性。遺憾的是,一些可信機構(包括美國聯邦儲備)在分析中仍然錯誤聲稱比特幣易受 HNDL 攻擊,這種錯誤會誇大向後量子密碼遷移的緊迫程度。不過,“緊迫性降低”並不代表比特幣可以無限期等待:由於協議升級所需的巨大社會協調,比特幣面臨著不同的時間壓力。(下面會更詳細討論比特幣的獨特挑戰。)當前的一個例外是隱私鏈,其中許多通過加密或其他方式隱藏收款人和金額。這類機密性資訊可以被提前“收集”,一旦量子電腦能夠攻破橢圓曲線密碼學,就可能被事後去匿名化。對於此類隱私鏈,攻擊的嚴重程度因鏈的設計不同而異。例如,就 Monero 的基於橢圓曲線的環簽名與 key image(用於阻止雙花的一種每個輸出唯一的可連結標籤)而言,僅憑公共帳本即足以在未來重建整個交易流圖。但在其他隱私鏈中,破壞程度會更有限 — — 詳見 Zcash 密碼工程師兼研究員 Sean Bowe 的相關討論。如果使用者認為“交易在未來不會因量子電腦出現而暴露”非常重要,那麼隱私鏈應盡快遷移至後量子密碼原語(或混合方案)。或者,它們應採用完全不在鏈上放置可被解密秘密的架構。比特幣的特殊難題:治理機制 + 被遺棄的幣對比特幣而言,有兩項現實因素使得開始向後量子數位簽名遷移變得緊迫,而這兩項因素與量子技術本身毫無關係。第一項擔憂是治理速度:比特幣的演進極其緩慢。任何存在爭議的問題,只要社區無法就適當的解決方案達成一致,都可能觸發一次具有破壞性的硬分叉。第二項擔憂是,比特幣切換至後量子簽名無法通過被動遷移完成:幣的持有者必須主動遷移資金。這意味著那些已被遺棄、但仍暴露於量子威脅的幣無法受到保護。一些估計認為,量子脆弱且可能已被遺棄的 BTC 數量高達數百萬枚,以當前價格(截至 2025 年 12 月)計算價值數千億美元。不過,量子威脅並不會讓比特幣出現某種突如其來的“災難性一夜崩塌”……更可能呈現為一種選擇性、逐步展開的攻擊過程。量子電腦不會一次性攻破所有加密方案 — — Shor 演算法必須逐個目標地破解公鑰。早期量子攻擊的成本將極其高昂且緩慢。因此,一旦量子電腦能夠攻破單個比特幣簽名金鑰,攻擊者將優先選擇價值最高的錢包下手。此外,只要使用者避免地址復用,且不使用 Taproot 地址(後者會直接在鏈上暴露公鑰),即便協議本身尚未升級,他們也基本受到保護:其公鑰在花費之前仍隱藏在雜湊函數之後。當他們最終廣播一筆花費交易時,公鑰才變為公開,此時會存在一個短暫的“即時競賽窗口”:誠實使用者需要讓自己的交易盡快確認,而量子攻擊者則試圖在交易確認前找出私鑰並搶先花費這筆幣。因此,真正脆弱的幣,是那些公鑰已暴露多年的:早期 P2PK 輸出、被重複使用的地址、以及 Taproot 持倉。對於那些已經被遺棄的脆弱幣,目前沒有容易的解決方案。可選方案包括:比特幣社區達成共識,設定一個“旗幟日”(flag day),在該日之後所有未遷移的幣視為已銷毀。放任所有已被遺棄且暴露於量子風險的幣任由任何擁有 CRQC 的人奪取。第二種方案會帶來嚴重的法律與安全問題。使用量子電腦在沒有私鑰的情況下佔有資金 — — 即便聲稱是出於合法所有權或善意 — — 在許多司法轄區都會觸及盜竊與電腦欺詐法律。此外,“被遺棄”本身是一種基於不活躍性的假設,但沒有人能確切知道這些幣是否真的失去了擁有金鑰的活躍持有者。即便某人能證明自己曾經持有這些幣,也未必擁有合法權力去破壞密碼保護以“重新取回”它們。這種法律上的模糊性,使得這些被遺棄、且暴露於量子風險的幣極有可能落入無視法律約束的惡意攻擊者之手。比特幣的另一個特殊問題是其極低的交易吞吐量。即使遷移方案最終敲定,要將所有暴露於量子威脅的資金遷移至後量子安全地址,按比特幣當前的交易速率仍需要數月時間。這些挑戰使得比特幣必須從現在開始規劃後量子遷移 — — 不是因為 2030 年之前很可能出現 CRQC,而是因為協調治理、達成共識、以及實際遷移價值數千億美元資金的技術物流,將需要多年才能完成。比特幣面臨的量子威脅是真實的,但時間壓力來自比特幣自身的結構約束,而不是量子電腦的迫近。其他區塊鏈也面臨量子脆弱資金的問題,但比特幣尤其獨特:最早的交易使用 pay-to-public-key (P2PK) 輸出,直接將公鑰暴露在鏈上,使相當大比例的 BTC 暴露於量子威脅之下。其技術歷史,加上鏈齡久遠、價值集中度高、吞吐量低、治理僵化,使得問題格外嚴重。需要注意的是,上述脆弱性只適用於比特幣數位簽名的密碼安全性 — — 並不涉及比特幣區塊鏈的經濟安全性。比特幣的經濟安全來自其工作量證明(PoW)共識機制,而這並不像簽名方案那樣易受量子攻擊,原因有三:PoW 依賴雜湊函數,因此最多隻會受到 Grover 搜尋演算法帶來的二次方量級加速,而不會受到 Shor 演算法帶來的指數級加速。實施 Grover 搜尋的實際開銷極大,使得任何量子電腦在比特幣 PoW 上獲得那怕有限的實際加速,都極其不可能。即便量子電腦真能實現顯著加速,其效果只會讓擁有量子算力的大型礦工相對更具優勢,而不會從根本上破壞比特幣經濟安全模型。後量子簽名的成本與風險要理解為什麼區塊鏈不應該倉促部署後量子簽名,我們需要同時考慮性能成本與我們對於後量子安全性仍在演變中的信心。大多數後量子密碼學基於以下五類方法之一:雜湊(hashing)、碼(糾錯碼)、格(lattices)、多變數二次方程組(MQ)、同源(isogenies)。為什麼會有五種不同的方法?原因是,任何後量子密碼原語的安全性都依賴一個假設:量子電腦無法高效求解某個特定數學問題。問題的結構越“強”,我們就能建構出效率越高的密碼協議。但這是一把雙刃劍:更多結構也意味著更大的攻擊面,演算法更容易被突破。這造成了根本性的張力 — — 更強的假設帶來更好的性能,但代價是潛在的安全漏洞(即假設被證明錯誤的可能性更高)。總體而言,從安全性角度看,基於雜湊的方法最為保守穩健,因為我們最有信心量子電腦無法高效攻擊它們。但它們的性能也是最差的。例如,NIST 標準化的雜湊簽名方案,即使在最小參數設定下,其簽名大小也有 7–8 KB。作為對比,如今基於橢圓曲線的數位簽名只有 64 字節,約小 100 倍。格方案是當前部署的重點方向。NIST 已經選定的唯一加密方案、以及三種簽名演算法中的兩種,都基於格。其中一種格簽名(ML-DSA,原名 Dilithium)在 128-bit 安全等級下的簽名大小為 2.4 KB,在 256-bit 安全等級下為 4.6 KB — — 約為當前橢圓曲線簽名的 40–70 倍。另一種格方案 Falcon 的簽名更小(Falcon-512 為 666 字節,Falcon-1024 為 1.3 KB),但依賴複雜的浮點運算,NIST 自己也將其標記為實現時的重大挑戰。Falcon 設計者之一 Thomas Pornin 稱其為“迄今為止我實現過的最複雜的密碼演算法”。在實現安全性方面,格簽名比橢圓曲線方案困難得多:ML-DSA 包含更多敏感的中間值與複雜的拒絕採樣邏輯,這些都需要側通道和故障攻擊防護。Falcon 更是增加了恆定時間浮點運算的複雜性;已有多個針對 Falcon 實現的側通道攻擊成功恢復私鑰。這些問題帶來的風險是立即存在的,完全不同於“對密碼學具有實際威脅的量子電腦”這種遙遠威脅。對更高性能的後量子密碼方案保持謹慎是有充分理由的。歷史上曾領先的方案,如 Rainbow(基於 MQ 的簽名)與 SIKE/SIDH(基於同源的加密),都被“經典地”攻破了 — — 也就是說,它們被當今的電腦擊破,而非量子電腦。這發生在 NIST 標準化流程已經推進很深的階段。這當然反映了健康的科學過程,但也說明過早標準化與部署可能帶來反效果。如前所述,網際網路基礎設施正在採取慎重方式推進簽名遷移。這一點值得注意,因為網際網路的密碼過渡一旦啟動往往需要多年才能完成。即便 MD5 與 SHA-1 等雜湊函數被網際網路標準機構正式廢棄多年,它們的實際遷移仍持續多年,至今在部分場景仍未完全淘汰。這些演算法是被完全破解的,而非僅僅“可能在未來某天會被破解”。區塊鏈 vs 網際網路基礎設施的獨特挑戰幸運的是,由開源社區維護的區塊鏈(如以太坊、Solana)比傳統網際網路基礎設施更容易快速升級。另一方面,網際網路基礎設施受益於頻繁的金鑰輪換,這意味著攻擊面變化比早期量子電腦能追上的速度更快 — — 而區塊鏈不具備這一點,因為幣及其金鑰可能無限期暴露。但總體而言,區塊鏈仍應借鑑網際網路的謹慎方法推進簽名遷移。兩者都不受簽名類 HNDL 攻擊影響,而過早遷移至尚未成熟的後量子方案的成本與風險,依然顯著,不隨金鑰生命周期長短而改變。此外,區塊鏈還有一些讓過早遷移尤其危險且複雜的挑戰:例如,區塊鏈對簽名方案有獨特需求,特別是對“快速聚合大量簽名”的需求。如今常用的 BLS 簽名因其高效聚合能力而流行,但它們並不具備後量子安全性。研究者正在探索基於 SNARK 的後量子簽名聚合方案。儘管進展可期,但仍處於早期階段。針對 SNARK 本身,當前社區主要關注基於雜湊的後量子結構。但一個重大轉變即將到來:我有信心在未來數月與數年中,格方案將成為極具吸引力的替代路線。它們將在多個維度上提供更優性能,例如更短的證明長度 — — 類似格簽名比雜湊簽名更短。當前更嚴重的問題:實現安全在未來多年內,實現漏洞將遠比“真正威脅密碼學的量子電腦”更現實、更嚴重。對於 SNARK,首要擔憂是漏洞(bugs)。漏洞已經在數位簽名與加密演算法中是主要挑戰,而 SNARK 的複雜度要高得多。實際上,一個數位簽名方案可以被視為一種極其簡化的 zkSNARK,用於證明“我知道與公鑰對應的私鑰,並且我授權了這條消息。”對於後量子簽名,當前真正緊迫的風險還包括實現攻擊,例如側通道攻擊與故障注入攻擊。這些攻擊類型已有大量實證,並能從現實系統中提取私鑰。它們帶來的威脅遠比“遙遠未來的量子攻擊”迫切得多。社區將在未來多年持續識別並修復 SNARK 的漏洞,並加固後量子簽名的實現以抵禦側通道與故障注入攻擊。在後量子 SNARK 與簽名聚合方案尚未穩定成型的階段過早遷移,區塊鏈將面臨將自己鎖定在次優方案中的風險 — — 一旦更好的方案出現或當前方案暴露重大實現漏洞,就可能不得不再次遷移。我們應該怎麼做?七條建議基於前文討論的現實情況,我將以下建議提供給不同的參與者 — — 從開發者到政策制定者。總體原則是:認真對待量子威脅,但不要在“2030 年前必然出現對密碼學構成實際威脅的量子電腦”這一前提下採取行動。目前的技術進展並不支援這一前提。然而,我們現在仍然有許多可以、也應該著手進行的準備工作:1. 立即部署混合加密至少在長期機密性重要且性能成本可接受的場景中。許多瀏覽器、CDN、以及消息應用(如 iMessage 和 Signal)已經部署了混合方案。混合方案 — — 後量子 + 經典密碼 — — 既能抵禦 HNDL 攻擊,又能防範後量子方案本身潛在的弱點。2. 在能容忍大尺寸簽名的場景中立即使用雜湊簽名軟體/韌體更新等低頻率、對大小不敏感的場景應當立即採用混合式雜湊簽名。(混合是為了防範新方案中的實現漏洞,而不是因為雜湊安全性假設存在疑問。)這是保守且穩妥的做法,可以為社會提供一個明確的“救生艇”,以防量子電腦突然提前到來。如果沒有已經部署的後量子簽名的軟體更新機制,那麼在 CRQC 出現後我們將面臨引導問題:無法安全地分發抵禦量子威脅所需的密碼更新。3. 區塊鏈不需要倉促部署後量子簽名 — — 但應從現在開始規劃區塊鏈開發者應學習 Web PKI 的做法,以審慎方式推進後量子簽名的部署。這讓後量子簽名方案有時間在性能和安全理解上進一步成熟。同時,這也給開發者時間重新設計系統,以容納更大的簽名並開發更好的聚合技術。對於比特幣和其他一層鏈:社區需要制定遷移路徑,以及關於量子脆弱且被遺棄資金的政策。被動遷移不可能,因此規劃至關重要。而比特幣面臨的挑戰大多不是技術性的 — — 治理緩慢,以及大量高價值潛在被遺棄的量子脆弱地址 — — 更凸顯了比特幣社區應儘早開始規劃。與此同時,需要讓後量子 SNARK 與可聚合簽名的研究繼續成熟(可能還需要數年)。再次強調,過早遷移可能導致被鎖定在次優方案中,或者在發現實現漏洞後不得不再次遷移。關於以太坊帳戶模型的一點說明:以太坊支援兩種帳戶類型,對後量子遷移有不同影響:由 secp256k1 私鑰控制的外部帳戶(EOAs),以及具有可程式設計授權邏輯的智能合約錢包。在非緊急情境中,當以太坊增加後量子簽名支援時,可升級的智能合約錢包可以通過合約升級切換到後量子驗證 — — 而 EOA 則可能需要將資產轉移到新的後量子安全地址(儘管以太坊也可能為 EOAs 提供專門的遷移機制)。在量子緊急情境下,以太坊研究者提出了硬分叉方案:凍結脆弱帳戶,讓使用者用後量子安全的 SNARK 通過證明自己掌握助記詞來恢復資產。此機制適用於 EOAs 和未升級的智能錢包。對使用者的實際影響是:經過良好審計且可升級的智能錢包可能帶來稍微更順暢的遷移路徑 — — 但差距不大,並伴隨對錢包提供方與升級治理的信任權衡。相比帳戶類型,更重要的是以太坊社區持續推進後量子原語與應急方案。更廣泛的設計啟示:很多區塊鏈將帳戶身份與特定密碼原語緊密耦合 — — 例如比特幣和以太坊都繫結 secp256k1,其他鏈繫結 EdDSA。後量子遷移的困難凸顯了將帳戶身份從特定簽名方案中解耦的價值。以太坊向智能帳戶(smart accounts)的演進,以及其他鏈的帳戶抽象趨勢,都體現了這一方向:允許帳戶升級其認證邏輯,同時保留鏈上歷史與狀態。這不會讓後量子遷移變得簡單,但比起將帳戶固定在單一簽名方案上,靈活性顯著提升。(這也啟用其他功能,如代付交易、社交恢復、多簽等。)4. 對隱私鏈來說,只要性能允許,應優先推進遷移這些鏈對交易細節進行加密或隱藏,因此使用者隱私目前暴露於 HNDL 攻擊 — — 儘管嚴重程度因設計而異。那些僅憑公共帳本即足以完全事後去匿名化的鏈風險最高。可以採用混合方案(後量子 + 經典)以防後量子方案本身被證明在經典場景下也不安全,或採用架構改造避免把可解密的秘密放在鏈上。5. 近期優先關注實現安全 — — 而不是量子威脅緩解尤其對於 SNARK 和後量子簽名這種複雜原語,漏洞與實現攻擊(側通道、故障注入)將在未來多年內遠比 CRQC 更現實、更緊迫。現在就應該投入審計、模糊測試、形式化驗證、以及多層防禦等工作 — — 不要讓對量子威脅的擔憂蓋過漏洞這一更緊迫的真實威脅!6. 支援量子計算發展從國家安全形度看,我們必須持續投入量子計算的研發與人才培養。如果主要對手國家比美國更早實現 CRQC,將對美國及全球帶來嚴重的國家安全風險。7. 對量子計算相關公告保持正確視角隨著量子硬體成熟,未來幾年會出現大量里程碑式新聞。矛盾的是,這些新聞的頻繁出現本身就是我們距離 CRQC 仍相當遙遠的證據:每個里程碑都只是通往最終目標的眾多橋樑之一,而每座橋樑的跨越都會引發一波媒體關注與興奮。應將新聞稿視為需要批判性評估的進度報告,而不是要求立即行動的訊號。當然,未來可能出現意外突破,加速時間表;也可能出現嚴重瓶頸,拖慢時間表。我要強調的是:我並不認為在五年內出現 CRQC 是“絕對不可能”,只是“極不可能”。以上建議對這種不確定性具有穩健性,並且可以幫助我們避免那些更直接、更現實的風險:漏洞、倉促部署,以及密碼遷移中常見的各種錯誤。Justin Thaler 是 a16z 的研究合夥人,也是喬治城大學電腦科學系的副教授。他的研究方向包括可驗證計算、複雜性理論,以及大規模資料集的演算法。 (吳說Real)
5 分鐘 = 10²⁵年!Google Willow 量子晶片炸場:破解 30 年技術難題,量子計算邁入實用化前夜
當人類還在為宇宙 138 億年的年齡驚嘆時,Google的一款量子晶片已經刷新了 “速度天花板”——Willow 晶片僅用 5 分鐘,就完成了當前最快超級電腦需要 10²⁵年才能搞定的計算任務。這一突破不僅讓量子計算的 “算力碾壓” 成為現實,更破解了困擾學界近 30 年的量子糾錯難題,標誌著全球量子計算從實驗室走向實用化邁出關鍵一步。一、核心突破:兩大 “全球之最” 改寫量子計算規則1. 算力鴻溝:5 分鐘完成超算 10²⁵年工作量Google在隨機電路採樣(RCS)基準測試中,用 Willow 晶片創造了史無前例的算力差距。這款搭載 105 個物理量子位元的晶片,在不到 5 分鐘內完成了一項複雜計算任務,而作為對比,當前全球頂級超級電腦 Frontier 即便全速運行,也需要耗費 10²⁵年 —— 這個時間是宇宙年齡的 700 多萬倍,遠遠超出人類已知的時間尺度。隨機電路採樣是量子計算領域的 “性能試金石”,專門用於檢驗量子電腦是否能完成經典電腦無法企及的任務。Willow 的表現不僅遠超上一代晶片,更讓量子計算的 “指數級加速” 從理論落地為現實。2. 糾錯革命:30 年難題終被攻克量子位元的 “脆弱性” 一直是行業痛點 —— 量子位元數量越多,越容易受環境干擾產生錯誤,導致計算失效。而 Willow 首次實現了 “低於閾值” 的量子糾錯能力:隨著物理量子位元陣列從 3×3 擴展到 5×5 再到 7×7,邏輯錯誤率不僅沒有增加,反而持續減半。這一突破的關鍵在於Google採用的表面碼糾錯技術,通過將資訊分佈到多個量子位元上,建構出 “即時糾錯安全網”,能在錯誤影響計算結果前就完成修復。更重要的是,Willow 的邏輯量子位元壽命比單個物理量子位元更長,真正實現了 “糾錯越徹底,性能越穩定” 的良性循環。二、硬核參數:105 個量子位元的 “精準進化”Willow 的成功並非單純追求量子位元數量,而是在 “質量與規模” 之間找到了最佳平衡點:量子字節態:105 個物理量子位元,採用 2D 網格架構,適配表面碼糾錯的工程實現需求;相干時間:量子位元保持量子狀態的時間達到 100 微秒,是上一代晶片的 5 倍,為長周期複雜計算提供了基礎;系統穩定性:可在接近絕對零度的低溫環境中,穩定運行最多 100 萬個計算周期,同時即時解碼錯誤並維持高性能;製造工藝:在Google聖巴巴拉專屬量子製造設施中打造,從晶片架構到門電路校準實現全流程最佳化,確保各元件高效協同。三、技術原理:量子計算為何能實現 “超時空加速”普通讀者可能對 “量子優勢” 感到抽象,其實核心在於兩大量子特性的突破應用:量子疊加:一個量子位元可同時表示 0 和 1 兩種狀態,105 個量子位元就能同時處理 2¹⁰⁵種可能 —— 這個數量遠超宇宙中所有原子的總和,讓平行計算能力實現指數級提升;量子糾纏:多個量子位元形成 “超距關聯”,即便相隔遙遠也能同步狀態,配合即時糾錯技術,讓大規模量子計算的穩定性從 “不可能” 變為 “可能”。簡單來說,經典電腦解決複雜問題需要 “逐個嘗試所有路徑”,而量子電腦能 “同時探索所有可能”,再通過糾錯技術篩選出正確答案,這就是 Willow 能實現算力碾壓的核心邏輯。四、全球競爭:量子賽道的 “雙雄並跑”Willow 的發佈,讓全球量子計算競爭進入白熱化階段。有趣的是,中國中科大潘建偉團隊同期推出的 “祖沖之三號” 量子晶片,同樣搭載 105 個量子位元,形成了 “雙峰並峙” 的格局:Google Willow:主打 “糾錯優先”,突破可擴展性瓶頸,為大規模量子電腦奠定基礎;祖沖之三號:側重 “位元質量”,單門保真度達 99.90%,在特定計算任務中實現 10¹⁵倍加速,性能表現同樣強悍。兩者的技術路線雖有差異,但都證明 105 個量子位元是當前超導量子計算的 “黃金數量”—— 既能支撐核心技術突破,又能控制系統複雜度,為後續商用化提供了可行方案。五、未來應用:從實驗室走向千行百業的想像空間隨著糾錯難題的破解和算力的爆發式增長,Willow 為量子計算的商用化打開了廣闊前景:藥物研發:精準模擬分子結構和化學反應,將新藥研發周期從 10 年縮短至 1-2 年;新能源突破:最佳化電池材料設計、模擬核聚變反應,助力高效清潔能源技術落地;人工智慧:為大模型訓練提供超算級算力支援,突破當前 AI 的算力瓶頸;密碼學:推動後量子密碼技術發展,建構更安全的網路通訊體系。Google量子 AI 負責人哈特穆特・內文直言:“Willow 是迄今為止最可信的可擴展邏輯量子位元原型,讓我們離解決現實世界問題的實用量子電腦越來越近。”六、行業影響:量子計算邁入 “實用化倒計時”Willow 的突破不僅是Google的技術勝利,更將推動全球量子計算產業加速發展。當前,Google已開放開放原始碼軟體和教育資源,邀請全球開發者參與量子演算法創新;而隨著量子糾錯技術的成熟,量子電腦的規模有望在未來 5-10 年內從百級量子位元擴展至千級、萬級,真正實現 “量子計算即服務” 的商業化模式。從 Sycamore 到 Willow,從 “量子優勢” 到 “實用可期”,量子計算正在以遠超預期的速度改變世界。這場由Google引領的技術革命,不僅將重塑科技競爭格局,更將為人類解決能源危機、疾病難題、氣候挑戰等全球性問題提供全新工具。 (大視覺小傳達)
量子計算突破!中國突破多光子糾纏難題!
中國科學技術大學科研團隊在量子資訊研究領域取得重要進展,成功實現了光子貝爾態製備數量的世界紀錄,為大規模量子計算與量子網路的研究奠定了關鍵技術基礎。這一成果由中國科學院院士潘建偉領導的團隊完成,相關論文已於2025年11月17日在國際權威學術期刊《自然·光子學》上發表。研究團隊通過設計新型非線性干涉儀與最佳化參量下轉換過程,顯著提升了糾纏光子的產生與收集效率。實驗中,團隊在每秒內可製備超過1700萬對糾纏光子對,這一資料較以往國際公開報導的最高水平提升了一個數量級。值得注意的是,團隊所製備的糾纏光子不僅數量大,其糾纏保真度也穩定保持在98%以上,體現出系統的高純度和高穩定性。貝爾態是量子糾纏的核心資源態,在量子通訊、量子計算與量子精密測量中具有重要作用。例如,在光學量子計算中,貝爾態的規模直接決定了量子位元的連通能力和計算潛力;在量子網路中,高品質的糾纏光源是實現遠距離量子態傳輸與分佈式資訊處理的關鍵。本研究通過技術路徑的創新,在不對光子路由與探測提出極端要求的條件下,實現了多光子貝爾態的高效製備,為後續可擴展量子系統的建構提供了更加可行的實驗方案。業內專家指出,該成果標誌著中國在量子光源與糾纏操控方面已處於國際領先地位。高效率、高保真度的糾纏光源不僅有助於推動基礎科學研究,如量子非定域性檢驗和多體糾纏成像,更將在量子金鑰分發、分佈式量子計算等未來技術邁向實用化的過程中發揮支撐作用。研究團隊表示,下一步將致力於該系統的晶片化整合探索,並進一步與量子儲存等技術結合,推動量子資訊處理能力的整體提升。隨著量子科技逐漸步入實際應用,此類核心器件的突破將持續為中國在量子科技領域的可持續發展注入創新動力。 (晶片行業)
擊潰加密貨幣的量子威脅?
比特幣的量子清算日或許尚需數年,但恐慌已然降臨。Google、加州理工與 IBM 的突破性進展,重新點燃了關於"Q-Day"迫近的辯論:量子電腦或將破解守護比特幣與去中心化金融的密碼體系。然而專家警告,真正的危險可能首先源於人性而非演算法。在市場恐慌、過度反應與開發者遲緩應對的疊加下,信心崩塌或許遠在密碼體系實際失效前就會發生。恐慌蔓延快於數理推演在加密世界,恐慌的傳播速度永遠快於理性。市場雖由程式碼驅動,但價格仍由情緒主導。後量子密碼公司 BOLTS Technologies 創始人 Yoon Auh 指出,上月市場閃崩事件顯示,即便只是關於量子電腦破解比特幣的誤傳,也可能引發連鎖反應。Yoon Auh 表示:“加密貨幣市場剛經歷小幅閃崩。一場在傳統市場中微不足道的 5000 萬至 1 億美元拋售,竟導致區塊鏈資產全線重挫。這揭示出系統依然何等脆弱。”本月早些時候,川普一則對中國進口商品徵收 100% 關稅的帖文,引發史上最大單日加密貨幣清算潮。隨著比特幣短暫跌破 10.2 萬美元,190 億美元槓桿頭寸瞬間蒸發。Yoon Auh 警告量子恐慌可能引發相同動態:"設想有人宣稱'橢圓曲線密碼現可被破解,或許非立時奏效,但已為時不遠'。所有人都會奪路而逃,系統將陷入自我踩踏。"行業早有前車之鑑。2017 年,4Chan 論壇一則關於以太坊創始人 Vitalik Buterin 死亡的虛假帖文,在交易員識破騙局前已抹去數十億美元市值。這場拋售彰顯:當資訊傳播超越驗證速度時,信任體系會如何急速崩塌。量子時間軸:現實節點量子電腦的運行原理完全不同於經典計算。以可同時處於多重狀態的量子位元替代非 0 即 1 的經典位元,當量子位元形成"糾纏"特性時,即可同步處理海量可能性。該特性使得因數分解與離散對數等特定數學問題的求解效率呈指數級提升。1994 年數學家彼得·肖爾證實,足夠強大的量子電腦理論上能破解從信用卡到比特幣錢包的全部加密體系。比特幣依賴的橢圓曲線密碼學,通過易於計算卻幾乎不可逆的方程將私鑰轉化為公鑰。而具備足夠規模的量子電腦通過運行肖爾演算法即可逆轉該過程,暴露區塊鏈上任何已公開公鑰對應的私鑰。比特幣採用的 secp256k1 系統運用此類橢圓曲線方程生成並驗證簽名。能執行此類計算的量子電腦可復原與公開公鑰關聯的私鑰並清空錢包。一個 256 位橢圓曲線金鑰提供的經典安全性,約等同於 3072 位 RSA 金鑰(以當今標準衡量堪稱固若金湯)。目前該威脅仍停留於理論層面。全球最大量子處理器—— IBM 的 1121 位"禿鷹"與加州理工超 6000 位中性原子陣列,距離產生數千個容錯邏輯量子位元所需的百萬級物理量子位元仍遙不可及。現有研究指出,破解比特幣橢圓曲線加密需約 2000 至 3000 個邏輯量子位元。實現該目標預計還需十年以上,儘管 IBM 與Google的樂觀預測將此類機器的出現時間定於 2030 年代早中期。蘭德公司物理學家 Edward Parker 表示:"量子對密碼學的威脅真實且嚴峻。有人認為量子電腦永難威脅加密,這或許成立。但風險足以讓我們必須未雨綢繆。"這種審慎警告常在網路傳播中被扭曲,本為激發討論與準備的警示,反而助長了"量子末日"的誇張論調。美國已率先行動。2022 年《第 10 號國家安全備忘錄》總統令要求聯邦機構啟動後量子加密升級。這是跨部門長期協調的罕見案例。Edward Parker 引用密碼學家 Michele Mosca 2023 年主導的研究,指出密碼學意義量子電腦出現時間中值估計約為 2037 年。研究科學家 Ian MacCormack 認同公眾恐懼已超越技術實際能力。"量子電腦遠未強到能破解 RSA-2048 或任何具實際規模的加密。降低錯誤率並整合數千量子位元實現實用化,需要時間、資金與反覆試錯。"MacCormack 指出量子計算的神秘光環放大了恐懼。"人們聽聞量子計算,覺得它如神明般深不可測。但拋開其潛力,這本質是項極困難的工程難題。開發抗量子加密的處理程序,幾乎註定快於建造能破解現行加密的量子電腦。"Coin Metrics 聯合創始人、Castle Island Ventures 合夥人 Nic Carter 近期稱量子計算為"比特幣最大風險"。他在《比特幣與量子問題》一文中指出,近四分之一比特幣(約 400 萬枚)存於已暴露公鑰的地址,理論上在實用量子解密問世時極易受攻。對比特幣數學體系不可破性的信心,恐遠在數學本身被破解前就已崩塌。建構抗量子比特幣儘管威脅尚遠,專家指出行動窗口就在當下(但這取決於廣泛協作)。後量子網路安全公司 QuSecure 聯合創始人兼 CEO Rebecca Krauthamer 表示下一步很明確:必須淘汰橢圓曲線密碼學。需用後量子標準化演算法如 ML-DSA 取而代之。ML-DSA(模組格基數位簽名演算法)是美國國家標準技術研究院制定的新型後量子密碼標準。它建立在格基數學之上,該密碼學分支將資訊隱藏於多維數字網格中。破解這些網格需解決"容錯學習"問題,即便強大量子電腦也無法高效求解,使得 ML-DSA 遠比比特幣現行橢圓曲線系統更難破解。目前僅少數區塊鏈真正實現抗量子,多數仍在適應後量子密碼學。抗量子帳本專為量子安全設計,採用 NIST 標準化的 XMSS 基於雜湊簽名方案。Cellframe 與 Algorand 使用 NIST 套件中的格基演算法(Crystals-Dilithium、FALCON 與 NTRU),可在標準演進時靈活模組化升級。IOTA 在其"纏結"網路中依賴 Winternitz 一次性簽名,保護交易免受量子金鑰復原威脅。Nervos 網路以混合模式整合經典與格基系統,支援逐步遷移至後量子安全。比特幣、以太坊、Cardano 及 Solana 等主流公鏈仍處於過渡階段。以太坊 3.0 路線圖包含後量子簽名的積極研究與測試網,而比特幣的模組化 Taproot 與 Schnorr 升級為未來整合量子安全密碼學奠定基礎。此類升級技術上可行,但政治層面複雜。比特幣安全模型依賴礦工、開發者與節點的全網共識。任何密碼學變更都需分叉實現,且需經年累月的討論與測試。Rebecca Krauthamer 指出:"量子計算聽來抽象,但解決方案出奇直接。我們已掌握數學工具,政府正強制推行量子安全標準,金融業自會跟進。難點在於如何在危機來臨前喚起重視。"多數專家建議最穩妥路徑是漸進式。通過新地址類型或混合簽名新增後量子支援,引導託管方與錢包對新資金應用該標準,逐步遷移舊有錢包。這可避免全員同步更換金鑰引發的混亂。此類情景對信心的摧毀速度恐遠超真實量子攻擊。比特幣貢獻者已在開發者論壇探討後量子簽名與混合方案。挑戰不在尋找演算法,而在決策部署時機與方式。治理困境德克薩斯大學奧斯汀分校電腦科學教授 Scott Aaronson 指出,比特幣去中心化模式會使升級舉步維艱。"以太坊等多數公鏈可在危急時自主遷移至抗量子密碼,但比特幣需多數礦工同意分叉。並且約千億美元價值的早期代幣仍僅受 ECC 保護。"這種缺乏中心權威的特性可能延緩處理程序,倉促實施或致網路分裂。不過不少比特幣開發者主張,一旦可行升級路徑出現,共識自會圍繞有效程式碼形成。以太坊與 Solana 擁有更靈活治理機制,適應速度可能更快。比特幣的審慎雖使其免於錯誤決策,但同等保守性也令重大變革難以推行。Q-Day 究竟多遠?當前原型機量子位元數僅達千級,而非穩定可擴展攻擊所需的百萬級糾錯量子位元。足以破解比特幣加密的量子電腦尚未問世。此前,Google宣佈量子研究新里程碑:其 105 量子位元"柳樹"處理器用兩個多小時完成物理模擬,而"前沿"超級電腦需耗時三年以上。該實驗動用 23 電路層的 65 個活躍量子位元,實現中值雙量子位元門誤差約 0.0015。此舉標誌可驗證的量子加速,但對加密不構成威脅。即便視量子計算為長期威脅的研究者,也承認真實風險仍在數年之外。密歇根大學電腦科學與工程教授 Christopher Peikert 表示:"我認為量子計算有合理機率,例如超過5%,成為比特幣及其他加密貨幣重大甚至存亡攸關的長期風險,但這在未來數年內尚非真實威脅。量子計算的技術與工程距離威脅現代密碼學仍道阻且長。"Christopher Peikert 補充道,更棘手在於後量子系統部署後的性能表現。"後量子簽名使用的金鑰大得多。由於加密貨幣依賴大量簽名處理交易與區塊,轉向後量子或混合簽名將顯著增加網路流量與區塊體積。"關於近期防護,Christopher Peikert 認為最佳緩釋策略在於行為模式而非技術手段。"短期應避免在公開網路暴露公鑰,除非絕對必要,並縮短金鑰有效期。長期而言,核心協議需審慎升級,為關鍵功能與資產引入後量子密碼學。"業界共識是量子計算短期內不會破解比特幣。 (奔跑財經)
量子AI,晶片的新解藥
量子AI 助力,半導體供應鏈韌性升級。幾十年來,矽一直是電腦發展的主要驅動力,但摩爾定律如今已接近極限。隨著對晶片速度和能效要求的不斷提高,由於供應短缺和地緣政治緊張局勢,供應鏈面臨的壓力前所未有。這就是人工智慧和量子計算發揮作用的地方。這並非科幻小說;它們正在幫助發現新的半導體材料,並最佳化晶圓廠的生產計畫。這可以縮短交貨周期,降低風險,並打造更具韌性的供應鏈。對於工程師和採購團隊來說,資訊很簡單:要想在晶片領域保持領先地位,很快就需要同時利用量子計算和人工智慧。量子計算和人工智慧在半導體創新中的融合量子計算使用量子位元,與經典位元不同,量子位元可以處於疊加態,同時表示0和1。這使得量子處理器能夠處理經典電腦難以完成的複雜模擬,例如模擬新型半導體材料中的原子級行為。人工智慧增強了這種能力。通過將預測分析應用於量子模擬,機器學習模型可以識別有前景的候選材料,預測其性能,並提出調整建議。這使得原本緩慢的試錯過程轉變為可執行的洞察,從而節省了數年的實驗室工作。以Google的Willow處理器為例。它是Sycamore的後續產品,雖然並非完全為材料研究而設計,但它展示了量子系統如何擴展並減少誤差。當與機器學習相結合時,它為晶片創新至關重要的材料特性提供了前所未有的視角。正如Anima Anandkumar 指出的那樣:“人工智慧幫助我們將量子模擬的原始複雜性轉化為工程師實際可以使用的見解。”—— Anima Anandkumar,加州理工學院教授兼輝達人工智慧研究高級總監。人工智慧和量子計算的結合,正在為晶片設計奠定一種全新的基礎。人工智慧驅動的材料科學:營運和市場影響在發現新型半導體材料時,原子級精度至關重要。人工智慧驅動的量子模型可以模擬石墨烯、氮化鎵或鈣鈦礦等材料中的電子行為。這使得研究人員能夠在進行實驗室測試之前評估材料的導電性、能量效率和耐久性,從而極大地加快材料鑑定速度。實際影響顯著。傳統上,材料驗證需要數年時間,但早期研究表明,驗證時間可以縮短30%至50%。這使得晶圓廠能夠更高效地營運,使生產與新技術同步,並最大限度地減少閒置時間。市場壓力進一步加劇了這一局面。在2021年的短缺期間,交貨周期從大約12周延長至一年以上。借助人工智慧,企業可以預測供應鏈中斷並主動調整採購策略。量子模擬還能擴大可用材料的範圍,從而減少對單一供應商或高風險地區的依賴。圖1. 半導體交貨周期從2020年的12周飆升至2022年的30周以上,之後有所緩解。人工智慧與量子技術的融合可以通過實現預測分析和多元化採購來幫助穩定這些波動。投資回報令人矚目。德勤指出,將人工智慧融入研發和供應鏈營運的企業,效率提升幅度可達兩位數,這主要得益於產量預測的改進和停機時間的減少。Google的量子研究團隊已證明,人工智慧驅動的模擬可以在幾周內將有前景的材料從數千種縮減到幾種,而使用傳統計算方法通常需要數年時間。研發周期的顯著縮短從根本上改變了競爭格局。為採購和供應鏈領導者提供戰略洞察對於採購和供應鏈領導者而言,這不僅僅是一次技術升級,更代表著一項真正的戰略優勢。人工智慧驅動的量子工具能夠最佳化交付周期,從而實現更精準的供應商合同,並減少對過剩庫存的需求。預測分析還能幫助團隊在潛在風險影響晶圓廠或延誤客戶交付之前識別它們。供應鏈韌性也得到提升。當人工智慧引導的量子模擬確認可以從不同地區採購的替代半導體時,採購團隊就能降低地緣政治風險或自然災害帶來的影響。這種方法與美國《晶片與科學法案》和歐盟《晶片法案》等國家倡議相契合,這兩項法案都旨在促進更強大的本地化生產和更具韌性的採購策略。量子人工智慧建模提供了驗證這些替代供應管道所需的必要技術保障。“短期內,人工智慧行業的上升趨勢顯而易見,但那些能夠有效管理供應鏈、吸引並留住人才的公司,才能更好地把握人工智慧蓬勃發展帶來的機遇並從中獲益。”——畢馬威全球技術主管馬克·吉布森圖2. 採用人工智慧增強型半導體營運的公司獲得了顯著更高的投資回報率,諮詢研究報告顯示,與傳統營運相比,效率提高了兩位數。歸根結底,成功整合這些技術的公司不僅能更快地將產品推向市場,還能在當今瞬息萬變的全球市場中獲得真正的競爭優勢。在半導體行業,幾周的延誤就可能造成數十億美元的收入損失,因此,敏捷性對於生存至關重要。未來展望:量子人工智慧對半導體製造的影響規模化展望未來,下一個重大發展方向似乎是全端式量子人工智慧設計。試想一下,量子處理器運行全晶片模擬,而人工智慧則負責最佳化其速度、效率和可製造性。雖然我們尚未完全實現這一目標,但光子電路和自旋電子元件的逐步進步已經產生了切實可見的成果。對於製造團隊而言,挑戰在於如何保持供應鏈的靈活性。隨著新材料從模擬階段過渡到試生產階段,採購和製造團隊必須協調一致地擴大規模。如今的量子處理器並不完美,它們在量子位元數量、錯誤率和可擴展性方面仍然存在侷限性,但如果進展持續,未來十年內有望出現實際的工業應用。現在就開始規劃、制定路線圖並建立戰略合作夥伴關係的公司將獲得顯著優勢。結論目前,半導體行業正處於一個關鍵的轉折點。將人工智慧的預測能力與量子計算的原子級洞察力相結合,可以加速產品發現,縮短研發周期,並顯著增強供應鏈的韌性。對於工程師和採購負責人而言,資訊很明確:採用人工智慧與量子計算的融合不僅僅關乎技術,更關乎保持競爭力。矽晶片的下一個重大突破並非偶然,而是需要借助人工智慧和量子計算進行精心設計、最佳化和工程打造。 (半導體產業縱橫)
【GTC】不止AI,而是人類文明施工圖!輝達凌晨炸場!從6G、量子計算、核聚變到機器人...老黃在下一盤什麼棋?
01. AI正在從“演算法革命”進入“能源革命”算力正成為新的電力,GPU是發電機,智算中心是電廠——這是一場人類經濟底座的重構;02. 輝達的發佈會,其實是人類文明的施工圖黃仁勳在描繪未來十年的基礎設施:從晶片到6G,從量子到AI工廠,從虛擬到現實;03. AI投資的下半場,屬於“供電的人”最值得關注的不再是模型概念,而是能持續供給算力、連線到網路、落地產業的公司。美東時間10月28日,輝達CEO黃仁勳在華盛頓登台,開啟了今年第二場GTC大會。這次,他沒有專注講某一代GPU,而是展開了一場更像“AI文明宣言”的演講。從6G、量子計算、核聚變、機器人到自動駕駛,黃仁勳幾乎描繪出AI產業的全景——一張從算力到通訊、從網路到產業應用的基礎設施地圖。如果說ChatGPT開啟了AI時代的“應用元年”,那麼輝達這次GTC,則宣告了AI進入基礎設施時代。他明確反駁“AI泡沫論”——“客戶在為AI服務付費,這證明昂貴的計算基礎設施是有商業價值的。”這句話的含義其實遠超業績表態。黃仁勳在定義一個新範式:AI正在成為一種能源系統。算力是燃料,GPU是引擎,演算法是管道,產業是終端。輝達要做的,不是晶片公司,而是AI文明的供電公司。輝達究竟在下怎樣一盤大棋?(1)能源層:算力成為新的“電力”黃仁勳表示,輝達的Blackwell GPU已在美國亞利桑那實現量產。未來五個季度,公司預計出貨2000萬塊晶片,訂單金額高達5000億美元。這意味著,算力的生產規模正在接近能源產業的體量。更具象徵意義的是,美國能源部已將輝達納入其AI超算體系——計畫建造Solstice和Equinox兩台AI超級電腦,總計配置超過11萬塊GPU,總算力2200 ExaFlops。這不僅是科研項目,更是能源體系的重構。也意味著,AI不再是消費電子,而是戰略能源。未來,算力會像電一樣被度量、調度和交易。對中國投資者而言,這代表AI硬體周期的延長。AI伺服器、散熱系統、光模組、功率半導體、液冷裝置等環節,將繼續受益於“算力工業化”的趨勢。AI的第一層機會,不在概念,而在基建。(2)網路層:AI的通訊革命與量子融合如果說算力是AI的能源,那麼通訊網路就是它的血管系統。在GTC大會上,輝達宣佈與諾基亞達成10億美元合作,推出面向6G時代的AI-RAN平台Aerial RAN Computer(ARC)。這意味著未來的無線網路將不再是“訊號通路”,而是“AI通路”。AI原生網路的出現,讓移動通訊、邊緣計算和算力中心的邊界被打通。AI不再僅僅“算得快”,而是“連得上”。與此同時,輝達推出的NVQLink,讓GPU與量子電腦實現高速互聯。17家量子廠商、9個美國國家實驗室已經宣佈接入這套系統。這是一種新的“混合算力形態”:GPU承擔大規模平行任務,量子計算處理高複雜度演算法,AI的“能效比”因此被重新定義。對於資本市場,這一層的投資主線是“算網融合”。光通訊、GPU互聯裝置、邊緣AI計算節點、網路安全體系,將成為AI網路化時代的關鍵環節。(3)應用層:AI工廠、機器人與產業落地黃仁勳提出了一個新概念——AI工廠。它不是比喻,而是一個真實存在的基礎設施。BlueField-4處理器支援800Gb/s吞吐量,可為AI工廠提供作業系統級算力支撐。在這個體系裡,AI模型被看作生產線,資料是原材料,GPU是機器裝置。輝達與Palantir合作,將GPU計算力嵌入企業資料平台,建構“決策智能系統”;與禮來合作,在製藥業部署上千塊Blackwell Ultra GPU,打造生物研究的AI超級計算平台——縮短藥物研發周期、擴大實驗規模。輝達還牽手Uber、Stellantis和奔馳,計畫到2027年部署10萬輛Robotaxi。這是一張完整的落地路徑圖——從科學研究到工業決策,從藥物研發到城市交通,AI正在被“產業化量產”。對投資者來說,這意味著AI不再是網際網路的“附屬故事”,而是製造業、醫療、能源的新引擎。AI製藥、AI製造、AI安全、自動駕駛,將是接下來幾年最具確定性的落地方向。我們的投資機會在那裡?黃仁勳這次GTC大會,把AI從“軟體創新”拉回了“能源革命”的軌道上。他的底層邏輯其實非常樸素——AI不是消費產品,而是新工業體系。當算力成為能源,AI的競爭將不再是演算法速度,而是能源供給能力。中國的“AI文明基建”正在同步展開。從“東數西算”到各地智算中心、從AI晶片到AI工廠,中國正建構一條屬於自己的算力產業鏈。如果說輝達展示的是全球範本,那麼中國市場對應的投資機會,可以分為三條主線:(1)算力硬體:AI的能源底座這一條最確定。輝達定義的“AI工廠”,在中國正以“智算中心”形式快速複製。每一座智算中心都是一個AI時代的“發電站”。重點方向:GPU與AI伺服器:浪潮資訊(000977)、中科曙光(603019)、寒武紀(688256)AI算力配套裝置(電源、散熱、液冷):英維克(002837)、同飛股份(300990)、奧特維(688516)、立新能源(603906)高速互聯與光模組:中際旭創(300308)、天孚通訊(300394)、新易盛(300502)、光迅科技(002281)這些企業的邏輯一致:AI算力需求越多,硬體端的資本開支周期越長。在算力成為“基礎設施”後,這一層的成長性將遠高於傳統IT裝置。(2)算網融合:通訊與計算的邊界消失輝達與諾基亞的6G合作,實質上在啟發一個新的投資方向——通訊裝置、資料中心和算力網路的融合。AI原生網路(AI-RAN)未來在中國也將有本土版本,推動“算力即網路”的趨勢。潛在受益類股:光通訊與傳輸裝置:華工科技(000988)、中際旭創(300308)、劍橋科技(603083)邊緣計算與資料中心互聯:寶信軟體(600845)、紫光股份(000938)、鵬博士(600804)6G概念鏈:中國聯通(600050)、中貝通訊(603220)這一方向的邏輯是:AI模型越重,邊緣側越智能,通訊裝置就越“算力化”。未來的通訊基礎設施,將是“計算+傳輸”一體化的形態。(3)AI落地:從演算法到產業產能GTC演講後半部分的關鍵詞是“AI工廠”。BlueField-4、Palantir、禮來、Uber、Stellantis——這些合作說明AI已經從實驗室走向產業現場。中國的機會正出現在這一“落地帶”:AI製藥與科研算力:藥明康德(603259)、晶泰科技(688595)自動駕駛與智能座艙:地平線、舜宇光學(2382.HK)、中科創達(300496)AI安全與企業決策智能:奇安信(688561)、科大訊飛(002230)、海康威視(002415)AI工業與數字孿生:中控技術(688777)、東方國信(300166)、寶信軟體(600845)這些領域的共通點是——AI開始創造真實現金流。製藥、製造、能源、城市治理等場景的智能化改造,將是AI紅利的第二曲線。結語:從輝達到中國,AI的競爭正從“模型領先”轉向“能源領先”。投資者需要從炒概念,轉向看產業鏈現金流、資本開支與政策共振。過去十年,網際網路紅利建立在“流量”之上;未來十年,AI紅利將建立在“算力”之上。 (財經三句半)
【GTC】AI不是泡沫!黃仁勳:AI已開始良性循環
AI大繁榮,是不是泡沫?剛剛結束GTC大會上,輝達CEO老黃穿著他標誌性的皮夾克,直接懟了泡沫論。還甩出一組資料:新晶片Blackwell和Rubin,在未來五個季度已經拿下了5000億美元的訂單。如果這是泡沫,那這泡沫裡砌的都是金磚,比印鈔機還猛!黃仁勳還宣佈AI版的曼哈頓計畫,正式啟動。6G、量子計算、機器人、自動駕駛全都有份。他表示,“AI已進入良性循環轉折點,大模型已經足夠強到客戶願意買單,這讓天價算力投資變得合理!”舉個例子,輝達要和Uber搞的10萬輛自動駕駛計程車,2027年就要上路。輝達 的自動駕駛平台即將登陸 Stellantis、Lucid 和梅賽德斯-奔馳汽車,為其提供自動駕駛計程車功能。投資了10億美元給諾基亞,開啟6G革命,讓基站也變成AI工廠。推出了一款全新的 Aerial RAN 電腦,這是一個支援 6G 的電信平台,可以支援直接融入網路連線的 AI 服務。這意味著更穩定、更高效的連接以及更快的資料傳輸,這將為蜂窩網路上 AI 的未來提供動力。還和製藥巨頭禮來合作,要造藥研超算,能用AI把新藥研發從10年縮到幾個月。這些不是畫餅,是實打實的訂單。輝達甚至把量子計算接入了顯示卡,他們發佈了全新系統“NVQLink”,簡單來說就是一條為量子晶片和GPU打造的高速公路。量子計算第一次走出了實驗室,融入到主流AI超算體系。“在不久的將來,每一台輝達 GPU 科學超級電腦都將成為混合系統,通過與量子處理器緊密耦合,拓展計算能力的邊界。”輝達稱它為“量子計算的羅塞塔石碑”。“NVQLink 正是連接量子與經典超級電腦的羅塞塔石碑—— 將二者融合為一個統一、連貫的整體系統,標誌著量子-GPU 計算時代的開啟。”真正的技術革命從來不是泡沫,而是一波人看不懂,另一波人靠它封神。最後,你怎麼看AI?是風口還是風險? (奇偶工作室)
大漲近5%!逼近5兆!一文看清輝達GTC:量子計算、機器人……黃仁勳勾勒AI宏偉藍圖
Vera Rubin晶片已完成實驗室測試,預計明年此時或更早量產;預計出貨2000萬塊Blackwell晶片,Blackwell和Rubin晶片合計銷售額5000億美元;輝達將與諾基亞推出Aerial RAN Computer助力6G網路轉型;輝達NVQLink技術連接量子計算與GPU系統,已獲17家量子處理器製造商支援;輝達聯手甲骨文打造配備10萬塊Blackwell GPU的美能源部最大AI超算;輝達支援AI工廠作業系統的處理器BlueField-4預計明年推出早期版本,作為Vera Rubin的部分;輝達與CrowdStrike、Palantir、禮來分別合作;輝達自動駕駛開發平台DRIVE AGX Hyperion 10助Uber2027年起部署Robotaxi車隊,首批提供這些車的製造商包括Stellantis。美東時間28日周二,輝達CEO黃仁勳在華盛頓舉行的今年第二次GTC大會上發表主體演講,重點涵蓋6G、AI、量子計算和機器人領域的技術突破。黃仁勳在演講中強調,隨著摩爾定律失效,加速計算和GPU技術成為推動技術進步的核心動力。在AI與6G技術結合方面,輝達宣佈與諾基亞達成戰略合作,將投資10億美元認購諾基亞股份,共同推進AI原生6G網路平台。超算方面,輝達推出融合AI超算和量子計算的NVQLink技術,連接量子處理器與GPU超級電腦,已獲得17家量子計算公司支援。輝達還宣佈,與美國能源部合作建造該部門最大的AI超算。AI工廠方面,輝達將推出支援AI工廠操作的處理器Bluefield-4。此外,輝達給自動駕駛計程車服務Robotaxi的熱潮又添一把火,宣佈與共享用車鼻祖Uber以及克萊斯勒母公司Stellantis合作。Uber計畫從2027年起部署10萬輛基於輝達技術的Robotaxi服務汽車。輝達還與AI明星Palantir以及醫藥巨頭禮來分別達成合作,將其GPU計算能力與企業資料平台和製藥研發深度整合,旨在推動AI從概念走向實際應用。這兩項合作分別針對企業營運智能和藥物研發,標誌著AI技術在複雜行業場景中的商業化處理程序加速。黃仁勳表示:“AI是我們這個時代最強大的技術,而科學是其最偉大的前沿。” 周二官宣的合作標誌著,輝達從晶片製造商向全端AI基礎設施供應商的戰略轉型。黃仁勳在現場首次展示了輝達下一代Vera Rubin超級GPU的實物。黃仁勳表示,Rubin GPU已完成實驗室測試,首批樣品已從台積電送回實驗室,預計明年此時或更早量產。Vera Rubin是採用無纜連接設計的第三代NVLink 72機架級超算。單機架算力達100 Petaflops,是初代DGX-1性能的100倍,意味著過去需要25個機架完成的工作,現在一個Vera Rubin即可實現。黃仁勳在演講中明確反駁了AI泡沫說,稱:“我不認為我們處於AI泡沫之中。我們正在使用所有這些不同的AI模型——我們在使用大量服務,並樂於為此付費。” 他的核心論點是,AI模型現在已經足夠強大,客戶願意為其付費,這反過來將證明昂貴的計算基礎設施建設是合理的。Rubin計算架構實現無纜全液冷 NVL144平台性能較GB300提升3.3倍Vera Rubin計算托盤的推理性能可達440 Petaflops。輝達透露,其底部配備了8個Rubin CPX GPU、BlueField-4資料處理器、兩顆Vera CPU以及4個Rubin封裝,總共8個GPU全部實現了無纜連接和全液冷設計。Rubin GPU採用兩個Reticle尺寸晶片,FP4性能最高可達50 Petaflops,配備288GB下一代HBM4記憶體。Vera CPU則採用定製化Arm架構,擁有88個核心、176個執行緒,NVLINK-C2C互連速度最高可達1.8 TB/s。系統配備的NVLink交換機可讓所有GPU同步傳輸資料,乙太網路交換機Spectrum-X確保處理器同時通訊而不擁堵。結合Quantum交換機,整個系統完全相容InfiniBand、Quantum和Spectrum Ethernet。輝達Vera Rubin NVL144平台的FP4推理性能達到3.6 Exaflops,FP8訓練能力為1.2 Exaflops,較GB300 NVL72提升3.3倍。HBM4記憶體速度達到13 TB/s,快速記憶體容量為75TB,較GB300提升60%。NVLINK和CX9能力分別提升至2倍,速率最高可達260 TB/s和28.8 TB/s。每個Rubin GPU採用8個HBM4記憶體站點和兩個Reticle尺寸的GPU裸片設計。主機板總共配備32個LPDDR系統記憶體站點,與Rubin GPU上的HBM4記憶體協同工作,每個晶片周圍佈置了大量電源電路。第二代平台Rubin Ultra將於2027年下半年發佈,NVL系統規模從144擴展至576。Rubin Ultra GPU採用四個Reticle尺寸晶片,FP4性能最高可達100 Petaflops,HBM4e總容量達到1TB,分佈在16個HBM站點。Rubin Ultra NVL576平台的FP4推理性能將達到15 Exaflops,FP8訓練能力為5 Exaflops,較GB300 NVL72提升14倍。HBM4記憶體速度達到4.6 PB/s,快速記憶體容量為365TB,較GB300提升8倍。NVLINK和CX9能力分別提升12倍和8倍,速率最高可達1.5 PB/s和115.2 TB/s。該平台的CPU架構與Vera Rubin保持一致,繼續採用88核心Vera CPU配置。晶片出貨量激增 產能擴張迅猛黃仁勳透露,輝達目前最快的AI晶片Blackwell GPU已在亞利桑那州實現全面生產。這意味著,之前僅在台灣生產的Blackwell晶片首次可以在美國製造。黃仁勳披露了輝達晶片出貨的驚人資料。他表示,輝達預計將出貨2000萬塊Blackwell晶片。相比之下,上一代產品Hopper架構晶片在整個生命周期內僅出貨了400萬塊。黃仁勳還表示,過去四個季度已出貨600萬塊Blackwell GPU,需求依然強勁。輝達預計,Blackwell和明年推出的Rubin晶片將合計帶來五個季度5000億美元的GPU銷售額。本月早些時候,輝達和台積電宣佈首批Blackwell晶圓已在亞利桑那州鳳凰城的工廠生產。輝達在一段視訊中表示,基於Blackwell的系統現在也將在美國組裝。輝達聯手諾基亞佈局6G網路黃仁勳介紹,輝達將與諾基亞攜手推出Aerial RAN Computer(ARC),助力6G網路轉型。輝達與諾基亞將為6G通訊技術開拓AI平台。6G 與 AI 如何融合?除了AI學習和提升6G頻譜效率之外,我們還將看到AI加持的無線接入網路(RAN)產品、即“AI on RAN”。這意味著,在目前的網際網路狀態下,很多資料都在亞馬遜雲服務平台AWS上運行,但輝達要在6G連接之上建構一個雲端運算平台。這展現了超高速 AI 的潛力,它可以為自動駕駛汽車等技術提供動力。輝達和諾基亞周二宣佈建立戰略合作夥伴關係,將輝達驅動的商用級AI-RAN產品加入到諾基亞的RAN產品組合中,使通訊服務提供商能夠在輝達平台推出AI 原生的5G-Advanced 和6G網路。輝達將推出面向6G網路的Aerial RAN Computer Pro計算平台,諾基亞將在此基礎上擴展其RAN產品組合,推出新的AI-RAN產品。輝達還將以每股6.01美元的認購價,對諾基亞進行10億美元的股權投資。分析機構Omdia預測,到2030年,AI-RAN市場規模預計將累計超過2000億美元。輝達和諾基亞的合作將提供分佈式邊緣AI推理能力,為電信營運商開闢新的高增長領域。T-Mobile美國公司將同諾基亞和輝達合作,推動AI-RAN技術的測試和開發,將技術整合到其6G開發流程中。試驗預計於2026年開始,重點驗證客戶的性能和效率提升。該技術將支援自動駕駛汽車、無人機、增強現實和虛擬現實眼鏡等AI原生裝置。NVQLink連接量子計算與GPU系統目前,各種量子計算技術雖然性能強大,但對環境噪聲敏感,應用範圍有限。基於GPU的超級電腦正是因此有用武之地,它可以減輕量子處理器的負擔。黃仁勳周二提到,輝達基於旗下開源量子開發平台CUDA-Q核心建構了開源系統架構NVQLink。黃仁勳表示,他預計,除了新技術之外,量子計算還需要傳統處理器的支援,輝達將幫助實現這一目標。“我們現在意識到,將量子電腦直接連接到 GPU 超級電腦至關重要。這就是計算的未來量子化。”NVQLink是將量子處理器與GPU和CPU連接起來的新型高速互連技術。它並非要取代量子電腦,而是要和後者共同加快量子計算的速度。黃仁勳說,NVQLink技術將有助於糾錯,同時校準那些AI 演算法應該在GPU和量子處理器上使用。他透露,已有17家量子計算公司承諾將支援NVQLink。“業界的支援令人難以置信。量子計算不會取代傳統系統,它們將協同工作。”“它(NVQLink)不僅能對今天的量子位元進行糾錯,還能對未來的量子位元進行糾錯。我們將把這些量子電腦的規模從現在的數百個量子位元擴展到數萬個量子位元,甚至未來的數十萬個量子位元。”輝達稱,NVQLink技術已獲得17家量子處理器製造商和5家控製器製造商的支援,包括Alice & Bob、Atom Computing、IonQ、IQM Quantum Computers、Quantinuum、Rigetti等公司。美國能源部領導的9個國家實驗室將使用NVQLink推動量子計算突破,包括布魯克海文國家實驗室、費米實驗室、洛斯阿拉莫斯國家實驗室(LANL)等。輝達表示,開發人員可以通過CUDA-Q軟體平台訪問NVQLink,建立和測試無縫呼叫CPU、GPU和量子處理器的應用程式。輝達與甲骨文打造美能源部最大AI超算黃仁勳稱,輝達將與美國能源部合作,打造七台新的超級電腦。它們將分別部署在能源部旗下的阿貢國家實驗室(ANL)和洛斯阿拉莫斯國家實驗室(LANL)。輝達宣佈與甲骨文合作,為美國能源部建造該部門最大的AI超級電腦Solstice系統,該系統將創紀錄地配備10萬塊輝達Blackwell GPU。另一套名為Equinox的系統將包含1萬個Blackwell GPU,預計於2026年上半年投入使用。兩套系統均通過輝達網路互聯,總計提供2200 exaflops的AI性能。這些超級電腦將使科學家和研究人員能夠使用輝達Megatron-Core庫開發和訓練新的前沿模型和AI推理模型,並使用TensorRT推理軟體堆疊進行擴展。能源部長Chris Wright表示:"維護美國在高性能計算領域的領導地位,需要我們搭建通向下一個計算時代的橋樑:加速量子超級計算。我們國家實驗室、初創公司和輝達等行業合作夥伴之間的深度合作對這一使命至關重要。"阿貢國家實驗室主任Paul K. Kearns表示,這些系統將與能源部前沿實驗設施(如先進光子源)無縫連接,使科學家能夠通過科學發現應對國家最緊迫的挑戰。BlueField-4推動AI工廠基礎設施升級黃仁勳認為,代理式AI不再只是一種工具,而是人們所有工作的助手。AI帶來的“機會不勝列舉。” 輝達的計畫是建造專用於AI的工廠,裡面堆滿晶片。輝達周二當天宣佈,推出支援AI工廠作業系統的處理器Bluefield-4。輝達的BlueField-4資料處理單元支援800Gb/s吞吐量,為千兆級AI基礎設施提供突破性加速。該平台結合輝達Grace CPU和ConnectX-9網路技術,計算能力是前代BlueField-3的6倍,可支援的AI工廠規模較BlueField-3擴大3倍。BlueField-4專為新一類AI儲存平台設計,為AI資料管道的高效資料處理和大規模突破性性能奠定基礎。該平台支援多租戶網路、快速資料訪問、AI執行階段安全和雲彈性,原生支援輝達DOCA微服務。輝達稱,多家行業領頭羊計畫採用BlueField-4技術。其中,伺服器和儲存領域的公司包括思科、DDN、戴爾科技、HPE、IBM、聯想、Supermicro、VAST Data和WEKA。網路安全領域企業包括Armis、Check Point、思科、F5、Forescout、Palo Alto Networks和Trend Micro。此外,雲和AI服務商如Akamai、CoreWeave、Crusoe、Lambda、甲骨文、Together.ai和xAI正基於輝達DOCA微服務建構解決方案,加速多租戶網路、提升資料移動速度並增強AI工廠和超級計算雲的安全性。輝達BlueField-4預計將於2026年作為Vera Rubin平台的一部分推出早期版本。輝達與CrowdStrike合作AI網路安全開發黃仁勳稱,輝達將與網路安全公司CrowdStrike在AI網路安全模型方面進行合作。輝達宣佈與CrowdStrike建立戰略合作,在CrowdStrike Falcon XDR平台上提供輝達AI計算服務。該合作將Falcon平台資料與輝達GPU最佳化的AI管道和軟體(包括新的輝達NIM微服務)相結合,使客戶能夠建立定製化安全生成式AI模型。根據2024年CrowdStrike全球威脅報告,平均突破時間已降至62分鐘,最快記錄的攻擊僅略超過2分鐘。隨著現代攻擊速度更快、更複雜,組織需要AI驅動的安全技術來獲得必要的速度和自動化能力。黃仁勳表示:"網路安全本質上是一個資料問題——企業能夠處理的資料越多,就能檢測和處理的事件越多。將輝達加速計算和生成式AI與CrowdStrike網路安全結合,可以為企業提供前所未有的威脅可見性。"CrowdStrike將利用輝達加速計算、輝達Morpheus和NIM微服務,將定製LLM驅動的應用程式引入企業。結合Falcon平台的獨特上下文資料,客戶將能夠解決特定領域的新用例,包括處理PB級日誌以改進威脅搜尋、檢測供應鏈攻擊、識別使用者行為異常,以及主動防禦新興漏洞。輝達新自動駕駛開發平台助Uber部署Robotaxi車隊黃仁勳介紹,輝達的端對端自動駕駛平台DRIVE Hyperion已準備好推出提供Robotaxi服務的汽車。包括Stellantis、Lucid 和梅賽德斯-奔馳在內的全球汽車製造商將利用輝達的新技術平台DRIVE AGX Hyperion 10 架構加速開發自動駕駛技術。輝達宣佈與Uber建立合作關係,使用新一代輝達DRIVE AGX Hyperion 10自動駕駛開發平台和DRIVE AV軟體,擴展全球最大的L4級行動網路。輝達將支援Uber,從2027年開始逐步將其全球自動駕駛車隊規模擴大至10萬輛。DRIVE AGX Hyperion 10是一個參考級生產電腦和感測器架構,使任何車輛都能達到L4級準備狀態。該平台使汽車製造商能夠建構配備經過驗證的硬體和感測器的汽車、卡車和貨車,可以託管任何相容的自動駕駛軟體。黃仁勳表示:"無人駕駛計程車標誌著全球交通轉型的開始——使交通更安全、更清潔、更高效。我們與Uber共同為整個行業建立了一個框架,以大規模部署自動駕駛車隊。"Uber CEO Dara Khosrowshahi表示:"輝達是AI時代的支柱,現在正充分利用這一創新,以巨大規模釋放L4自動駕駛能力。"Stellantis正在開發AV-Ready平台,專門最佳化以支援L4級能力並滿足無人駕駛計程車要求。這些平台將整合輝達全端AI技術,進一步擴展與Uber全球移動生態系統的連接性。Uber稱,Stellantis將成為首批提供Robotaxi汽車的製造商之一,這些製造商將為Uber在美國和國際的業務提供至少5000輛輝達驅動的Robotaxi車。Uber將負責車輛的端到端車隊營運,包括遠端協助、充電、清潔、維護和客戶支援。Stellantis稱,將與富士康在硬體和系統整合方面展開合作,生產計畫定於2028年啟動。首先在美國與Uber合作開展營運。Stellantis 表示,預計未來幾年試點項目和測試將逐步展開。Lucid正在為其下一代乘用車推進L4級自動駕駛能力,在DRIVE Hyperion平台上使用全端輝達AV軟體,向客戶交付首批L4級自動駕駛汽車。梅賽德斯-奔馳正在測試基於其專有作業系統MB.OS和DRIVE AGX Hyperion的未來合作,新款S級車型將提供卓越的L4級豪華駕乘體驗。輝達和Uber將繼續支援和加速在輝達DRIVE L4級平台上開發軟體堆疊的全球合作夥伴,包括Avride、May Mobility、Momenta、Nuro、Pony.ai、Wayve和WeRide。在卡車運輸領域,Aurora、沃爾沃自動駕駛解決方案和Waabi正在開發由輝達DRIVE平台驅動的L4級自動駕駛卡車。輝達與Palantir打造營運AI技術堆疊 Lowe's率先應用供應鏈最佳化方案輝達與Palantir的合作核心是將輝達的GPU加速計算、開源模型和資料處理能力整合到Palantir AI平台(AIP)的Ontology系統中。Ontology通過將複雜資料和邏輯組織成互聯的虛擬對象、連結和動作,建立企業的數字副本,為AI驅動的業務流程自動化提供基礎。黃仁勳表示:"Palantir和輝達有著共同的願景:將AI付諸行動,把企業資料轉化為決策智能。通過結合Palantir強大的AI驅動平台與輝達CUDA-X加速計算和Nemotron開源AI模型,我們正在打造下一代引擎,為運行全球最複雜工業和營運管線的AI專業化應用和代理提供動力。"技術層面,客戶可通過Ontology使用輝達CUDA-X資料科學庫進行資料處理,配合輝達加速計算,為複雜的業務關鍵工作流驅動即時AI決策。輝達AI企業平台(包括cuOpt決策最佳化軟體)將支援企業進行動態供應鏈管理。輝達Nemotron推理模型和NeMo Retriever開源模型將幫助企業快速建構由Ontology提供資訊的AI代理。Palantir聯合創始人兼CEO Alex Karp表示:"Palantir專注於部署能為客戶立即帶來非對稱價值的AI。我們很榮幸與輝達合作,將我們的AI驅動決策智能系統與全球最先進的AI基礎設施融合。"零售商Lowe's成為首批採用Palantir和輝達整合技術堆疊的企業之一,正在建立其全球供應鏈網路的數字副本,以實現動態和持續的AI最佳化。該技術旨在提升供應鏈敏捷性,同時增強成本節約和客戶滿意度。Lowe's首席數字和資訊官Seemantini Godbole表示:"現代供應鏈是極其複雜的動態系統,AI對於幫助Lowe's在不斷變化的條件下快速適應和最佳化至關重要。即使是需求的微小變化也會在全球網路中產生連鎖反應。通過將Palantir技術與輝達AI相結合,Lowe's正在重新構想零售物流,使我們能夠每天更好地服務客戶。"輝達和Palantir還計畫將輝達Blackwell架構引入Palantir AIP,以加速從資料處理和分析到模型開發、微調再到生產AI的端到端AI管線。企業將能夠在輝達AI工廠中運行AIP以實現最佳化加速。Palantir AIP還將在輝達新推出的政府AI工廠參考設計中獲得支援。禮來打造製藥業最強超算 超千塊Blackwell Ultra驅動禮來與輝達的合作將建設一台由超過1000塊Blackwell Ultra GPU驅動的超級電腦,這些晶片將通過統一的高速網路連線。該超級電腦將為AI工廠提供動力,這是一個專門的計算基礎設施,將大規模開發、訓練和部署用於藥物發現和開發的AI模型。禮來首席資訊和數字官Diogo Rau表示,從首次對人類進行藥物試驗到產品上市,通常平均需要約10年時間。該公司預計將在12月完成超級電腦和AI工廠的建設,明年1月上線。但這些新工具可能要到2030年末才能為禮來及其他製藥商的業務帶來顯著回報。Rau說:“我們現在討論的用這種算力發現的東西,真正會在2030年看到這些益處。"禮來首席AI官Thomas Fuchs表示:"這確實是一種新型科學儀器。對生物學家來說,它就像一台巨大的顯微鏡。它真正讓我們能夠以如此龐大的規模做到以前無法做到的事情。"科學家將能夠在數百萬次實驗中訓練AI模型來測試潛在藥物,"極大地擴展藥物發現的範圍和複雜性"。雖然發現新藥並非這些新工具的唯一重點,但Rau表示這“是最大的機會所在”,“我們希望能夠發現僅靠人類永遠無法發現的新分子。”多個AI模型將在Lilly TuneLab上提供,這是一個AI和機器學習平台,允許生物技術公司訪問禮來基於其多年專有研究訓練的藥物發現模型。這些資料價值10億美元。禮來於去年9月推出該平台,旨在擴大整個行業對藥物發現工具的訪問。Rau指出,作為訪問AI模型的交換,生物技術公司需要貢獻部分自己的研究和資料,幫助訓練這些模型。TuneLab平台採用所謂的聯邦學習,這意味著,生物技術公司可以利用禮來的AI模型,雙方無需直接共享資料。禮來還計畫使用超級電腦縮短藥物開發時間,幫助更快地將治療方法送到患者手中。禮來表示,新的科學AI代理可以支援研究人員,先進的醫學成像可以讓科學家更清晰地瞭解疾病如何進展,並幫助他們開發用於個性化護理的新生物標誌物。 (invest wallstreet)