#辛格
神秘天才的資本傳奇:讓巴菲特都佩服的亨利·辛格頓
他沒有明星光環,卻讓巴菲特肅然起敬,一位MIT博士,重塑了美國商業的底層邏輯。他是亨利·辛格頓,是美國企業史上最神秘的天才。一、創始人:亨利·辛格頓的獨特戰略。亨利·辛格頓(Henry Singleton)是麻省理工學院的電氣工程博士,在1960年創立了泰雷達(Teledyne)公司。在辛格頓掌舵的二十六年裡(1960-1986),泰雷達從一家微小的電子企業,成長為市值百億美元,橫跨航空、金融、保險、金屬的超級集團。彼時的泰雷達擁有 130 多家子公司,被稱為“微型通用電氣”,但它的資本回報率遠高於通用電氣。二十年裡泰雷達的股價上漲超過 500 倍,年化復合回報率 20%–25%。增長速度遠超同期的可口可樂和IBM。如果一個普通投資者在1961年買入10,000美元泰雷達的股票,二十年後,這筆投資的市值將達到500萬美元。亨利·辛格頓讓泰雷達成為美國歷史上最成功的多元化公司之一,他是怎麼做到的呢?二、資本配置的奇蹟。辛格頓的天才之處在於資本分配。20世紀60年代,美國進入併購熱潮。辛格頓發現自己公司的股票被高估,而許多小企業被低估。於是他反其道而行:用高估的股票去收購低估的資產。短短十年,收購了超過130家公司,從電子儀器、航空零件到醫療裝置、保險金融,每一家都能立刻帶來現金流與利潤。這是一種極具創新的模式:用股票當貨幣,用資本當槓桿,把資本市場的泡沫,變成了企業的資產。到了1970年代,美國經濟滯漲、股市暴跌。泰雷達的股票從巔峰跌去七成。整個華爾街都在喊救命,辛格頓卻開始大規模回購自家股票。十多年間,他用現金悄悄買回了公司90%的流通股,這是商業史上最極致的一次“逆向操作”。當年所有人都看不懂,為什麼要在股市低谷時回購?最後的結果呢,在二十多年裡泰雷達的股東年化復合回報率超過20%,這一業績可以媲美巴菲特的波克夏。當市場樂觀時,他發行股票收購優質資產;當市場崩盤時,他反手用現金回購股票。辛格頓用自己的行動證明:資本配置是一種複利的藝術。三、用“去中心化”,創造了“波克夏式”的公司結構。辛格頓不相信大公司管理那一套。他讓泰雷達的100多家子公司完全自治,像小企業主一樣獨立營運、自負盈虧,總部不干預日常營運,但資本配置權(買、賣、投、回購)全部由辛格頓一人決定。辛格頓的公司像蜂巢:每一個蜂房自己產蜜,但由他決定蜂蜜流向那裡。在辛格頓的世界裡,企業不是賣產品的機器,而是一個資本複利的引擎。他關心的不是今年賺了多少,而是每一分錢的投入能在未來產生多少現金流。這種“去中心化”結構,後來被巴菲特在波克夏完美繼承。在波克夏身上,我們幾乎能看到辛格頓的影子—去中心化的結構、逆勢操作的思維。兩家公司雖風格不同,但靈魂一致:資本配置優先於經營管理。巴菲特曾在訪談中直言:“亨利·辛格頓在經營與資本配置方面的記錄,是美國企業史上最出色的。”四、改變了商業的底層邏輯。我們見過太多的多元化無序擴張案例,母公司有錢了到處亂買,買了一大堆子公司,這些子公司無法盈利、無法產生充足的現金流,反過來需要母公司不斷的注入資金,最後多元化失敗,母公司也元氣大傷。所以亨利·辛格頓的泰雷達公司才尤其難得,它被認為是“多元化併購浪潮”的成功範本,是美國歷史上最成功的多元化公司之一。《財富》《福布斯》《哈佛商業評論》都曾稱泰雷達為“資本配置最出色的集團公司”。辛格頓唯一關心的是資本長期復合回報率,他打造的不僅是一家企業,而是一部能長期自我進化的資本複利機器。辛格頓的偉大,不在於賺了多少錢,而在於他改變了美國企業的思維方式,讓企業經營從“生產導向”變成了“資本導向”。在他之前,美國公司依靠擴張、行銷、市場份額取勝;在他之後,很多企業家學會了思考:是讓現金躺在銀行吃利息;是到處收購卻不考慮資本效率;還是像辛格頓一樣理性的資本配置,讓每一分錢竭盡所能的長期複利式增長?五、沉默的一束光。辛格頓一生拒絕喧囂,不接受公開採訪,不開股東大會,不出書不寫自傳,神秘且低調。1986年他離開親手創辦的泰雷達公司,歸隱退休,去過田園牧歌的生活,直到1999年去世。事了拂衣去,深藏功與名,從此,資本的江湖只剩下亨利·辛格頓的傳說。他讓人們看到企業家的另一種模式:像投資者一樣經營公司。辛格頓想說的是:資本配置才是CEO最重要的工作。這世界,有人活在鎂光燈下,有人則活成了一束光,亨利·辛格頓是後者。 (達尼丁的海倫)
【GTC大會】性能暴增150%最強AI晶片發佈,輝達捍衛算力“霸主”,英特爾前CEO也來助威
老黃再度帶領 AI 晶片等新品“炸場”。台北時間3月19日凌晨,“AI超級碗”GTC大會上,輝達創始人兼CEO黃仁勳向全球推出最強AI晶片GB300,個人AI超級電腦DGX Spark,並預告新一代晶片Vera Rubin等新品。其中,GB300基於全新Blackwell Ultra架構,和去年發佈的GB200相比,性能提升1.5倍,新的注意力機制(New Attention instructions)提升2倍,擁有20TB HBM高頻寬儲存提升1.5倍,預計將在今年下半年出貨。老黃會前穿著“外賣”圍裙送漢堡(圖片來源:視訊截圖)輝達表示,基於GB300的輝達GB300 NVL72 機架級解決方案的 AI 性能比 GB200 NVL72 高出 1.5 倍,與使用輝達Hopper建構的工廠相比使Blackwell的AI工廠收入機會增加50倍。同時,與Hopper一代相比,NVIDIA HGX B300 NVL16 在大型語言模型上的推理速度提高11倍,計算能力提高7倍,記憶體增加4倍,從而為 AI 推理等最複雜的工作負載提供突破性能。首批當中,預計思科、戴爾、聯想、超微電腦、華碩、富士康等提供基於Blackwell Ultra伺服器,AWS、Google雲、微軟雲、甲骨文雲等雲廠商將首批提供Blackwell Ultra支援實例。Vera Rubin方面,與Grace Blackwell(GB)類似,Vera是CPU,Rubin是GPU,而Vera Rubin整體性能是GB300的3.3倍,CPU記憶體容量是Grace的4.2倍,記憶體頻寬是Grace的2.4倍,預計將於2026年下半年量產出貨;此外,黃仁勳還預覽了下一代AI超級晶片Rubin Ultra,記憶體頻寬是前代的8倍,性能是GB300的14倍;Rubin下一代GPU架構則是Feynman。黃仁勳表示:“AI已經取得了巨大的飛躍——推理和Agentic AI需要更高數量的計算性能。我們為這一刻設計了 Blackwell Ultra——它是一個單一的多功能平台,可以輕鬆高效地進行預訓練、後訓練和推理 AI 能力。”據黃仁勳透露,今年,微軟、Google、亞馬遜和Meta四家大型雲服務商已經購入360萬顆Blackwell晶片,預計2028年資料中心資本支出規模突破1兆美元。事實上,當前對於華爾街來說,這場演講也可以看作是黃仁勳的“股價保衛戰”。隨著中國開源 AI 模型DeepSeek風靡全球,儘管黃仁勳坦言當前AI模型所需的算力是此前模型的100倍,帶動算力需求增加的關鍵是AI推理,但資本市場質疑 AI 算力需求減弱,輝達年內股價已下跌超10%。隨著下一代Rubin Ultra架構最強 AI 晶片揭開面紗,雖然當日輝達股價沒能重回巔峰,18日收盤時下跌3.43%,但CNBC表示,黃仁勳已經推動輝達開始從資料中心轉型,預測未來幾年,就AI革命而言,輝達仍然發揮著真正的作用,而不是躺在“功勞簿”上。“我們現在必須以10倍的速度計算,我們要做的計算量要是當前的十倍、一百倍。”黃仁勳稱,10年間,AI從感知和電腦視覺發展到生成式AI,現在又發展到具有推理能力的Agentic AI。如今,AI理解上下文,理解我們在問什麼,現在它生成的答案,從根本上改變了計算的方式,而大規模推理是一種極限計算。黃仁勳強調,下一波 AI 浪潮已經到來:機器人技術。四大業務重新組合,個人超算每秒運算1000兆次輝達主要有四個營收來源:資料中心、遊戲、專業可視化、汽車,後兩者目前佔比較小,營收貢獻主要依賴於資料中心業務和遊戲業務。因此,GTC大會上,黃仁勳演講也是圍繞五個類股順序介紹——RTX消費級顯示卡、汽車、GB系列資料中心AI晶片、CUDA和可視化等軟體、以及最後的機器人技術。首先是消費級顯示卡,黃仁勳表示,基於BlackWell架構的RTX5090已經快賣沒了,與4090比較,體積小了30%,消耗能量方面提高了30%,性能令人難以置信,是因為 AI 取得了非凡的進步,給世界電腦圖形帶來了革命性的變化。因此,輝達推出新一代工作站和伺服器GPUNVIDIA RTX PRO Blackwell系列,專為複雜的AI驅動工作負載、技術計算和高性能圖形而打造,而ChatRTX 更新現已支援 NVIDIA NIM,RTX Remix推出測試版。輝達強調,NVIDIA RTX PRO 6000 Blackwell 是醫療保健、製造業、零售業、直播和其他行業中 AI 和視覺計算工作負載的終極通用 GPU。同時,今年1月,CES上黃仁勳發佈全球最小的個人AI超級電腦Project Digits,如今則被命名為DGX Spark,大小和Mac Mini4相當,它內建輝達GB10晶片,能夠提供每秒1000兆次的AI運算,用於微調和推理最新AI模型,採用NVLink-C2C互連技術,記憶體頻寬是第五代PCIe的5倍。該產品售價3000美元(約合人民幣21685元)。值得注意的是,輝達還公佈了下一代個人超級電腦DGX Station,稱是人工智慧和資料科學的終極工作站,擁有GB300 Superchip 784GB統一系統記憶體,高達20000 AI TFLOPS計算能力。其次是汽車,輝達推出 NVIDIA Halos,這是一款適用於自動駕駛汽車的全端綜合安全系統,將輝達的汽車硬體和軟體安全解決方案系列與其在自動駕駛安全領域的尖端 AI 研究結合在一起,加速自動駕駛汽車的發展。至此,輝達將其開發技術套件從雲端到汽車統一起來,涵蓋車輛架構到 AI 模型,包括晶片、軟體、工具和服務。此外,輝達還宣佈,通用汽車與NVIDIA合作開發 AI,助力下一代汽車體驗和製造。再次是GTC大會重頭戲資料中心AI晶片,輝達發佈了一系列計算、通訊和高頻寬產品和資訊。黃仁勳表示,在使用現成的電腦後,超大規模資料中心能夠解決巨大規模的問題。然而,我們試圖解決的問題是如此複雜。而輝達的目標是“擴大規模”,我們本質上想要建造 AI 超級晶片,只是沒有激進的技術可以做到這一點,沒有工藝技術可以做到這一點。他直言,在電腦科學和工廠中,延遲、響應、時間和吞吐量之間存在根本的緊張關係,因此,世界需要一個偉大的超級電腦。會上,輝達發佈了支援 AI 推理的NVIDIA Blackwell Ultra、NVIDIA橫向擴展基礎設施(通訊、網路),以及輝達軟體創新等。其中,NVIDIA GB300 NVL72採用機架級設計,連接72個 Blackwell Ultra GPU和36個基於 Arm Neoverse 的NVIDIA Grace CPU,充當專為測試時間擴展而建構的單個大型 GPU。借助其設施,AI 模型可以訪問平台增強的計算能力,探索問題的不同解決方案,並將複雜請求分解為多個步驟,從而獲得更高品質的響應。此外,Blackwell Ultra 平台還適用於:Agentic AI,使用複雜的推理和迭代規劃來自主解決複雜的多步驟問題,可以推理、規劃並採取行動來實現特定目標;Physical AI,使公司能夠即時生成合成的、逼真的視訊,以大規模訓練機器人和自動駕駛汽車等應用。網路和通訊層面,輝達首次推出 Spectrum-X Photonics,同封裝光學網路交換機,將 AI 工廠擴展至數百萬個 GPU,每連接埠 1.6 兆兆位/秒交換機,輝達稱其光子交換機是世界上最先進的網路解決方案。與傳統方法相比,它們將光學創新與 4 倍更少的雷射器相結合,從而實現 3.5 倍的能效、63 倍的訊號完整性、10 倍的大規模網路彈性和 1.3 倍的部署速度。同時,輝達稱,借助 GB200 和 GH200 架構的 NVLink-CNC 互連(可提供 CPU 和 GPU 記憶體一致性),可以在單個 GPU 上擴充記憶體和應用,使用 NVIDIA Warp(一種基於 Python 的加速資料生成和空間計算應用框架),Autodesk 使用八個 GH200 節點執行了多達 480 億個單元的模擬,這比使用八個H100節點進行的模擬大5倍以上。此外,輝達宣佈,Blackwell Ultra與NVIDIA Spectrum-X 乙太網路和NVIDIA Quantum-X800 InfiniBand平台無縫整合,通過ConnectX-8 SuperNIC 為系統中的每個 GPU 提供 800 Gb/s 的資料吞吐量。而DPU方面,擁有輝達BlueField-3 DPU的Blackwell Ultra 系統,可支援多租戶網路、GPU 計算彈性、加速資料訪問和即時網路安全威脅檢測。輝達強調,先進的橫向擴展網路是 AI 基礎設施的關鍵組成部分,可提供最佳性能,同時減少延遲和抖動。軟體創新上,整個Blackwell產品組合均由全端輝達AI平台支援。其中,今天推出的NVIDIA Dynamo開源推理框架,擴展了推理 AI 服務,實現了吞吐量的飛躍,同時縮短了響應時間和模型服務成本;同時,NVIDIA Dynamo 是一款新型 AI 推理服務軟體,旨在為部署推理 AI 模型的 AI 工廠最大限度地提高token收入,確保最大程度地利用 GPU 資源。此外,NVIDIA AI Enterprise包括NVIDIA NIM 微服務,以及企業可以在 NVIDIA 加速雲、資料中心和工作站上部署的 AI 框架、庫和工具。輝達強調,Blackwell平台建立在輝達強大的開發工具生態系統、NVIDIA CUDA-X庫、超過600萬開發人員和4000多個應用之上,可在數千個GPU上擴展性能。事實上,輝達全場都在談及軟體對GPU和 AI 計算的影響。比如,利用NVIDIA cuDSS 加速工程求解器,用於解決涉及稀疏矩陣的大型工程模擬問題,適用於設計最佳化、電磁模擬工作流程等應用,利用 Grace CPU 記憶體和超級晶片架構,使用相同的 GPU 和 cuDSS 混合記憶體,可將最繁重的解決方案步驟加速高達4倍,從而進一步提高效率。模型層面,輝達宣佈,經過輝達後期訓練,全新開源Llama Nemotron 推理模型為 Agentic AI 提供業務基礎,使模型的精準率較基礎模型提升高達 20%,推理速度較其他領先的開放推理模型提升5倍,埃森哲、德勤、微軟、SAP和ServiceNow 與輝達合作開發推理 AI 代理,以改變工作方式。此外,輝達還宣佈與Alphabet和 Google就Agentic和Physical AI的未來展開合作。最後是機器人。黃仁勳宣佈,輝達發佈全球首個開放式人形機器人基礎模型 Isaac GR00T N1,以及加速機器人開發的模擬框架。GR00T N1基礎模型採用雙系統架構,靈感來自人類認知原理,“系統 1”是一種快速思考的行動模型,反映了人類的反應或直覺。“系統 2”是一種慢速思考的模型,用於深思熟慮、有條不紊的決策。而在視覺語言模型的支援下,系統 2 可以推理其環境和收到的指令,從而規劃行動。然後,系統 1 將這些計畫轉化為精確、連續的機器人動作,並接受人類演示資料和NVIDIA Omniverse平台生成的大量合成資料的訓練,因此,GR00T N1 可以輕鬆實現常見任務,例如抓取、用一隻或兩隻手臂移動物體以及將物品從一隻手臂轉移到另一隻手臂,或者執行需要長時間上下文和一般技能組合的多步驟任務。這些功能可應用於物料搬運、包裝和檢查等用例。目前,GR00T N1已經上市,是輝達將預先訓練並行布給全球機器人開發人員的一系列完全可定製模型中的第一個,加速了全球勞動力短缺(估計超過 5000 萬人)所帶來的行業轉型。此外,輝達對NVIDIA GR00T N1 訓練資料和任務評估場景已經開源。而用於合成操作運動生成的 NVIDIA Isaac GR00T 藍圖現在也可以下載,而輝達DGX Spark個人 AI 超級電腦為開發人員提供了一個相關系統,無須大量定製程式設計即可擴展 GR00T N1 的功能,以適應新的機器人、任務和環境。最後的最後,老黃在謝幕之前還成功“召喚”出了配有GR00T N1模型的機器人——Blue(星球大戰機器人)。黃仁勳表示,“通用機器人時代已經到來。借助 NVIDIA Isaac GR00T N1 以及新的資料生成和機器人學習框架,世界各地的機器人開發人員將開拓 AI 時代的下一個前沿。”此外,輝達還宣佈與 Google DeepMind 和迪士尼研究中心合作開發 Newton,這是一個開源物理引擎,可讓機器人學習如何更精確地處理複雜任務。總結這場演講,黃仁勳提及最多的幾個關鍵詞:tokens、推理和Agentic AI。在他看來,未來 AI 需要更多的tokens和推理能力,算力需求也會攀升,進一步加速Agentic AI和Physical AI發展,使得 AI 從虛擬世界轉向物理世界。黃仁勳表示,BlackWell正在全力生產,客戶需求令人難以置信,因為 AI 出現一個拐點,作為推理的結果,AI 計算量要大得多,AI 和推理訓練,AI系統和代理AI系統;第二,Blackwell、Vera Rubin與Dynamo性能不斷提升,用於計算和推理的 AI 工廠將成為未來十年最重要的工作負載之一。市場對輝達GPU供不應求,但算力“霸主”難持續儘管ChatGPT熱潮至今已有兩年多,但全球對於 AI 算力需求依舊不減。據統計,2024年,微軟、Google、亞馬遜和Meta四家大型雲服務商合計資本支出高達2283億美元,比2023年的1474億美元增長55%。預計2025年,四家大型雲服務商資本支出總額將超過3200億美元,增長超40%。黃仁勳透露,四大雲廠商今年已採購360萬個Blackwell晶片,預計2028年資料中心資本支出規模突破1兆美元。“回看歷史,半導體大爆發,第一個是PC,第二個爆發是手機,第三個大爆發是AI,未來半導體最少還有10-15年來消化 AI 需求。”群聯電子董事長潘健成對鈦媒體AGI表示。2025年,DeepSeek重新燃起 AI 大模型產業發展新熱潮。Omdia最新報告顯示,2023年,全球生成式 AI 市場規模佔總 AI 市場的9%,達68億美元;2024年,生成式AI市場預計增長一倍以上,達到146億美元;預計到2029年,生成式 AI 市場規模佔比達三分之一,約合73億美元,五年複合增長率達38%,市場前景廣闊。然而,DeepSeek在架構和演算法上實現了訓練推理效率提升,同時模型訓練成本也大幅下降至560萬美元。因此,行業普遍認為,AI推理會讓輝達GPU需求降低。今年1月,DeepSeek熱潮使得投資人拋售輝達股票,導致其市值蒸發6000億美元。黃仁勳本人的淨資產在這場暴跌中也一度縮水近20%,如今稍有回落。潘健成對鈦媒體AGI表示,雲端的訓練GPU可能已經達到頂峰,但推理 AI 還沒開始。意味著,市場需求已經進入GPU發展瓶頸期,輝達算力“霸主”難以持續。2月27日輝達發佈的四季度財報顯示,輝達Q4營收393.31億美元,同比增長78%;調整後毛利率為73.5%,同比下降3.2個百分點;公認會計準則下,季度淨利潤220.91億美元,同比增長80%,環比增長14%,非GAAP下調整後同比增長72%,均低於分析師預期。整個2025財年,輝達營收首次突破1000億美元,達1305億美元,較上年同期增長114%;非公認會計準則下,淨利潤達742.65億美元,較上年同期增長130%;毛利率75.5%,同比上漲1.7個百分點,調整後EPS2.99美元。其中,去年全年,輝達中國區營收171.08億美元,為史上最高,比前一年103.06億美元增長66%。輝達現在的營收中,大約有53%是在美國之外。黃仁勳表示,AI 晶片Blackwell的需求驚人,目前公司已成功實現 Blackwell AI 超級電腦的大規模生產,第一季度的銷售額就達到數十億美元。預計Blackwell Ultra將於2025年下半年發佈,一旦Blackwell完成增產,利潤將改善,重申利潤率到2025年年底為“70%-80%區間中部”。黃仁勳今天提供了資料中心和輝達 AI 晶片的份額。Dell Oro預測,到2028年,全球資料中心資本支出高達1兆美元以上,而輝達資料中心收入將在其中發揮關鍵作用。很顯然,黃仁勳非常有信心在資料中心方面取得更大進展。“推理帶來的潛在需求讓人感到興奮。這將要求比大語言模型更多的計算。這可能會要求比當前多出(至少)數百萬倍的計算。”黃仁勳強調,AI 行業正以光速發展。下一波浪潮即將到來,企業的agentic AI,機器人的Physical AI),以及不同地區為自己的生態系統建構主權 AI,每一個都剛剛離開地面。“很明顯,我們處於這一發展的中心。”長期來看,輝達希望建構一座基於計算基礎設施的 AI 工廠。與傳統資料中心不同,AI 工廠不僅儲存和處理資料,它們以規模製造智能,將原始資料轉化為即時洞察。對於全球的企業和國家來說,這意味著價值實現時間將大大縮短,將 AI 從長期投資轉變為立即推動競爭優勢的動力,今天投資於專門設計的 AI 工廠的公司將在明天的創新、效率和市場競爭中領先。黃仁勳稱,智能不是副產品,而是核心。這種智能通過 AI Token吞吐量來衡量——即驅動決策、自動化以及全新服務的即時預測。AI 工廠則最佳化於從 AI 中創造價值,它們協調整個 AI 生命周期,包括從資料攝取到訓練、微調和最關鍵的高量推理。當然,黃仁勳的目的很簡單:多買輝達GPU,儘管性能很難快速提升但可以多買晶片實現龐大計算規模,AI 需要的大量算力都可以在輝達平台計算,計算、通訊、模型、工具、軟體平台通通都有,輝達能得到收入,各國能得到 AI 最強國地位。此外,黃仁勳再次更新了“黃氏定律”,他認為,推理已成為 AI 經濟的主要驅動力,因此Scaling Law有三個層面:預訓練擴展:更大的資料集和模型參數可帶來可預測的智能增益,但要達到這一階段需要對熟練的專家、資料管理和計算資源進行大量投資。在過去五年中,預訓練擴展使計算需求增加了 5000 萬倍。但是,一旦模型經過訓練,其他人在其基礎上進行建構的門檻就會大大降低。訓練後擴展:針對特定實際應用對 AI 模型進行微調,在 AI 推理過程中所需的計算量是預訓練的30 倍。隨著組織根據其獨特需求調整現有模型,對 AI 基礎設施的累計需求猛增。測試時間擴展(又稱長期思考):代理 AI或物理 AI等高級 AI 應用需要迭代推理,其中模型會探索多種可能的響應,然後再選擇最佳響應。這比傳統推理消耗的計算量最多高出 100 倍。所以,黃仁勳如此努力,連前英特爾CEO基辛格(Pat Gelsinger)都來現場誇獎老黃,成為黃仁勳最新擁躉者。基辛格表示,輝達團隊對 AI 做出了巨大貢獻。據悉,如今“退休”的基辛格,創立了教會通訊平台Gloo,他擔任董事長,並將大模型作為其聊天機器人的基石,當然,他們也買了輝達的算力。基辛格還談到量子計算,認為其發展對於通用 AI 至關重要。基辛格稱,不太同意老黃的一點是,他認為量子計算將在這個十年結束之前以可實現的形式出現,即未來5年內人類將在生產中使用可實現的量子電腦。“絕對的,未來資料中心有部分工作負載、資料處理等,會有訓練工作量,因此,我們會有量子計算處理器,如果你想想量子,人類的大部分,人類最有趣的事情就是量子效應。有一個計算模型來研究這些事情是非常合適的。就像GPU看起來更像是大腦,用於訓練、人類和語言以及所有這些東西,所以我堅信這就是未來的資料中心。”基辛格表示。因此,今年GTC大會,除了黃仁勳的主題演講,還有一件事最值得期待:首次設立“量子日”活動。屆時,黃仁勳將與D-Wave Quantum和Rigetti Computing等十余家量子計算行業領軍企業的高管同台,討論量子計算的技術現狀、潛力以及未來發展方向。今天,輝達已經宣佈在波士頓建立一個量子研究中心 (NVAQC) ,以提供推動量子計算發展的尖端技術,把領先的量子硬體與 AI 超級電腦整合在一起,實現所謂的加速量子超級計算,幫助解決量子計算最具挑戰性的問題,從量子位元噪聲到將實驗性量子處理器轉變為實用裝置。該研究院包括Quantinuum、Quantum Machines 和QuEra Computing,以及哈佛大學科學與工程量子計畫 (HQI) 和麻省理工學院 (MIT) 的工程量子系統 (EQuS) 小組等。“NVAQC 是一個強大的工具,將有助於引領整個量子生態系統的下一代研究,”麻省理工學院電子工程與電腦科學教授、物理學教授、EQuS 小組負責人兼量子工程中心主任 William Oliver 表示。“NVIDIA 是實現實用量子計算的重要合作夥伴。”黃仁勳則強調,量子計算將增強 AI 超級電腦的能力,以解決從藥物發現到材料開發等世界上一些最重要的問題。輝達加速量子研究中心將與更廣泛的量子研究界合作,推動 CUDA-量子混合計算的發展,並取得突破,打造出大規模、實用、加速的量子超級電腦。很顯然,下一個 AI 計算未來,黃仁勳也想全面佈局,推動輝達成為 AI 算力領域的持續性“霸主”。 (鈦媒體AGI)
英特爾股東起訴前CEO基辛格:要求退還2.07億美元收入
12月20日消息,據The Register 報導,英特爾股東 LR Trust 已對英特爾高管提起訴訟,指控英特爾前首席執行官帕特·基辛格 (Pat Gelsinger) 和英特爾臨時聯合首席執行官兼首席財務官大衛·津斯納 (David Zinsner) 管理不善、誤導性披露,並要求將他們獲得的賠償金和其他收益退還給公司。在列出的要求中,該股東要求基辛格退還其在 2021 年、2022 年和 2023 年任職期間賺取的 2.07 億美元工資的全部款項。 LR Trust在訴狀中稱,基辛格和大衛·津斯納未能傳達英特爾代工部門的糟糕表現,該部門在虧損的同時,一直在努力吸引主要無晶圓廠設計師的濃厚興趣。同時,還指控英特爾未能在其 2024 年委託書中披露關鍵風險,這一索賠與該公司今年早些時候被起訴的索賠類似。LR Trust稱,高管和董事會成員允許對英特爾代工服務 (IFS) 增長潛力的誤導性陳述,掩蓋了重大營運虧損和內部收入下降。 LR Trust 聲稱,英特爾歪曲了其代工業務的財務狀況和業績,並就成本節約、營運效率和代工業務的盈利能力發表了重大虛假和誤導性的公開聲明。僅在 2023 年,英特爾的生產部門就虧損了 70 億美元,但是這與公司此前披露的5億美元虧損額相去甚遠。隨著公司增加對新晶圓廠的支出,2024 年的虧損進一步惡化。 LR Trust指出,基辛格和大衛·津斯納在涉嫌管理不善和財務虛假陳述期間獲得了巨額賠償,包括工資、股票獎勵和獎金。因此,原告尋求賠償和懲罰性賠償,以及訴訟費用。