#思科
給出100美元目標價!輝達“唯一的空頭”:這不是我第一次看到泡沫
在華爾街對輝達的狂熱追捧中,一位分析師正在逆流而行。在覆蓋輝達的80名分析師中,Seaport Global Securities分析師Jay Goldberg給出了唯一的“賣出”評級,並將目標價定在100美元。“圍繞AI的所有炒作,我都持懷疑態度,” Goldberg在接受彭博採訪時表示,“這不是我第一次看到泡沫。”他將當前的局面類比為2000年前後的科網泡沫,並警告稱,一旦支撐高估值的巨額支出放緩,市場格局可能會迅速逆轉。這一立場與市場的普遍樂觀情緒形成鮮明對比,目前華爾街分析師的平均目標價約為220美元,預示著還有18%的上漲空間。01 歷史重演?劍指科網泡沫在Goldberg看來,當前輝達的驚人增長,主要依賴於少數幾家科技巨頭的巨額資本支出。微軟、Alphabet、亞馬遜、Meta、甲骨文以及OpenAI這六家公司正在爭相建設AI基礎設施,它們的採購需求造就了輝達高達4.5兆美元的市值。2025年,這五家上市公司預計資本開支將接近4000億美元,OpenAI也承諾投入逾1兆美元。然而,Goldberg提醒投資者關注這些巨額投入迄今為止所產生的實際回報有多麼有限。他認為,這種模式與科網泡沫時期的電信基礎設施建設非常相似,當時思科等公司的股價因預期中的網際網路流量而飆升,但當預期未能立即兌現時,股價便遭受重創。二十多年後,思科的股價仍未回到2000年的高點。Goldberg警告:我們現在看到的模式與當時的感覺非常相似。出於很大程度上的心理原因,我們將建起所有這些AI設施。在某個時候,支出將會停止,然後整個體系都會崩潰,我們將迎來一次重設。02 電力、槓桿與有限的上行空間除了歷史對比,Goldberg還表示,既然市場觀點認為輝達的AI晶片已基本售罄,那麼股價進一步上漲的空間來自那裡,這是一個疑問。“上行的驅動因素並不多”。Goldberg同時質疑為所有新建資料中心提供增量電力的來源尚未明確。此外,圍繞資料中心開發的槓桿正在不斷累積:當你追溯所有這些GPU的去向時,你會深入到“新雲”(neoclouds)以及所有正在發生的電力和房地產交易的細節中。很容易想見,某個不起眼的公司倒下,就可能引發整個供應鏈的連鎖反應。值得注意的是,Goldberg的“賣出”評級並非建議投資者做空該股。他明確表示自己欽佩輝達及其首席執行官黃仁勳的領導力。在他看來,“賣出”意味著他預計該股的表現將遜於博通、高通和AMD等同行。03 華爾街對AI泡沫的擔憂漸增儘管Jay Goldberg是唯一給出“賣出”評級的分析師,但他對AI泡沫的擔憂情緒在華爾街並非個例。高盛首席執行官David Solomon最近就將當前的AI熱潮與科網泡沫時期的狂熱進行了比較。據美國銀行最新的全球基金經理調查顯示,認為AI股票存在泡沫的受訪者比例創下歷史新高。甚至OpenAI的首席執行官Sam Altman在被問及是否存在AI泡沫時,也給出了肯定的回答。這些聲音都為Goldberg的逆向思維提供了一定程度的佐證。Goldberg談到他的看空評級時也表示:我沒有收到任何一個人反駁我的論點。有人說我太早了……但沒有人說我是個瘋子。我想我們都看到了,AI領域存在一些過度繁榮的跡象,雖然輝達是一家好公司,但它並非不朽。04 壓倒性看漲:“現在仍是早期階段”儘管Goldberg發出了泡沫警告,但華爾街的主流觀點仍然堅定看漲。在80名覆蓋輝達的分析師中,有73人給予了相當於“買入”的評級,另有6人持“持有”看法。Clearstead Advisors的高級董事總經理Jim Awad表示:AI是一個持續多年的代際周期,我們還處於早期階段,甚至還沒到中期。輝達是其中的重要參與者,它正在為經濟和股市提供動力。”該公司持有輝達股票。Harding Loevner LP的投資組合經理Moon Surana也表達了類似看法,他認為現在仍處於投資階段的早期,目前還沒有出現產能過剩的跡象,沒有任何GPU處於閒置狀態。市場上最樂觀的分析師是匯豐銀行的Frank Lee,他最近將輝達的評級上調至“買入”,目標價高達320美元,理由是AI加速器的市場需求將超越目前最大的幾家客戶。 (華爾街見聞)
AI晶片黑馬融資53億,估值490億
人工智慧推理晶片開發商 Groq Inc. 今天宣佈已籌集 7.5 億美元的新資金。Databricks Inc. 的支持者 Disruptive 領投了此輪融資。思科系統公司 (Cisco Systems Inc.)、三星電子公司 (Samsung Electronics Co.)、德國電信資本合夥公司 (Deutsche Telekom Capital Partners) 和多家投資公司也參與了此次融資。Groq 目前的估值為 690 萬美元,高於去年的 28 億美元。Groq 推出了一款名為語言處理單元 (LPU) 的處理器。該公司聲稱,該晶片能夠以比顯示卡高 10 倍的能效運行某些推理工作負載。Groq 表示,LPU 的高效運行得益於多項競爭對手晶片所不具備的最佳化。協調運行 AI 模型所涉及的不同處理器元件可能會消耗大量的計算能力。據 Groq 稱,其 LPU 降低了這種開銷,從而為推理留下了更多的處理能力。該公司表示,其晶片可以運行包含 1 兆個參數的模型。Groq 的 LPU 使用自訂編譯器減少了與電路協調任務相關的開銷。編譯器會在推理工作負載啟動之前計算出那個電路應該執行那個任務,從而無需在執行階段運行必要的計算。Groq 的編譯器還以其他方式最佳化 AI 模型。許多晶片使用一種稱為量化的技術來壓縮神經網路,這可以減少其記憶體佔用,但會犧牲一些輸出質量。Groq 表示,其編譯器使用了該技術的改進版本 RealScale。該技術僅壓縮神經網路中量化後輸出質量不會顯著下降的部分。LPU 的另一個賣點是它具有所謂的確定性架構。因此,可以以單個時鐘周期的粒度預測每個給定計算操作所需的時間。據 Groq 稱,LPU 的可預測性有助於實現原本難以實現的性能最佳化。該公司將其晶片作為名為 GroqRack 的裝置的一部分出售。該系統包含九台伺服器,每台伺服器都配備多個邏輯處理器 (LPU)。Grok 表示,GroqRack 所需的外部網路硬體比同類競爭產品更少,從而降低了成本,並且無需進行大規模裝置升級即可安裝在資料中心。該公司還通過雲平台提供晶片訪問。該平台名為 GroqCloud,託管由 LPU 驅動的 AI 模型,開發人員可以通過應用程式程式設計介面 (API) 將其整合到自己的軟體中。Groq 將利用新融資來擴展支援 GroqCloud 的資料中心網路。此次投資正值有報導稱,一家競爭對手的推理晶片供應商正在尋求新一輪融資之際。據報導,總部位於加州聖克拉拉的Rivos正在洽談以20億美元的估值籌集至多5億美元。該公司正在開發一款將顯示卡與中央處理器核心相結合的片上系統。Groq打造的LPU是什麼?Groq 建構快速的 AI 推理。Groq LPU AI 推理技術可提供卓越的 AI 計算速度、質量和規模經濟性。Groq AI 推理基礎架構,特別是GroqCloud,由語言處理單元 (LPU) 提供支援,這是一種新型處理器。Groq 完全從零開始建立和建構了 LPU,以滿足 AI 的獨特需求。LPU 能夠以更快的速度運行大型語言模型 (LLM) 和其他領先模型,並且在架構層面,與 GPU 相比,其能源效率最高可提高 10 倍。Groq LPU 通過四個核心設計原則以及其架構提供如此卓越的性能。具體而言,這些原則包括:軟體優先、可程式設計裝配線架構、確定性計算和網路和片上儲存器。■ LPU設計原則1:軟體優先Groq LPU 架構秉承軟體優先的原則,旨在簡化軟體開發人員最大化硬體利用率的工作,並將儘可能多的控制權交到開發人員手中。GPU 功能多樣、性能強大,能夠處理各種不同的計算任務。但它們也十分複雜,給軟體帶來了額外的負擔。它必須考慮工作負載在多個晶片內部和跨晶片執行方式的差異性,這使得調度執行階段執行和最大化硬體利用率變得更加困難。為了最大限度地提高 GPU 的硬體利用率,每個新的 AI 模型都需要編寫特定於模型的核心。這正是我們“軟體優先”原則如此重要的原因——對於 GPU 而言,軟體始終是硬體的次要因素。Groq LPU 從一開始就專為線性代數計算而設計——這是 AI 推理的主要需求。通過將重點限制線上性代數計算上並簡化多晶片計算範式,Groq 採用了一種獨特的 AI 推理和晶片設計方法。該 LPU 採用可程式設計流水線架構,使 AI 推理技術能夠使用通用的、獨立於模型的編譯器,並始終秉持其軟體優先的原則。軟體始終處於主導地位,完全控制推理的每個步驟。目標是使軟體開發人員能夠更輕鬆地最大化硬體利用率,並將儘可能多的控制權交到開發人員手中。軟體優先不僅僅是一種設計原則——它實際上是 Groq 建構其第一代 GroqChip™ 處理器的方式。在設計編譯器架構之前,我們從未接觸過晶片設計。編譯器接受來自多個不同框架的工作負載,並通過多個階段運行這些工作負載。當編譯器對應並調度程序在一個或多個邏輯處理器 (LPU) 上執行階段,它會最佳化性能和利用率。最終,程序將涵蓋整個執行過程中的所有資料移動資訊。■ LPU設計原則2:可程式設計裝配線架構Groq LPU 的主要定義特徵是其可程式設計流水線架構。LPU 具有資料“傳送帶”,用於在晶片的 SIMD(單指令/多資料)功能單元之間傳輸指令和資料。在組裝過程的每個步驟中,功能單元都會通過傳送帶接收指令。這些指令會告知功能單元應該從那裡獲取輸入資料(那條傳送帶)、應該使用這些資料執行那些功能以及應該將輸出資料放置在何處。此過程完全由軟體控制;無需硬體同步。LPU可程式設計流式架構支援晶片內和晶片間的流水線流程。晶片間頻寬充足,使資料傳送帶能夠像晶片內一樣輕鬆地在晶片間傳輸。即使在最大容量下,也無需路由器或控製器來實現晶片間連接。晶片內部和晶片間的裝配線流程消除了瓶頸。無需等待計算或記憶體資源即可完成任務。由於沒有瓶頸需要管理,晶片上無需額外控製器。裝配線運行順暢高效,完美同步。與 GPU 的工作方式相比,這是一個巨大的進步。GPU 採用多核“中心輻射”模型運行,這種模型中低效的資料分頁方法需要大量開銷,以便在晶片內部和跨晶片的計算單元和記憶體單元之間來回傳輸資料。GPU 還利用機架內部和跨機架的多層外部交換機和網路晶片進行相互通訊,這進一步加劇了軟體調度的複雜性。這導致多核方法難以程式設計。■ LPU設計原則3:確定性計算和網路為了使裝配線高效運行,必須高度確定每個步驟的確切耗時。如果某項任務的執行時間差異過大,這種差異就會影響整條裝配線。高效的裝配線需要高度精確的確定性。LPU 架構具有確定性,這意味著每個執行步驟都完全可預測,甚至可以精確到最小執行周期(也稱為時鐘周期)。軟體控制的硬體能夠高度精確地瞭解操作發生的時間和地點,以及執行所需的時間。Groq LPU 通過消除關鍵資源(即資料頻寬和計算)的爭用來實現高度確定性。晶片(傳送帶)擁有充足的資料路由容量,晶片的功能單元也擁有充足的計算能力。不同任務使用相同資源不會出現問題,因此不會因資源瓶頸而導致執行延遲。晶片之間的資料路由也是如此。LPU 資料傳送帶也在晶片之間運行,因此連接晶片會形成更大的可程式設計流水線。資料流在編譯期間由軟體靜態調度,並且每次程式執行時都以相同的方式執行。■ LPU設計原則4:片上儲存器LPU 包含片上記憶體和計算功能,可大幅提高資料儲存和檢索的速度,同時消除時序差異。確定性可確保裝配線高效運行並消除每個計算階段的差異性,而片上記憶體則可使其運行速度更快。GPU 使用獨立的高頻寬記憶體晶片,這帶來了複雜性——需要多層記憶體快取、交換機和路由器來來回回傳輸資料——同時也消耗了大量的能源。將記憶體整合在同一晶片上可以提高每次 I/O 操作的效率和速度,並消除複雜性和不確定性。Groq 片上 SRAM 的記憶體頻寬高達 80 TB/秒,而 GPU 片外 HBM 的記憶體頻寬約為 8 TB/秒。僅憑這一點差異,LPU 的速度就提升了 10 倍,而且 LPU 還無需往返於單獨的記憶體晶片來檢索資料,從而獲得了顯著的提升。晶片內部和晶片間的流水線流程消除了瓶頸,無需等待計算或記憶體資源即可完成任務。正是得益於這些設計,Groq LPU能 提供卓越的速度、質量和經濟實惠的規模化解決方案。得益於其固有的設計原則,LPU 的性能優勢將持久有效。GPU 的速度和成本將繼續降低,Groq 亦是如此,而且速度會更快。我們目前的晶片組採用 14 奈米工藝製造。隨著我們逐步邁向 4 奈米工藝,LPU 架構的性能優勢將更加顯著。Groq強調,上述是 Groq 指導 LPU 產品開發的“首要原則”。即使 GPU 製造商試圖縮小差距,公司也能確保保持顯著的性能優勢。 (EDA365電子論壇)
Spectrum-X,輝達開啟了第二台“印鈔機”
乙太網路交換機的資料中心市場風雲變幻。根據IDC日前發佈的《季度乙太網路交換機追蹤報告》,乙太網路交換機的資料中心細分市場單季收入同比飆升71.6%,其中最值得注意的無疑是輝達,當季,輝達交換機業務收入同比暴增647%,達到23億美元,在資料中心細分市場中以25.9%的份額躍居第一,一舉超越傳統巨頭思科與Arista。這一變化的背後是源於AI驅動的基礎設施變革。當算力進入“億級參數、百萬GPU”的時代,網路不再是後台配角,而是決定AI訓練效率的核心引擎。從GPU之王到AI網路新王者,輝達正完成在AI基礎設施版圖中的關鍵一躍。那麼,這場顛覆是如何發生的?AI Scaling Law驅動,北美引領全球資料中心網路狂飆IDC資料顯示,2025年Q2全球乙太網路交換機市場總收入達145億美元,同比增長42.1%。這一增長幾乎完全由資料中心細分市場需求拉動,尤其是面向AI時代的基礎設施。在AI scaling law的推動下,模型參數量和訓練資料呈指數級上升,對計算密度、記憶體頻寬以及網路通訊性能提出了前所未有的要求。超大規模企業與雲服務商紛紛加速部署支援800GbE甚至更高頻寬的AI專用資料中心,直接引爆了高速交換機市場。第二季度,全球800GbE交換機收入環比暴漲222.1%,佔資料中心市場總收入的12.8%;200/400GbE交換機收入同比增長175.5%,合計佔據近一半市場份額(49.5%);ODM直供模式同比增長76.9%,顯示出定製化、規模化AI基建的主流趨勢。區域格局上,美洲市場整體增長56.8%,其中美國資料中心市場同比增長高達90.2%,成為全球AI投資的核心引擎。相比之下,歐洲、中東和非洲地區(EMEA)增長33.8%,亞太僅增長24.0%,凸顯了北美在AI基礎設施投入上的絕對領先優勢。交換機市場主要廠商均受益於這一浪潮:Arista Networks收入達18億美元,同比增長33.5%,其中90.7%來自資料中心;HPEAruba Networking的乙太網路交換機收入同比增長9.9%,其中84.9%來自非資料中心市場。而輝達則實現了驚人的647%同比增長,且其全部23億美元集中於資料中心領域,迅速搶佔制高點。反觀老牌龍頭企業思科,儘管其仍以40億美元保持整體收入第一,但其資料中心部分僅增長9.1%,超過三分之二的收入來自增長較緩慢的非資料中心市場。這意味著,在通往智能時代的主航道上,舊王者正在失去話語權。新霸主輝達則找到了它的新武器——Spectrum-X。從挖角思科“頂級發明家”到打造第二台“印鈔機”如果說2019年以70億美元收購Mellanox是輝達進軍高性能網路的第一步,那麼2023年推出的乙太網路網路平台Spectrum-X,是它打造第二台“印鈔機”的開始。Spectrum-X是輝達專為超大規模生成式AI叢集設計的企業級乙太網路解決方案,旨在解決傳統乙太網路在分佈式訓練和推理中的高延遲、抖動大、性能不可預測等根本性瓶頸。它的目標很明確:讓乙太網路具備接近InfiniBand的性能,同時打破其封閉生態與高成本桎梏。2024年10月,又一個標誌性事件發生:曾在思科效力25年、被官方認證為“頂級發明家”的資深工程師JP Vasseur宣佈加盟輝達,負責領導AI與網路架構創新。他的加入被視為輝達加速最佳化Spectrum-X底層演算法與可擴展性的關鍵訊號。就在他加盟一個多月前,輝達首席財務官Colette Kress在財報電話會上明確表示:“我們面向資料中心的Spectrum-X乙太網路產品線,有望在一年內成為價值數十億美元的產品線。”事實證明,這一預言已成為現實。在今年3月舉辦的輝達GTC 2025全球科技大會期間,黃仁勳將Spectrum-X稱為“全壘打式創新”,旨在將乙太網路提升至InfiniBand的性能水平。隨後在8月,輝達再進一步,發佈Spectrum-XGS乙太網路——Spectrum-X平台的重大升級版本。該技術首次實現“跨區域擴展”(scale-across),通過先進的遠距離擁塞控制、精準延遲管理與端到端遙測,將多個物理分散的資料中心整合為統一的“十億瓦級AI超級工廠”。這意味著,在高性能互聯技術的推動下,AI訓練正逐步突破單一建築或園區的限制,朝著像電網一樣靈活調度、分佈式協同的未來邁進。根據Colette Kress的預期,輝達計畫每年推出新一代Spectrum-X晶片與交換機,目標是支撐從數萬個GPU擴展到未來數百萬GPU的巨型叢集。這種持續迭代的能力,將是這台新“印鈔機”穩定運轉的關鍵。結語曾經,人們說輝達靠GPU印鈔;如今,隨著Spectrum-X的成功,在網路層面,輝達也在複製它在計算領域的戰績。屬於輝達的第二台“印鈔機”,已經轟鳴啟動,馬力全開。 (C114通訊網)