輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,意外讓SRAM躍上舞台。在AI、伺服器與高效能運算(HPC)時代,「記憶體」早已不只是容量的比拚,而是速度、延遲與能耗的全面競賽,其中SRAM(靜態隨機存取記憶體)與HBM(高頻寬記憶體),正是兩種扮演關鍵但角色完全不同的核心技術。 SRAM是什麼?和HBM有何不同?在SRAM成為市場新焦點之際,那些台廠將迎結構性機會。
SRAM(Static Random Access Memory靜態隨機存取記憶體)是一種「高速、低延遲」的記憶體,最常被用在CPU、GPU、AI晶片內部。 SRAM是隨機存取記憶體的一種,「靜態」的意思是指,只要保持通電,SRAM中的資料就能持續保存,然而,一旦電力供應停止,資料將會消失,因此屬於揮發性記憶體(Volatile Memory),這點不同於斷電後仍能保存資料的唯讀記憶體(ROM)或快閃記憶體(Flash Memory)。
SRAM的特點包括速度極快、延遲極低(奈秒等級);不需刷新(refresh),資料可穩定保存;功耗低(相對DRAM);面積大、成本高(每bit成本遠高於DRAM)不適合做大容量記憶體。因此SRAM的角色是「讓晶片能即時運算、不必等待資料」的高速暫存區。
HBM(High Bandwidth Memory,高頻寬記憶體)則是一種進階型DRAM,透過「3D堆疊+矽穿孔(TSV)」技術,把多層記憶體堆疊在一起,再與邏輯晶片以超寬匯流排連接。
HBM的特點則是頻寬極高(可達上TB/s);功耗比傳統DRAM更低;容量比SRAM大得多;延遲高於SRAM、低於一般DRAM;成本高、製程難度高。 HBM主要用於AI GPU(如輝達H100、B100)、高效能運算(HPC)、AI訓練、推論加速器。 HBM的角色是「讓大量資料能高速喂給運算核心」的記憶體倉庫。
用一句白話來說,意即SRAM負責「快」,HBM負責「多」,兩者共同決定AI晶片能跑多快、跑多遠。
過去幾年,AI發展的核心在於「算力規模」,誰能堆更多GPU、跑更大的模型,誰就領先,這使得HBM成為焦點。但現在風向正在改變,隨著生成式AI進入商業化階段,市場需求從「訓練能力」轉向「即時推論能力」,包括即時語音助理;即時翻譯、客服;自駕與機器人反應系統;金融交易、風控決策,這類應用最怕的不是算力不夠,而是「延遲太高」,而這正是HBM的罩門。
此外,輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,表面看是AI加速器戰爭的一環,但其實與SRAM的關聯非常深,主要在於LPU的性能關鍵不在算力,而在「極端高速、低延遲的記憶體存取」,而這正是SRAM最擅長、也是不可替代的領域。
那麼為何輝達要買Groq的「技術」而非晶片?因為輝達已經掌握GPU架構、CUDA生態系、HBM封裝與供應鏈,但它「缺」的是極致低延遲推論架構的設計,Groq的價值在於如何用大量SRAM +簡化控制邏輯,換取比GPU更可預測、更即時的AI回應,特別適用於AI Agent、即時語音、交易、機器人控制,這使得SRAM從「配角」升級為「主角」。 (半導體芯聞)