在AI算力需求持續爆發的背景下,一個曾經相對小眾的晶片領域正在成為半導體產業的新風口-ASIC(Application Specific Integrated Circuit,專用積體電路)。與輝達GPU在AI市場的一枝獨秀不同,越來越多的雲端服務巨頭選擇客製化專屬的AI晶片,而為這些巨頭提供設計服務的ASIC廠商們,正在迎來前所未有的黃金時代。為什麼是ASIC?要理解ASIC如今的爆火,就需要將時鐘撥回20世紀80年代初。彼時,半導體技術正經歷一場深刻變革——單晶片所能承載的電晶體數量大幅提升,電子設備製造商不再滿足於使用千篇一律的通用晶片,他們渴望擁有能夠精準適配自身產品需求、與競爭對手形成差異化的客製化晶片。這種來自市場的強烈呼聲,催生了ASIC這個全新的晶片品類,也開啟了半導體產業的重大革命。在ASIC出現之前,半導體產業長期遵循著相對單一的商業模式:晶片公司預判市場需求,自主研發通用型晶片,批次製造後透過公開市場銷售給眾多客戶。這種模式在整合度較低的年代仍能運轉,但隨著電子產品日益精密與複雜,矛盾逐漸顯現。傳統半導體企業雖然精通晶片技術,卻缺乏深入理解各個細分應用場景的系統級知識,難以為每個特定市場設計專屬晶片;而係統廠商——那些生產電腦、通訊設備的企業——雖然清楚知道自己想要什麼樣的產品,卻既缺乏半導體設計能力,更沒有晶片製造的資源。正是在這樣的產業斷層中,VLSI Technology和LSI Logic等企業敏銳捕捉到了機會。它們開創了一種全新的協作模式:系統廠商負責晶片功能的定義和前端設計,明確晶片需要實現什麼功能;而ASIC企業則承擔物理設計(即後端設計)和製造環節的責任,將概念轉化為真實的矽片。這種分工打破了原有的產業邊界,讓專業的人做專業的事。儘管最初這一模式被業界質疑為「工程成本高、客戶數量少」的小眾生意,但市場很快就用真金白銀證明了其價值——到2000年時,LSI Logic的營收已達到27.5億美元。但傳統ASIC模式也存在一個關鍵限制:其光刻掩模歸ASIC企業所有,這意味著某一設計只能由對應的ASIC企業製造。即便其他廠商提出更優惠的方案,系統廠商也無法輕易更換供應商──這需要重新啟動完整的設計流程,成本極為高。這種鎖定效應在高批次生產場景下尤其讓顧客不滿。1990年代初,兩大變革打破了這一僵局:一是台積電(TSMC)等專業代工廠的出現,二是物理設計知識的普及和EDA工具的成熟。這些變化為系統廠商提供了一條全新路徑-客戶自有工具(COT)模式:系統廠商可以自主完成從概唸到掩模的全流程設計,然後選擇任意代工廠進行製造,掩模的所有權掌握在客戶手中,這意味著真正的供應鏈彈性。不過COT模式也並非十全十美,其很快就暴露出新的問題:晶片物理設計的難度遠超過許多系統廠商的想像。曾經認為ASIC企業收費過高的公司,在自己動手後才意識到,從網表到可製造版圖的過程中,佈局佈線、時序收斂、功耗優化、可製造性設計等每一個環節都充滿挑戰。在這樣的背景下,「設計服務企業」應運而生。這類企業與傳統ASIC公司角色相似,為客戶提供專業的設計支援,但關鍵區別在於:它們沒有自己的晶圓廠,主要依託台積電等代工廠,客戶保留掩模所有權。台灣的世芯、智原和創意等企業成為此模式的代表。這種更開放、更靈活的生態,為後來AI時代百花齊放的ASIC創新奠定了產業基礎。到了2010年代,AI的出現,讓ASIC真正得以一展身手。這段時期,深度學習技術取得突破性進展,ImageNet影像辨識競賽上的驚艷表現讓業界意識到,神經網路正在開啟一個新時代。同時,訓練這些模型所需的算力呈指數級增長——從2012年AlexNet的數天訓練時間,到2018年BERT模型的數周甚至數月,再到GPT-3等大模型需要數千塊GPU協同工作數月之久。通用GPU雖然可以勝任AI訓練,但其本質上仍是為圖形渲染設計的硬體,在面對神經網路的特定計算模式時,存在大量的效率損失。正是在這樣的背景下,Google在2016年首次公開了其TPU晶片。這款ASIC專門針對TensorFlow框架下的神經網路推理優化,在Google的資料中心中大規模部署,為搜尋、翻譯、照片辨識等服務提供算力支撐。TPU的成功引發了連鎖反應。如果說在ASIC發展的前幾十年,市場主要由電信設備、消費性電子等傳統應用主導,那麼2010年代後半段,AI迅速成為ASIC最重要、成長最快的應用領域。特斯拉為自動駕駛研發FSD晶片,蘋果在iPhone中整合Neural Engine,華為推出昇騰系列AI處理器,亞馬遜為AWS雲端服務開發Inferentia推理晶片——幾乎所有科技巨頭都意識到,AI時代的算力競爭,必須依靠客製化的ASIC來實現效率和成本的最優平衡。ASIC,迅速繁榮我們不難發現,與GPU這樣的通用處理器不同,ASIC從誕生之初就帶有鮮明的「專才」特質──它只為一個特定的應用場景或功能而生,但會把這件事做到極致。ASIC的第一大優勢是效能的極致最佳化。在1980年代,ASIC主要採用兩種製造技術:閘陣列(gate-array)和基於單元(cell-based)設計。閘陣列技術在晶圓上預先製造好閘電路,掩模僅需對互連部分進行圖案化,速度更快、成本更低;而基於單元的設計則需要對空白晶圓的所有層進行圖案化,雖然製造周期更長,但靈活性更強,能夠實現更高的電路密度和性能。這種對特定任務的深度定製,到了AI時代展現出更驚人的效果。通用處理器如CPU需要兼顧各種可能的運算需求-從文字處理到圖形渲染,從資料庫查詢到科學運算-因此必須在架構上做出妥協,配置複雜的指令調度系統、多層快取結構、分支預測單元等。而AI專用ASIC則可刪繁就簡,將所有的電晶體資源都聚焦在神經網路運算的核心操作:矩陣乘法、卷積運算、活化函數等。以Google的TPU(Tensor Processing Unit)為例,這款在2010年代推出的AI專用ASIC,其核心就是一個256×256的脈動陣列(systolic array),專門針對張量運算最佳化。此設計使得TPU在執行機器學習推理任務時,效能可以達到同時期通用GPU的15-30倍,同時能效比提升30-80倍。這種性能飛躍,正是ASIC專用化理念在AI時代的最佳詮釋。ASIC的第二大優勢是功耗的極致控制,回顧ASIC的發展歷史,能源效率優勢一直是其核心賣點之一。在1990年代,ASIC廣泛應用於行動電話、數位相機等便攜設備,原因正是其出色的能源效率表現能夠延長電池續航力。進入2000年代,隨著多媒體設備的爆發式成長,ASIC在影像處理、視訊編解碼、電源管理等領域大展身手,讓裝置變得更小巧、更節能。到了AI時代,功耗問題已經從錦上添花的優勢升級為生死攸關的剛需。現代大型AI模型動輒需要數千甚至上萬塊GPU進行訓練,單一資料中心的功耗可達數十兆瓦-相當於一個小型城鎮的用電量。冷卻系統的成本和環境影響也成為不可忽視的問題。在這樣的背景下,ASIC的能源效率優勢具有了策略意義。ASIC之所以能效卓越,根本原因在於其可以精確控制每個運算單元的功耗特性。通用晶片為了保持靈活性,必須配置大量可能永遠不會被AI應用使用的功能模組——這些"閒置"的電路仍然會消耗靜態功耗。而ASIC則可以只保留必需的電路,去除一切冗餘。更進一步,ASIC還可以針對特定的運算模式優化資料流動路徑,減少資料在晶片內部的移移距離,而資料移轉往往是能耗的主要來源之一。在邊緣AI場景中,ASIC的能效優勢更加凸顯。智慧型手機、智慧音箱、監視攝影機、自動駕駛汽車——這些設備要麼受限於電池容量,要麼對散熱有嚴格限制,根本無法承載高功耗的通用晶片。例如,蘋果在iPhone中整合的神經網路引擎(Neural Engine)本質上就是AI專用ASIC,能夠在極低功耗下實現即時的臉部辨識、照片場景分析等功能。在汽車領域,特斯拉自研的FSD(Full Self-Driving)晶片同樣是ASIC架構,專門針對自動駕駛的視覺感知和決策任務優化,在功耗僅為72瓦的情況下,實現了每秒2300幀的圖像處理能力。ASIC的第三大優勢是物理尺寸的最佳化,早在1970年代,ASIC的前身——客製化積體電路就被應用於計算器和數位手錶中,原因之一就是其緊湊的設計。到了1980年代,隨著電玩主機和家用電腦的興起,ASIC幫助這些裝置在保持小巧外形的同時,實現了圖形渲染、聲音合成等複雜功能。這種"在有限空間內整合強大功能"的能力,正是ASIC設計哲學的體現。在AI時代,空間優化的重要性達到了新高度。現代智慧型手機需要在厚度不到10毫米的機身內,整合處理器、記憶體、電池、相機、天線等數十個組件。如果AI運算依賴獨立的通用晶片,不僅會佔據寶貴的電路板空間,還會因為晶片間的資料傳輸增加延遲和功耗。而將AI能力整合為ASIC形式的協處理器,可以與主處理器封裝在同一晶片內,甚至直接整合在同一塊矽片上,極大地節省了空間。事實上,如今的ASIC早已經成為AI基礎設施中不可或缺的一環,從Google到微軟,從亞馬遜到Meta,幾乎所有雲端服務巨頭都已經涉足定製晶片即ASIC晶片,在輝達賺的盆滿缽滿之際,ASIC也與之一同崛起,成為了新的搖錢樹。博通與Marvell:ASIC市場的最大贏家時間來到2025年,ASIC早已讓博通和Marvell賺的盆滿缽滿。博通FY25Q2財報顯示,其AI業務收入超44億美元,年增46%,客製化AI加速器實現兩位數增長;Marvell FY26Q1數據中心營收達14.41億美元,佔總營收76%,同比暴增76%,主要驅動力AI定製晶片的大規模出貨。從市佔率來看,博通與Marvell已經形成了近乎壟斷的雙寡頭格局。根據產業分析,這兩家公司合計佔據ASIC市場超過60%的份額,其中博通一家就拿下了55-60%的市場份額,堪稱絕對霸主;Marvell則佔據13-15%,穩居第二。更關鍵的是,它們服務的客戶清一色都是全球最頂級的雲端服務供應商(CSP)——這些才是真正大規模部署AI基礎設施、願意為客製化晶片投入數十億美元的金主。博通與Google的合作堪稱ASIC領域最成功的產業聯盟之一。兩家公司的合作歷史超過10年,從第一代TPU開始,博通就深度參與了GoogleAI晶片的設計與製造。迄今為止,雙方已經共同發布了六代TPU產品,而最新的TPUv7p正在研發中。這種長期穩定的合作關係,不僅為博通帶來了穩定的營收,更重要的是,在與Google這樣的頂尖AI公司共同迭代的過程中,博通積累了大量關於AI工作負載特性、晶片架構優化、系統整合的第一手經驗——這些know-how成為其最寶貴的競爭壁壘。Marvell則是將重心放在亞馬遜AWS身上。 AWS是全球最大的雲端服務供應商,也是最早開始自研AI晶片的雲端廠商之一。 Marvell主要負責為AWS開發Trainium系列訓練晶片和Inferentia系列推理晶片。特別值得一提的是,Marvell已經鎖定了亞馬遜Trainium2專案的大部分產能,雙方正在合作開發下一代產品。這種深度綁定的合作模式,為Marvell提供了穩定的訂單預期和現金流,也讓其能夠在產能緊張的市場環境下獲得晶圓廠的優先支援。有趣的是,Marvell在其最新的投資者溝通會上給出了一組驚人的預測數字:到2028年,全球資料中心資本開支將突破1兆美元大關。在這1兆美元的總盤子中,與AI加速算力相關的開支規模將達到3,490億美元——佔比超過三分之一。而在AI加速算力這個細分領域內,ASIC市場的規模預計將達到554億美元,從2023年到2028年的複合年增長率(CAGR)高達53%。更細緻拆解這個市場,可以看到兩大核心成長引擎。第一是客製化XPU(包括各類AI加速器晶片)本身的業務,預計到2028年規模將達到408億美元,五年複合成長率為47%。這部分業務是博通和Marvell的傳統強項,也是它們營收的主要來源。第二是XPU附件業務,包括網路介面卡(NIC)、電源管理IC、高頻寬記憶體(HBM)控製器等周邊晶片,預計規模將達到146億美元,而複合成長率更是高達90%——幾乎是主晶片業務成長速度的兩倍。這種附件業務的爆發式成長,反映了AI晶片系統複雜度的快速提升。早期的AI加速器相對獨立,但隨著模型規模膨脹到數千億甚至數兆參數,單晶片算力已經遠遠不夠,必須透過高速互連將成百上千顆晶片組成叢集協同工作。這就對網路頻寬、記憶體頻寬、電源管理提出了極高要求。例如,一個包含數千顆AI晶片的訓練叢集,其內部網路頻寬需求可能達到數百Tbps(太位元每秒);而為了避免木桶效應,HBM記憶體的頻寬也需要同步提升;同時,數千顆晶片的功耗管理、散熱控制更是系統工程。這些需求催生了龐大的配件市場,而博通和Marvell憑藉著在高速介面、網路晶片、儲存控製器等領域的深厚積累,自然成為這一市場的主要受益者。值得注意的是,這些預測數字還在持續上調。光是過去一年,多家分析機構就數次提高了對ASIC市場的預期,原因無他——AI的發展速度超出了所有人的想像。從ChatGPT引爆生成式AI浪潮,到Sora展示視頻生成能力,再到各種多模態大模型的湧現,每一次技術突破都意味著更大的算力需求,而這些需求最終都會轉化為對定製AI晶片的訂單。博通與Marvell能夠在ASIC市場建立如此穩固的領先地位,絕非偶然。表面上看,它們正在為客戶定製晶片,但實際上,這背後需要的是極其深厚的技術累積和系統級整合能力。在這個領域,IP設計和SoC整合這兩大核心能力構成了難以踰越的護城河。傳統的客製化晶片主要包含四大類IP(Intellectual Property,知識產權核):計算單元、儲存子系統、網路I/O介面,以及先進封裝技術。這四者缺一不可,但分工明確。在這個產業鏈條中,ASIC服務供應商通常不涉及運算單元的架構設計,而是提供相應的設計流程支援和效能最佳化建議,幫助客戶的架構設計能夠有效率地轉換為實體實作。但在儲存、網路I/O和封裝這三大領域,ASIC服務商需要提供完整的IP解決方案──這才是它們的核心價值所在,也是科技壁壘最高的部分。在所有IP中,SerDes(Serializer/Deserializer,串列器-解串器)可以說是最關鍵、門檻最高的技術。現代AI訓練任務往往需要數百顆上千顆晶片來協同工作。例如,訓練一個千億參數等級的大模型,可能需要一個包含1024顆甚至更多AI晶片的群集。這些晶片需要不斷交換梯度資訊、同步參數更新,對互連頻寬的需求極為驚人。如果晶片間通訊速度跟不上運算速度,整個叢集就會陷入"等待"狀態,算力浪費嚴重-這就是業界常說的"通訊牆"問題。SerDes技術的核心挑戰在於:如何在極高的資料速率下確保訊號完整性?這需要在類比電路設計、訊號處理演算法、均衡技術等多個層面進行精密最佳化。更具挑戰性的是,隨著製程節點推進到5nm、3nm甚至更先進,電晶體特性的變異性增加,功耗密度提升,這都為SerDes設計帶來了新的難題。博通在SerDes領域的領先地位毋庸置疑。其自研擁有200G PAM4(四電平脈衝幅度調變)SerDes技術,並且已經在量產產品中大規模應用。 PAM4是一種先進的調變技術,相較於傳統的NRZ(非歸零碼),可以在相同的波特率下傳輸兩倍的資料量,這對於提升頻寬密度至關重要。博通的200G SerDes不僅速率領先,更重要的是其成熟度和可靠性——在資料中心這種7×24小時不間斷運作的環境中,穩定性往往比峰值效能更重要。而Marvell在SerDes技術上的進展同樣令人矚目。在2025年的OFC(光纖通訊大會)上,Marvell展示了最新的SerDes技術成果:光SerDes速率已經達到400G PAM4,而電SerDes速率更是突破了224G大關。這意味著單通道(single lane)就能提供224Gbps的頻寬,如果一顆晶片整合數十個甚至上百個SerDes通道,總頻寬可以達到驚人的數十Tbps。這種頻寬能力,是支撐下一代AI超級叢集的基礎。對於兩大巨頭而言,除了SerDes這項技術外,它們還建構了完整的ASIC設計IP體系,除了傳統的CPU/DSP(數位訊號處理器)IP外,它們還擁有網路交換IP、儲存介面IP、安全IP、封裝技術支援等。龐大而豐富的IP庫,意味著博通和Marvell可以為客戶提供菜單式的客製化服務,客戶只需要專注於最核心的AI加速器架構設計,其他所有子系統都可以從供應商的IP庫中選擇成熟的方案進行組合,也讓這兩大巨頭在AI時代到來之際,牢牢抓住了ASIC這棵搖錢樹。群雄逐鹿:傳統晶片巨頭的策略轉型在博通和Marvell瘋狂賺錢之際,也有越來越多的傳統晶片廠商開始策略轉型,試圖在這個新興市場中佔有一席之地。英特爾:困境中的突圍之路多年來,英特爾一直難以跟上台積電等競爭對手的晶片製造能力,其在AI市場上更是缺乏競爭力的產品線。輝達的AI晶片大賣特賣,AMD也有自己的AI晶片組合,而英特爾的下一個"重磅炸彈"Jaguar Shores還要等到2027年首次亮相。身處困境的英特爾,選擇了差異化道路。英特爾最近成立了中央工程集團(CEG),將公司內所有工程人才整合到一個部門,由前Cadence Systems高階主管斯里尼·艾揚格領導。這位在2024年7月從Cadence加入的高階主管,在推動客製化晶片商業模式方面有著深厚的經驗。英特爾執行長在第三季財報電話會議上明確表示,CEG集團將帶頭拓展新的ASIC和設計服務業務,為廣泛的外部客戶提供專用晶片。英特爾的最大優勢在於其完整產業鏈。作為老牌IDM企業,英特爾擁有晶片專業知識、x86 IP以及提供製造服務的內部代工廠,尋求客製化AI晶片的客戶可以獲得滿足所有需求的一站式服務。這是市場上任何其他ASIC設計公司都無法提供的優勢,即使是博通和Marvell也難以企及。然而,挑戰同樣巨大。輝達最近宣佈以50億美元收購英特爾約4%的股份,兩家公司將共同開發多代客製化資料中心和PC產品。這項合作為英特爾帶來了機遇,但也帶來了複雜的競合關係。在製造方面,輝達採用英特爾的18A製程或其他製程來生產部分晶片的機率其實並不高。高通:收購Alphawave強化SerDes能力與許多巨頭不同,高通在過去三年並未從資料中心的蓬勃發展中獲益。高通的業務傳統上以智慧型手機處理器和數據機的銷售為主,鑑於數據中心市場預計將在未來五年成為半導體行業增長最快的領域,進軍這一市場如今已成為高通業務多元化戰略的重要組成部分,也是高通不容錯過的機遇。高通的選擇,就是以24億美元的價格收購Alphawave。Alphawave的核心價值在於其領先的串列器-解串器(SerDes)技術,這項技術能夠實現對人工智慧應用至關重要的高速資料傳輸。與傳統的模擬SerDes架構不同,Alphawave基於DSP的SerDes建構方法能夠將資料速率擴展到更高速度,並將製造流程擴展到更小的幾何尺寸。這家英國新創公司成立於2017年,是資料中心、人工智慧、網路、5G、自動駕駛汽車和儲存等領域高速連接和運算晶片的領先供應商。其核心優勢在於為資料中心和其他應用提供高速連接IP,包括:用於伺服器和儲存的PCIe Gen 6/CXL 3.0;用於網路交換器、路由器、DPU和網路卡的400G、800G和1.6T乙太網路IP;用於GPU、CPU、FPGA和DPU的HBM和DRAMIP,以及用於乙太網路IP;尤其值得一提的是,該公司在尖端製程節點的高速SerDes方面擁有深厚的累積。值得一提的是,Alphawave不只是一家IP公司,它還涉足晶片組和客製化ASIC領域。在2022年,Alphawave以2.1億美元收購了SiFive的ASIC業務,伴隨著隨著收購Alphawave,高通也將加入這一行列。目前,憑藉在SerDes領域的專業技術,Alphawave已成功拓展至客製化晶片和晶片組的設計與製造領域。其作為一家垂直整合型公司,能夠掌控其供應鏈的關鍵環節,包括晶片IP、晶片組、客製化晶片和連接產品。其技術解決方案透過強大的代工廠和組件產業合作夥伴生態系統得以實施,其中包括台積電、三星、英特爾和格羅方德等所有主要代工廠。值得一提的是,Alphawave也與ARM緊密合作,基於ARM的Neoverse運算子系統(CSS)開發適用於人工智慧/機器學習應用、高效能運算(HPC)、資料中心和5G/6G網路基礎架構應用的高階運算、I/O和記憶體晶片組。 Alphawave也是ARM Total Design的成員,該生態系統致力於建構基於ARM Neoverse CSS的客製化晶片解決方案。這次交易對高通來說也具有多重戰略意義。首先,高通缺乏關鍵的資料中心連線IP,尤其是SerDes。自主研發需要大量投資,可能需要數年時間。因此,高通對Alphawave的興趣源於其策略擴張,即從行動領域向人工智慧運算、資料中心加速、汽車和客製化晶片等高成長領域拓展——所有這些領域都需要SerDes、PCIe、CXL和UCIe等先進的連接IP。其次,與Alphawave達成協議不僅將加強高通的IP組合,還將使其在定製晶片和ASIC市場站穩腳跟,從而能夠更有效地與AMD、輝達、AWS和其他超大規模數據中心運營商等參與者競爭,構建下一代計算基礎設施。事實上,Alphawave幾乎是唯一一家能夠跨多個晶圓代工廠提供高效能互連IP且可供收購的小型公司。 Alphawave的估值相對較低,這為高通提供了一個獨特的機會,可以以相當大的折扣收購一家具有強大長期成長潛力的策略性重要公司,從而大大提高高通在未來幾年內打入資料中心市場的機會。聯發科:從手機晶片到雲端ASIC聯發科這家傳統的手機晶片廠商,也正在成為雲端ASIC設計服務的重要玩家,與博通這樣的ASIC市場領導者展開直面競爭,並且已經拿下了Google、Meta等科技巨頭的訂單。在今年的輝達GTC大會上,聯發科介紹了其Premium ASIC設計服務,顯示聯發科與輝達的合作擴展至IP領域,能提供各式客製化晶片/HBM4E等,並具有豐富的Cell Library,以及先進製程、先進封裝經驗。聯發科的核心競爭力在於其SerDes技術。聯發科指出,其SerDes技術為ASIC核心優勢,涵蓋晶片互連、高速I/O、先進封裝與記憶體整合。其中,112Gb/s DSP基於PAM-4接收器,於4奈米FinFET製程打造,實現超過52dB損耗補償,意謂更低訊號衰減、更強之抗干擾特性。現在聯發科更推出專為資料中心使用的224G Serdes,並且已經完成矽驗證。近日,聯發科正式宣佈與輝達合作設計GB10 Grace Blackwell超級晶片,將為新推出的NVIDIA DGX Spark提供動力。 GB10採用了聯發科在設計節能、高效能CPU、記憶體子系統和高速介面方面的專業知識。在雲端服務商市場,聯發科也取得突破。根據研究機構指出,部分CSP已在評估輝達及聯發科之IP組合的客製化設計晶片。儘管GoogleTPU進度稍微遞延,第七代TPU預計在明年第三季投入量產,但採用3nm打造仍有望為聯發科增加超過20億美元的貢獻。Google進階到第八代的TPU,將會開始採用台積電2nm製程。聯發科的另一個重大突破來自Meta。最近的報告表明,聯發科即將獲得Meta即將推出的一款2nm製程ASIC的大額訂單,該晶片代號為"Arke",專注於後訓練和推理功能,可能在2027年上半年實現量產。聯發科轉向ASIC的原因與其獨特的市場定位有關。身為台灣晶片設計公司,聯發科在手機晶片市場面臨激烈競爭,利潤率受到擠壓。 ASIC設計服務為聯發科提供了更高的利潤率和更穩定的客戶關係。台灣Fabless的異軍突起除了巨頭外,台灣的設計服務公司正成為全球AI晶片客製化趨勢的核心受惠者。除了世芯、創意、智原這三雄憑藉與代工廠的合作關係、深厚的技術積累以及靈活的商業模式崛起外,做驅動IC的聯詠也有意涉足這一利潤頗豐的市場。先來說最成功的世芯,作為一家提供NRE(委託設計)和Turn-key(一站式量產)業務的IC設計服務公司,其專門負責替客戶代為設計IC,不生產自有品牌的IC。若客戶不擅與中下游的晶圓代工廠、封測廠往來,又想爭取較佳的投片價格及技術服務,世芯也提供代為投片量產的一站式服務。世芯的成長歷程堪稱傳奇。 2004年,成立僅一年的世芯取得索尼PSP遊戲機晶片大單;2009年,IBM攜手東京大學推出當時全球最快的超級電腦,也是找世芯合作設計量產,逐漸打響世芯在業界名稱。位元幣自2008年發明後,興起一波挖礦熱潮,更讓世芯2014年度營收大幅成長。近年來的AI風潮,使HPC晶片需求激增,自2018年起,世芯營收連續六年成長,2023年度營收新台幣304.8億元,稅後淨利33.2億元,營收及獲利均創下歷史新高。綜觀2024年前11個月,世芯累積營收達474.93億元,年增高達76.07%,創下歷史同期新高。由世芯2023年各終端應用類型貢獻的營收來看,人工智慧的HPC應用佔84%,其次為利基和通訊網路應用(9%)、消費性電子應用(6%)。至於從區域營收觀察,北美區域佔比從2021年的14%,顯著成長至2023年的63%,由雲巨頭貢獻的業績可見一斑。目前世芯在全球ASIC供應鏈中的地位極為穩固,其核心成長動能仍來自於極高單價的先進製程(如5奈米及以下)AI加速器量產訂單,特別是來自美國大型客戶(如英特爾5奈米加速器訂單)的訂單,預期將是2026年營收的最大貢獻者。在其業務結構中,委託設計(NRE)比重預計將提高,顯示新一代AI晶片設計委託案仍不斷湧入。而創意電子作為台積電的策略夥伴,在ASIC設計服務領域具有得天獨厚的優勢。 2025年10月,創意電子合併營收約37.16億元,較去年同期大幅成長150.6%,創下單月歷史新高。這一強勁表現主要是受惠於雲端巨頭的AI相關HPC計畫進入大規模量產階段。據瞭解,創意電子的主要營收來源有三:一是本身自有IP的權利金(royalty);二是幫其他企業設計晶片的一次性工程費用,稱之為NRE;第三,若客戶不擅長與晶圓及封測廠往來,但又想享有價格或技術優勢,就會請創意協助向台廠投片量產,稱之為Turn-Key。有趣的是,雖然當前創意電子與世芯都擁有台積電CoWoS的Turn-Key服務,但一名美系IC設計高層表示,台積電到底是創意的大股東,但在技術上,創意會比世芯來得更加具有優勢,其最大的優勢,就是能最早接觸台積電最新製程以及封測。此外,由於AI要用到的幾乎都是先進製程,研調分析師指出:“全世界的先進製程幾乎都掌握在台積電手中,創意和台積電技術關係緊密,權利金抽取會有優勢。”智原作為聯電集團旗下的IC設計服務公司,在ASIC領域也扮演重要角色。 2025年10月,智原合併營收約8.34億元,營收涵蓋了IP授權、NRE服務與ASIC量產。雖然短期營收受到整體半導體景氣修正的壓力,但其在HPC與5G網路等領域的IP授權和NRE業務持續獲得大案,其在財報中指出,公司正積極轉向更高階的ASIC設計,以迎接下一波AI復甦。台灣ASIC設計服務三雄的崛起,有其獨特的競爭優勢:1. 與台積電的緊密合作關係:無論是創意電子作為台積電子公司的"嫡系"身份,還是世芯與台積電長期合作建立的信任關係,都使得它們能夠優先獲得先進製程和CoWoS等關鍵封裝產能。在目前CoWoS產能緊張的情況下,這一優勢尤其重要。2. 完整的Turn-Key服務能力:從設計到投片量產的一站式服務,使得雲端巨頭可以專注於核心晶片的設計,而將配套晶片和製造環節外包給台灣的設計服務公司。這種模式既降低了雲端巨頭的資源投入,也能獲得台積電先進製程的技術支援。3. 靈活的商業模式:相比博通、Marvell等美國廠商主要聚焦於最高端的XPU設計,台灣廠商的業務範圍更加靈活,既可以承接高端AI加速器項目,也能服務消費電子、網通等多元領域,這種多元化佈局提高了抗風險能力。4. 深厚的技術累積:世芯從創業初期至今超過20年的市場深耕,創意電子作為最早接觸台積電最新過程的先驅,智原在IP授權領域的長期佈局,都為它們在ASIC領域的競爭奠定了堅實基礎。最後是聯詠,其因在面板驅動IC與影像處理器等消費性電子領域深耕多年,被視為典型的「中游系統IC廠」。然而,隨著AI浪潮推動算力基礎設施高速擴張,聯詠逐步將技術觸角延伸至HPC與ASIC領域,並開始在更具戰略高度的伺服器與AI晶片供應鏈中佔有一席之地。根據台媒報導,聯詠近期成功完成以Arm Neoverse CSS N2 為基礎架構的高效能運算系統單晶片(SoC),並在台積電N4P 先進製程節點順利流片。此專案源自Arm 推出的「Total Design(ATD)」協作計劃,旨在透過生態整合加速Arm架構在資料中心與AI加速領域的佈局。聯詠此次晶片預計將於2025年9月完成首批晶圓驗證,這也標誌著其正式跨入以資料中心與AI推理為核心的運算晶片賽道。從技術規格來看,這顆SoC採用Chiplet 異質整合架構,將Neoverse N2 運算核心、DDR5 / HBM3e 記憶體控製器、PCIe 6.0 / CXL 2.0 介面,以及224G SerDes 高速傳輸模組進行模組化整合,形成可彈性擴充、可重複使用的平台尺寸可複用的平台粒進行彈性擴展。同時,晶片採用台積電的N4P 製程與CoWoS 先進封裝方案-前者為5nm家族中優化功耗比和效能的版本,後者則為AI伺服器運算單元與HBM堆疊的主流封裝路徑,凸顯聯詠在高階算力晶片上已具備從架構設計、系統整合到封裝組合的全鏈路協同作用。這不僅意味著聯詠具備AI ASIC 與Chiplet 設計服務的技術條件,更顯示其已從「消費性電子IC廠」邁向「AI基礎設施晶片提供者」的角色轉型。隨著AI伺服器、邊緣運算、智慧座艙與大模型推理持續擴大,聯詠將有機會在原本的驅動IC與ISP業務之外,培育出第二成長曲線。值得關注的是,聯詠此次的Neoverse CSS N2 SoC 採用高度模組化架構設計,可與生態系統內超過60 家合作夥伴的I/O、加速器與專用邏輯芯粒搭配,形成可依客戶需求「自由拼接」的HPC與AI平台。這種架構不僅順應Chiplet + IP復用的主流方向,也使聯詠在未來車載、邊緣AI、資料中心ASIC等高客製化場景中具備可規模化交付能力。中國大陸廠商的突圍在ASIC領域,國內廠商也在積極佈局,試圖在這個快速成長的市場中佔有一席之地。芯原股份作為中國IP授權領域龍頭企業,主要提供各類處理器IP(GPU、NPU、VPU、DSP、ISP等)、數模混合IP及射頻IP,其一站式定製晶片業務是根據客戶需求,使用自有IP或購買其他IP通過設計、實現、驗證,轉換為可製造的晶片版圖。據瞭解,芯原已有核心客戶的AI Chiplet投片在即,多合一裝形式打造強勁算力,AI、智駕、機器人、端側多元領域需求可望爆發,公司商業模式進一步向Chiplet供應商演進。另一家SoC企業翱捷科技,則累積了大量自有晶片產品的設計與流片經驗。這種平台化的能力與經驗可以高效復用於ASIC客製化服務中,不僅能為客戶大幅縮短研發周期、提升開發效率,更能確保專案的成功率。據瞭解,目前翱捷ASIC 在手訂單充足,已承接多個第一線頭部客戶專案。自2H24 開始,ASIC 客製化市場空間大幅擴大,公司快速回應需求,在智慧穿戴/眼鏡、端側AI 及RISC-V 晶片等領域積極佈局,目前在手訂單充足。同時,針對海外算力限制新規,公司透過技術創新與新型架構設計,在合規基礎上為系統廠商提供ASIC 服務,並已承接多項頭部客戶訂單。同樣值得關注的還有專注於ASIC的燦芯股份,其依賴與中芯國際的策略合作,持續鞏固其在ASIC客製化服務領域的領先地位。據瞭解,燦芯2025年上半年研發投入超過9,000萬元,重點聚焦高速介面IP與高效能類比IP的自主研發,涵蓋DDR、SerDes、PCIe、MIPI、PSRAM、TCAM、ADC、PLL、PMU等多個方向。其基於22nm製程的DDR5 IP已完成架構驗證,憑藉高頻寬、低功耗與創新控製器架構,正成為AI運算、資料中心與工業控制等高效能場景的重要支撐模組。在新興應用領域,燦芯股份積極佈局AI算力晶片,其在半年報中指出,公司正結合3D封裝技術優化IP互連效率,推出適配Chiplet架構的高速介面IP,以滿足高頻寬、低延遲的系統需求,協助客戶實現異質整合設計。對於國產ASIC廠商而言,AI的爆火帶來了更多機遇,儘管在IP積累上弱於國際巨頭,但在國產替代的浪潮與國產晶片崛起的當下,它們有望在ASIC市場中分得更大的蛋糕。產業展望:ASIC時代的機會與挑戰隨著AI算力需求的持續成長,ASIC市場正經歷前所未有的繁榮,根據博通的預計,到2027年其三家大客戶的資料中心相關XPU與網路市場總規模達600-900億美元,且客戶將部署百萬卡叢集。同時,這個市場也面臨許多挑戰。隨著更多廠商加入AI客製化晶片競爭,客製化業務毛利率或將承壓,一方面,ASIC服務商眾多,競爭逐漸激烈;另一方面,雲巨頭議價能力更強,偏向壓低客製化晶片價格。但大勢不可阻擋,ASIC的全面崛起,不僅是技術演進的必然結果,更是產業分工深化的體現。從博通、Marvell的持續領先,到英特爾、高通、聯發科的策略轉型,再到國產力量的奮起直追,這個市場正在演繹一場精彩的產業變革。我們相信,在AI浪潮的推動下,客製化晶片的黃金時代才剛開始。 (半導體產業觀察)