從台積電的發展看LPU的機會


隨著輝達的GPU在人工智慧產業大殺四方,中國被限制獲得先進製程,台積電也聲名大噪。當前美國堅決在核心技術上與中國脫鉤,幾乎所有與晶片相關的公司都被拉科技黑名單。人工智慧的下半場AGI的競爭,我們靠什麼勝出?如何有效率地運用運算資源和人力資源,以前瞻性的視角合理部署整個產業鏈的核心環節,從而推動產業的全面發展並惠及大小企業,已然成為我國人工智慧產業迫切需要解決的問題。


台灣半導體產業的發展歷程是值得我們借鏡的典範。 1970年代,台灣經濟急需從傳統的農業和初級工業轉變為現代工業體系。當時,美國和日本分別佔據了國際半導體市場的首席、次席位置,而台灣本土產業處於起步階段,主要承擔以通用儀器公司為代表的外資企業在島裝配任務。這在全球半導體產業鏈中處於低端位置,而反觀其自主研發的半導體產品在國際市場上則鮮有買家。為了改變這一局面,台灣省政府投資建立了工業技術研究院(ITRI),專注於實用技術的研發,並積極支持本土企業進入高端半導體製造領域。


在當時的許多國際技術合作與引進中,台灣省政府頗具前瞻性地選擇了當時尚未成熟的CMOS技術作為主攻方向。儘管初期台灣的半導體企業如聯電(UMC)主要生產應用於玩具和家電的小型晶片,技術突破並不顯著,但隨後台積電(TSMC)的崛起徹底改變了局面。當時的台積電採納了Philips公司引進的1.5微米製程技術,並創新了全球代工商業模式,專注於服務國際市場。這項策略帶來了技術創新和市場擴展的雙重成功,最終鎖定了台積電在全球半導體產業中的領導地位,其當今市值已超過6000億美元。

台積電的成功在很大程度上歸功於三個關鍵因素,其中之一是政府的前瞻性政策引導和產業佈局的合理規劃,如建立半導體技術產業園區和促進技術交流的學術研討會。本文的重點想探討的是人工智慧2.0時代,政府如何進行有效的策略部署並引導企業產品定位。


台積電的經驗為我們提供了兩個重要的啟示。首先,在技術變革的關鍵時期,政府需要給產業鏈上的公司提供機會和發展的必要條件,幫助公司準確地識別並鎖定未來具有成本效益的核心技術。在產業技術變革的過程中,許多新技術都是由新創公司發掘並快速發展。在台積電發力成長之前,技術路線的演進並不掌握在它手中,它選擇引進德州儀器的CMOS路線,開創積體電路代工模式,讓它從一個小廠成長為世界的領導者。為了支持台積電的發展,政府甚至特別為它建造了核電廠。其次,企業需要具備宏觀的國際視野,準確定位自身在產業鏈中的位置,持續成長,並有效支持產業鏈中的其他參與者以達成互惠互利的合作、共贏關係。雖然美國和中國仍有一定的競爭力,但是世界還是多元化的,產業鏈上的分工合作仍在持續的進行中。無論在什麼時候,企業也不能故步自封,學習世界先進的理念,參與科技的演進規劃,才能找到自己的未來。台積電做到世界領先後,仍和半導體產業上的公司積極合作,形成利益共同體,最終形成抱團發展的局面。


從生成式AI(AIGC)到通用人工智慧(AGI),筆者認為人工智慧已經從人工智慧1.0階段走向了人工智慧2.0時代。人工智慧運作的核心是各類運算單元(XPU):包含用於訓練基礎通用大模型的上游伺服器農場(Server Farm)中,透過超高速網路連接、配備大量資料儲存能力的CPU、GPU和TPU處理器及群集系統;以及下游終端設備中的NPU或專為處理大語言模型設計的LPU及其作業系統。在AGI時代,各種垂直領域的推理模型,成為產業應用決勝的關鍵。每個細分領域都有各自獨特的應用場景,並且累積了大量的有用數據,如何將各領域的人工智慧落地,成為AI為產業賦能的關鍵。筆者認為LPU(Language Processing Unit)在這個體系中將起到了至關重要的作用,LPU是專門為大模型的高效運作而設計,能夠在本地提供快速的推理處理能力。這對於推動AI技術的應用,例如加速大語言模型的推理速度,以及未來為其後訓練提供複雜功能(例如反射機制)具有重大意義。以當下Groq公司的LPU為例,Meta最新發布的Llama3模型部署在其上的推理速度可達每秒300 tokens,這一速度遠遠超過Claude Opus的每秒18 tokens以及GPT4的每秒36 tokens,極大改善了用戶體驗。


在理想情況下,依賴LPU的大語言模型作業系統(LLM OS)應具備統一調度硬體資源的能力,為運行於此系統的專家級AI代理(AI Agent)提供標準化的系統呼叫介面。這些介面不僅允許使用者利用本地資料進一步訓練模型,還能透過自然語言、語音或腦電波等輸入形式與使用者交互,輸出可執行的合法操作和決策建議。此類作業系統預計將極大提高工作效率並為多個行業賦能。值得注意的是,與目前產業中流行的觀點-「基礎大模型定義系統能力上限」不同,筆者認為基礎大模型應僅提供通用功能,而將專業任務交由AI代理完成。這種做法不僅簡化了基礎模型的訓練複雜度,也有助於在整個產業鏈中平衡利潤分配,避免資源過度集中所帶來的種種技術及社會問題。


儘管基於LPU的大語言模型顯示出巨大的潛力,並符合當前中國乃至全球的AI技術發展趨勢,我們也必須清楚地認識到從理論到實踐可能面臨的各種挑戰。例如,大語言模型作業系統的表現高度依賴其底層模型,目前廣泛應用的模型如2017年提出的transformer模型,儘管支撐了包括GPT在內的多種主流模型,但其理論局限性正逐漸顯現,例如馮諾依曼瓶頸問題。解決這些問題可能需要從物理裝置(如採用矽光元件)到神經網路理論的雙重創新。例如,MIT最近提出的Liquid Neural Networks模型希望賦予神經網路不斷「進化」的能力;紐約大學的Geometric Neural Networks模型旨在讓神經網路理解“對稱性”,以解決網路複雜性問題。我們投入相應的人力資源跟進這些前沿技術至關重要,以確保大語言模型能夠有效地以作業系統形式部署。此外,確保使用者資料的安全與隱私,建構一個開放且可信賴的本地大語言模型系統,也是AI領域的重要研究主題之一。


LPU的研究,Groq公司已經走在了前面,累計融資3.67億美元,號稱未來三年趕上輝達。 Groq公司的LPU速度是輝達GPU的10倍,成本號稱只有1/10,但經過大家的分析事實上離真正的大規模應用還比較遠。從技術上來講,LPU的設計想法還是比較可取的,雖然暫時還有一些難題需要攻克。雖前路崎嶇,台積電告訴我們:夢想還是要有的,萬一實現了呢?(深觀啟元)