晶片廠商的下一個風口:AI+場景革命?

2023年是大家公認的AI元年,大量的AI大模型、AI應用問世。隨著人工智慧和深度學習的迅速發展,業界已達成共識——終端機與AI的融合是大勢所趨。不少人認為,2024年或將是「AI硬體元年」。

當狂熱的情緒從生成式AI領域蔓延至各類終端場景,人們開始期待看得見、摸得著的“實體”產生質變,“AI+可穿戴設備”、“AI+PC”、“AI+手機”等概念火爆硬體產業鏈。但熱潮底下,真正變革性的應用似乎還有待探索。

尚未成熟的「AI+」目前在上述領域的應用表現,也讓人不禁深思,這個「加」真的「加上了」嗎?這股人工智慧的風,究竟是盤活市場的概念炒作,還是真的吹到了硬體? AI+場景革命,會是晶片廠商的下一個風口嗎?

今天,我們試圖探討:人工智慧湧向各類終端應用場景後,產業鏈上的各類硬體將會朝著何種方向前進?身處不同賽道的廠商們,是否已找到了相對清晰的發力方向,亦或者仍在微光中摸索未來的輪廓?

  • Part 01 AI+穿戴裝置:感測器
  • Part 02 AI+PC:處理器/運算週邊晶片/記憶體
  • Part 03 AI+手機:SoC晶片/UFS 4.0快閃記憶體


PART 01 AI+穿戴式裝置

感應器

在許多人工智慧與硬體融合的場景中,穿戴式裝置被認為是創新空間最為廣闊、最有可能催生出全新硬體類別的賽道。

事實也確實如此,ChatGPT引發AI狂潮後,僅僅一年多時間,市面上就湧現出一大批全新的可穿戴AI產品,從形態、功能等層面探索「AI+穿戴裝置」的方向:搭載ChatGPT錶盤的智慧手錶、整合了多模態AI助理的AR眼鏡、深度融合AI的智慧戒指、號稱「AI時代iPhone」的AI Pin、聚焦在對話場景的AI吊墜…


圖源:AI Pin 官網


但遺憾的是,儘管智慧穿戴全產業鏈都在積極融入AI技術,但真正顛覆性的硬體還未被找到。就算是前段時間被《時代》雜誌評為2023年最佳發明之一的AI Pin,也在正式發貨後翻車了,用戶們的吐槽重點集中於「反應速度過慢、手勢識別不準確、發熱嚴重”等問題。

實際上,這也是其他智慧型穿戴裝置所苦惱的技術困難。從技術層面來看,要實現AI技術的深度整合及應用,穿戴式裝置必然需要更強的資料感知、擷取、處理和互動能力,而這些需求共同指向了一項技術——感測器技術

在過往的穿戴式裝置解決方案中,感測器僅負責感知與擷取訊號,運算處理環節則交由MCU,MCU分析後產出控制訊號,複雜運算則上傳雲端處理。但隨著AI技術的融入,越來越多廠商開始嘗試不依賴MCU,讓搭載於穿戴式裝置的感測器更智能,承載部分運算處理的功能。

「在感測器本身做一些簡單的處理,實現一些既定的功能,這是必然的趨勢。」Bosch Sensortec亞太區總裁王宏宇表示:「不能說所有的感測器都需要智能,但為了提升更好的用戶體驗,我們認為感測器未來是要有一定的計算能力、一定的思考能力,即具備智能的功能


圖源:Bosch Sensortec


而在AI處理能力部署的位置上,許多廠商都會選擇讓邊緣AI在MEMS上進行邊緣端處理。 「對於智慧型穿戴設備,邊緣AI是很好的選擇。」Bosch Sensortec應用工程總監Ruschmeier Frank指出,邊緣AI與感測器的融合處理,可以形成分散式的智慧支持,使設備在幾毫秒內做出決策,從而更好地實現及時響應。

另一方面,資料傳輸的選擇、資料處理及訓練也成為了感測器的重要演進方向。不同產業對資料傳輸的需求各異,例如遊戲產業就特別強調資料傳輸的即時性,絕不允許出現任何延遲。 Ruschmeier Frank認為,感測器製造商在未來需要深入思考並解決兩個核心問題:第一,應該傳輸哪些數據;第二,需要傳輸多少數據,才能確保滿足特定產業的需求。

部分廠商不僅滿足於提供感測器本身,更是開始建構智慧感測器的解決方案平台,讓穿戴式裝置廠商的開發者能夠在感測器本身植入一些本地AI演算法。感測器廠商將部分訓練的工作交給終端客戶,既可以在離線的時候訓練感測器,也可以在線上的時候透過感測器、透過演算法的融合去訓練。

此外,感測器技術的發展也聚焦於降低功耗提供客製化服務。目前,智慧穿戴裝置產業正致力於尋找最適合整合AI技術的產品形態,這導致了對感測器需求的多樣化。在激烈的市場競爭中,打造具有差異化的產品特性至關重要。因此,根據客戶需求進行客製化處理,已成為感測器製造商普遍面臨的挑戰。



PART 02 AI+PC

處理器/計算外圍晶片/記憶體

2023年9月,英特爾首次提出了「AI PC」概念,將其譽為PC產業20年一遇的重大革新。此後,PC廠商和晶片廠商開始對此大舉發力,相繼推出了一系列相關產品。

IDC預測,AI PC在中國PC市場中新機的組裝比例將在未來幾年快速攀升,並將於2027年達到85%,成為PC市場主流。

事實上,早在AI PC概念面世之前,市場部分產品已經嵌入了一些AI技術,例如AI降噪、AI繪圖等。但時至今日,市面上的AI PC所具備的功能,和市面上的AI應用並沒有本質差別,且供應鏈對此概念尚未形成統一明確的定義。

聯想與IDC共同提出,AI PC是以AI大模型、使用者個人資料、本地AI算力及AI生態等軟硬體的結合體,並定義只有具備五個特徵的產品才算是真正的AI PC。華為則認為AI PC是“非常不錯的端側大模型+端側的數據整合和融合能力+端側和雲側算力的整合”,即萬物互聯和端雲協同。


圖源:聯想與IDC的《AI PC產業(中國)白皮書》


儘管定義上尚未達成一致,但業界普遍認可,端側AI部署所帶來的零件規格升級將是必然趨勢。「AI PC的硬體需求必然越來越高,無論是核心的處理器晶片,或是EC等運算週邊晶片,對高算力、儲存容量、低功耗等需求都會不斷提升。」芯海科技副總裁楊麗寧指出。

因此我們會看到,在這波AI PC浪潮中,晶片公司的吆喝聲最為響亮。英特爾CEO帕特‧基辛格喊出「我們正邁向AI PC的新時代」;英偉達CEO黃仁勳更是宣稱「PC產業正迎來一次重生的機會」;AMD董事長蘇姿豐甚至將公司Slogan從“AMD Yes”更新為“AI PC Yes!”。

AI PC產業鏈的第一批受益者也是他們。為了解決AI本地化運作的首要需求—“算力”,處理器成為了PC產業第一波AI化的核心硬體。


處理器

NPU(神經網路處理器)是第一個賣點。以英特爾、AMD、高通為代表的處理器大廠,紛紛推出了支援本地AI大模型運作的AI PC處理器,並都著重於NPU性能。

例如,英特爾在2023年12月發布了酷睿Ultra處理器,該處理器首次集成了NPU,能夠支援高達200億參數的大模型在終端設備上運行;高通的驍龍X Elite處理器,號稱「為AI PC量身定制”,其NPU的算力高達45 TOPS,能夠本地處理超過130億參數的大模型;

AMD則推出了全球首款整合NPU的x86處理器,並宣布其下一代「Strix Point」處理器將重點強化NPU性能,預計AI性能將實現超過3倍的提升;即使是以自研晶片為賣點的蘋果,也被曝M4晶片將主打AI性能,重點放在AI運算核心數、效能及NPU數量。

從處理器功能來看,CPU擅長順序控制,適用於需要低延時的場景,同時也能夠處理較小的傳統模型,如卷積神經網路或特定大語言模型;GPU更擅長處理高精度格式的並行任務,例如對畫質要求極高的影片和遊戲。相較之下,NPU採用數據驅動平行運算架構,模擬人類神經元和突觸,特別擅長處理視訊、影像等大量多媒體數據,可快速處理AI演算法和大數據集。


圖源:攝圖網


針對PC端的運算需求,以CPU為核心的算力架構在處理AI神經網路所需的平行運算任務時顯得力不從心,且成本效益不高。因此,採用「CPU+GPU+NPU」的異質運算方案已成為業界的主流選擇。隨著人工智慧的日益重要,未來處理器市場可能會形成CPU與NPU並駕齊驅的局面。

同時,AI PC的浪潮也再次捲起了X86和Arm的架構之爭。 Arm架構憑藉其在低功耗、長續航、AI加速和客製化方面的優勢,自2023年起吸引了英偉達、英特爾、高通和AMD等行業巨頭的投入,他們計劃最早在2025年推出基於Arm的PC處理器。此外,微軟與高通也展開了合作,致力於將x86架構的Windows核心功能移植到Windows on Arm。


計算外圍晶片

「AI PC至少需要經歷三個階段。」芯海科技副總裁楊麗寧認為,當下PC產業鏈的硬體升級尚且處於第一個階段,即以處理器為核心的AI化。下一階段則是AI應用迎來井噴式發展,進而帶動PC生態,但同時海量應用場景也會逐步加重處理器的負荷。

「當負載夠重時,就需要進入第三個階段,即必須將一些智慧化任務外延給運算外圍晶片,這是必然的趨勢。而運算外圍晶片的未來形態,我們始終認為會朝向高效能、高安全、高算力的方向發展。

從PC硬體的角度來看,最核心且最適合承擔PC處理器外延AI功能的就是EC晶片。 「2023年12月,我們提出了AI EC晶片的設想,並陸續和客戶進行了AI EC晶片的探討。儘管目前還處於初步產品定義階段,但已探索出了更多的可能性,例如承擔AI PC外部的智慧溫控、智慧語音辨識、身分認證等重要的人機互動功能


圖源:芯海科技


以語音喚醒功能為例,當運算外圍晶片具備分散式智慧支援時,處理器甚至解碼晶片都可以保持關閉狀態,僅啟動感測器的接收端。只有在AI完成人聲偵測後,才會啟動編解碼器進行深度識別,此時才會擷取聲音並進行初步處理,隨後喚醒CPU進一步處理。他強調:“只有這種分級分段式的智能識別機制,才能真正把PC整體功耗降下來。”

因此,楊麗寧贊同王宏宇的觀點,認為在AI處理能力部署方面,AI PC的外圍運算晶片應與智慧穿戴裝置的感測器一樣,具備一定的智慧處理能力,以實現分散式智慧支持,並與邊緣AI進行融合處理。

AI PC未來會形成不同層級的算力網絡,例如雲端的大模型、端側處理器的中等模型、邊緣側EC晶片的小模型、以及感測器上的更小模型,每個層級所承擔的功能以及傳輸、計算資料的量級都會有較大的差異。


記憶體

隨著算力的提升,AI PC對記憶體提出了更高要求。為了有效處理AI產生的大量資料和複雜指令,特別是在運行大語言模型等應用時,記憶體大小決定模型上限,因此PC儲存產品效能和容量必須同步升級。

對於AI PC的儲存配置,微軟計畫在Windows12為AI PC設定最低門檻-需要至少40TOPS算力和16GB記憶體。英特爾中國區技術部總經理高宇則認為,未來的AI PC的標配是32GB內存,2025年將看到搭載64GB內存的PC開始出貨。

儘管目前業界對此還沒有統一的標準,但可以肯定的是,AI PC對單一PC的DRAM和NAND Flash容量需求呈現上升趨勢。其中,DDR5記憶體和QLC NAND SSD正成為滿足AI PC儲存需求的關鍵技術。

DDR5可以提供更快的資料傳輸速率、更大的記憶體容量、更低的功耗以及更高的系統效能,這些都是AI PC在執行資料密集型任務時所必需的關鍵特性。隨著AI PC滲透率提升,預計將推動DDR5子代迭代以及增加更高速率DDR5記憶體的需求。目前,三星電子和SK海力士正在計劃增加DDR5記憶體的產量,而美光也宣布將加快DDR5記憶體的過渡。

「QLC NAND是解決容量問題的重要路徑。」美光企業副總裁暨儲存部門總經理Jeremy Werner指出,QLC技術可以做到非常低的產品成本,並不斷提升儲存容量;在效能上,既可以確保產品的功耗維持在非常低的水平,同時在需要調取相關資料進行讀取和寫入的時候,又能夠迅速喚醒整個系統。


圖源:CFMS


美光估計,目前QLC NAND SSD導入PC滲透率約20-25%,2024年將可望加速成長推動,AI PC將帶動SSD搭載容量快速提升,朝向TB等級需求邁進。


PART 03 AI+手機 SoC晶片/UFS 4.0快閃記憶體

AI手機的概念其實並不新鮮,其流行可追溯至2017年。那一年,蘋果發表了搭載A11晶片的iPhone 8,引領了將專用NPU整合到SoC中的潮流。榮耀View 10甚至打出了「你的第一台AI手機」口號,賣點是搭載了海思麒麟970。

根據中國電信2018年發布的《AI終端白皮書》,當時的AI手機定義為搭載AI晶片、能運行AI應用,具備人臉辨識、語音助理、場景辨識、系統優化等功能。

到了2024年,AI手機的概念再次成為焦點。與以往不同,這次廠商將搭載大模型功能的手機稱為「AI手機」。一時間,所有主流手機廠都推出了自家的「AI手機」及端側大模型:華為盤古大模型,OPPO安第斯大模型,vivo藍心大模型,小米MiLM-6B,三星Galaxy AI…

但手機上有大模型,就是AI手機嗎?這一點在手機廠商之間也沒有共識。 OPPO將此視為手機行業的第三個重大變革階段,並宣布“OPPO正式邁入AI手機時代”;魅族採取了更為激進的策略,宣布“停止製造傳統手機,All in AI”,並將新發表的魅族PRO 21稱為「開放式AI終端」;

另一方面,小米集團總裁盧偉冰持謹慎態度,他認為「AI是未來,是無所不在的能力,但AI手機是噱頭」;榮耀CEO趙明更是直言不諱「能夠提供生成式AI能力的手機並不等於AI手機,甚至相去甚遠。


圖源:盧偉冰微博


那麼,究竟什麼是AI手機呢?這個問題至今還沒有結論。 IDC和OPPO聯合發布的《AI手機白皮書》,用4種能力定義了「AI手機」——算力高效利用、真實世界感知、自學習和創作能力。 Counterpoint和聯發科發布的《生成式AI手機產業白皮書》則提出:生成式AI手機是利用大規模、預先訓練的生成式AI模型,實現多模態內容生成、情境感知,並具備不斷增強的類人能力。

硬體方面,Counterpoint提出5點規格:基於領先製程和先進架構設計的行動運算平台,擁有整合或獨立的神經網路運算單元(如APU/NPU/TPU),大容量和高頻寬的內存,以及穩定和高速的連接,硬體級和系統級的安全防禦。

在此,我們將重點探討兩類硬體:SoC晶片和UFS 4.0快閃記憶體。


SoC晶片

正如AI PC一樣,AI手機面臨的首要挑戰也是提升算力。 Counterpoint估算顯示,2027年生成式AI手機端側整體AI算力將會達到50,000EOPS以上。因此,在當前階段,手機SoC晶片的效能提升仍是關鍵。


圖源:《生成式AI手機產業白皮書》


目前,在手機SoC領域,高通、聯發科和蘋果是三大主要競爭者,它們都在各自的SoC中整合了多個不同的處理器單元,包括CPU、GPU、DSP,以及APU/NPU等獨立的AI計算單元,專門負責處理重載的AI任務。

其中,聯發科主打“全大核CPU架構+硬體生成式AI引擎”,其最新推出的天璣9300+在端側支援AI推測解碼加速技術,支援主流的生成式AI大模型,同時兼容Al框架ExecuTorch 。

高通驍龍8 Gen 3則號稱“專為生成式AI設計”,將Hexagon DSP升級為Hexagon NPU,融合調度各個單元的算力,支持在終端側運行高達100億參數的生成式AI模型。

作為多代最強手機SoC的推出者,蘋果的AI手機SoC方案雖然尚未揭曉,但已經激發了業界和消費者的期待。

Counterpoint判斷,未來,專用AI運算單元和異質運算架構將共存於手機SoC中,這也意味著,不同運算單元之間通訊頻寬的重要性將日益凸顯。


UFS 4.0快閃記憶體

同樣的,AI手機也面臨儲存容量和速率的挑戰。為了適應端側AI大車型的需求,傳輸速度更快、功耗效率更優的UFS 4.0快閃記憶體已成為旗艦手機的標準配備。

UFS是一種為運算和移動系統設計的高效能接口,它透過高速串行接口和優化的協定顯著提升了吞吐量和系統性能。其全雙工介面支援同步讀寫操作,進一步提高了資料傳輸的效率;雙通道的資料傳輸,增加了整體的吞吐量。

2022年8月,JEDEC推出了UFS 4.0標準,理論上其傳輸速率可達4640MB/s,是UFS 3.1的兩倍,是eMMC的十倍以上,同時功耗降低了46%,儲存容量高達1TB,滿足了AI手機對儲存容量、運行速度和電池續航力的要求,可以實現更流暢、更即時的人機互動體驗。

而在UFS 4.0基礎上,儲存廠商也積極進行升級迭代。例如,美光推出了增強版UFS 4.0行動解決方案,與前代UFS 3.1相比,生成式AI應用中的大語言模型載入速度可提高40%。鎧俠發布了第二代UFS 4.0,相較於第一代產品,提升了18%順序寫入性能、30%隨機寫入速度和13%隨機讀取性能,並支援高速鏈路啟動序列(HS- LSS)特性,將啟動時間縮短70%。三星也在計畫推出UFS 4.0 4頻道產品,據稱其傳輸速度和功耗效率相較UFS4.0會有兩倍的提升。

同時,業界正積極參與UFS 5.0標準的討論,這預示著未來AI手機的大模型載入時間可望進一步縮短。當然,UFS 4.0的應用範圍不僅限於手機,還擴展到了虛擬實境和自動駕駛等需要處理大量資料的場景。


PART 04 還在等待

殺手級應用及顛覆性時刻

回到開頭的問題,隨著AI技術向各類終端應用場景的廣泛滲透,產業鏈中相關硬體的發展方向已經出現雛形,但尚未完全明確。儘管如此,各大廠商正基於各自的理解,積極地與產業鏈上下游討論、碰撞,不斷探索更多可能性,推動硬體以外的創新。

觀察「AI+穿戴裝置」、「AI+PC」、「AI+手機」三大場景,我們可以發現,儘管不同形態的AI終端產品對AI性能、功耗、精度的要求各異,但它們對硬體的感知能力、運算力、儲存容量、智慧化程度和資料安全性的需求趨勢是一致的。

同時,如何在發揮硬體優勢的基礎上,串聯和建構應用生態,形成不同場景、不同終端間的連接互聯,為用戶帶來更多AI使用場景,也成為了廠商共同的期待與考驗。

回到當下,大模型落地仍在探索階段,AI穿戴裝置、AI PC和AI手機的面貌仍很模糊。無論是廠商還是消費者,都在等待真正意義上的殺手級應用以及顛覆性時刻的到來。

但值得慶祝的是,隨著人工智慧與終端場景的深度融合,AI時代又離我們普通人更近了一步。

期待「AI Everything」的到來!(芯師爺)