華爾街一直有“七巨頭”(Magnificent Seven)的概念,這七大科技股分別為蘋果、微軟、Alphabet、亞馬遜、輝達、特斯拉和Meta。這些公司在全球科技行業中佔據主導地位,並對市場趨勢有著舉足輕重的影響。隨著數位化轉型和人工智慧的發展,算力將成為這些科技巨頭競爭的關鍵領域之一。
以下是這七家公司在算力佈局方面的概況:
蘋果的算力佈局主要集中在硬體自研、終端裝置的算力需求以及基礎設施支援等方面。具體來看:
自研硬體:蘋果在算力佈局中的關鍵舉措之一是自研晶片。特別是基於ARM架構的M系列(如M1、M2、M3系列)和A系列(如A15、A16等)晶片,這些晶片專為高效能和低功耗設計,廣泛應用於Mac、iPad、iPhone等裝置中。M系列晶片結合了強大的CPU、GPU、以及專門為AI任務設計的神經網路引擎(Neural Engine),支援裝置本地的AI計算和機器學習任務,顯著提升了蘋果產品的算力表現,尤其在圖像識別、語音處理、自然語言處理等領域。
算力分佈與資料中心:蘋果在算力佈局的另一重要方面是資料中心建設。儘管蘋果的主要業務集中於消費電子,但在支撐其雲服務(如iCloud、Apple Music、Apple TV+)方面,蘋果大力投資了自建資料中心。這些資料中心不僅用於儲存和同步使用者資料,還在某些服務中承擔一定的計算任務。蘋果的資料中心採用綠色能源,體現了其在算力基礎設施方面的可持續發展戰略。不過,這些資料中心的算力需求主要集中在資料儲存和服務支援上,而非大規模的AI計算。
AI與機器學習加速:在AI計算方面,蘋果通過A系列和M系列晶片內建的神經網路引擎,實現了對機器學習任務的高效本地加速。蘋果的AI算力更多地體現在終端裝置上,通過硬體加速提升裝置對AI任務的響應速度和處理能力。例如,Face ID、健康資料分析以及語音識別等應用,均得益於神經網路引擎的高效算力支援。這種硬體與軟體的緊密結合,使得蘋果能夠在裝置端進行更為複雜的AI計算,減少對雲端計算的依賴。
算力擴展與最佳化:蘋果在算力最佳化方面的戰略也值得注意。蘋果不斷通過硬體升級(如提升M系列晶片的算力密度)來提升計算能力,同時最佳化其AI演算法,使得裝置能更高效地執行深度學習任務。這些技術革新不僅提升了使用者體驗,也進一步推動了蘋果在智能終端裝置上的技術優勢。
微軟在算力領域的佈局不僅體現在其雲端運算平台Azure的擴展,還包括自研硬體、全球資料中心等多個方面。具體的佈局可以分為以下幾類:
微軟在算力上的佈局可以從多個方面來看,主要涉及以下幾個領域:
雲端運算:Azure是微軟的核心雲端運算平台,提供廣泛的算力服務,包括虛擬機器(VMs)、容器、儲存、資料庫、網路等基礎設施層面服務。Azure能夠支援各種計算需求,從普通的雲端運算任務到複雜的人工智慧訓練和巨量資料處理。2023財年,微軟在雲基礎設施上的資本支出達到280億美元。
資料中心建設:微軟持續投資建設和擴展其全球的資料中心網路,以支援Azure的算力需求。這些資料中心遍佈全球多個區域,並不斷進行基礎設施更新,推動計算能力的提升。
邊緣計算:軟在邊緣計算領域的佈局通過Azure IoT Edge服務來實現。通過這種方式,算力可以分佈到網路邊緣,支援低延遲、高頻寬需求的應用場景,尤其適用於工業、智慧城市等領域。
自研AI晶片:微軟發布了自家研發的人工智慧晶片Maia 100,以及應用於雲端軟體服務的晶片Cobalt,這兩款晶片將由台積電代工,採用5nm製程技術。
AI算力:微軟向OpenAI累計投資了130億美元,以支援其在人工智慧領域的研究和發展。此外,據報導,微軟和OpenAI考慮建造一個價值1000億美元、功率達5千兆瓦的“星際之門”(Stargate)資料中心項目,該項目包含一個超級電腦,旨在為OpenAI的人工智慧系統提供強大的算力支援。
超算:微軟與多個超級計算中心合作,提供強大的算力支援,特別是在天文、氣象、基因組學、物理等科研領域。通過Azure的高性能計算服務,微軟提供強大的基礎設施來支援科學研究中的複雜計算任務。
量子計算:微軟一直致力於量子計算的開發,並通過Azure Quantum為開發者和研究人員提供量子計算平台。Azure Quantum整合了微軟的量子硬體、模擬器和量子演算法庫,旨在推動量子計算的實際應用。此外,微軟採用拓撲量子位元(topological qubits)作為其量子計算的核心技術,這與其他量子計算公司使用的傳統量子位元有所不同。微軟還在多個量子計算合作項目中投入大量資源,與學術界和業界夥伴合作。
Alphabet在算力領域的佈局涵蓋了從ASIC晶片開發、AI算力服務、資料中心建設、量子計算研究等多個方面:
ASIC晶片開發:Alphabet通過其旗下的Google公司,一直在ASIC領域進行佈局,特別是開發了TPU(張量處理單元),這是一種專為機器學習和人工智慧工作負載設計的晶片。TPU在Google的資料中心中使用,以提供更高效的AI計算能力。
雲端運算(AI算力服務):Alphabet通過Google Cloud提供廣泛的算力服務,包括但不限於機器學習、資料分析、儲存服務等。Google Cloud Platform (GCP) 提供了多種服務,如Compute Engine、Cloud Storage、BigQuery等,支援從簡單的雲端運算任務到複雜的AI訓練和巨量資料處理。
資料中心建設:Alphabet在全球範圍內建立了大量的資料中心,這些資料中心不僅支援Google的核心業務,如搜尋和廣告,也為外部客戶提供雲服務和算力支援。Google的資料中心採用最新的能源效率技術和可再生能源,以減少環境影響。2023年,Google在資料中心和計算基礎設施上投資了310億美元。
量子計算:Alphabet通過Google量子AI實驗室在量子計算領域進行研究和開發。例如在最近,Google最新推出的量子計算晶片Willow,能在五分鐘內完成超級電腦需要億萬年才能搞定的計算任務,這代表著量子硬體技術的重要進步。
亞馬遜在算力領域的佈局涵蓋了雲端運算平台、資料中心等多個維度,具體包括:
雲端運算:AWS是全球領先的雲端運算平台,作為亞馬遜算力佈局的核心,AWS提供了廣泛的雲服務,支援各種計算需求。2023年,AWS的基礎設施投資達350億美元。
資料中心和邊緣計算:為了支撐AWS的雲服務,亞馬遜大規模投資建設全球分佈的資料中心。這些資料中心不僅用於計算資源的提供,也在邊緣計算方面進行佈局。
自研硬體:為了滿足AI推理和深度學習訓練的需求,亞馬遜推出了ASIC晶片—Trainium系列AI晶片,以及整合了Trainium2晶片的新型伺服器Ultraserver。此外,為提供高性價比的計算服務,它還推出了基於Arm架構的Graviton系列伺服器CPU。
超級伺服器叢集:亞馬遜與Anthropic合作建構了大型分散式運算叢集Project Rainier,配備數十萬個Trainium2晶片,旨在加速下一代人工智慧的發展。
量子計算:亞馬遜在量子計算方面的投資主要體現在Amazon Braket,這是一個提供量子計算服務的平台,使得開發者、研究人員和企業能夠在雲端運行量子計算任務。除了Braket,亞馬遜還通過其量子研發實驗室,參與量子計算技術的研發,特別是在量子演算法、量子最佳化和量子機器學習等領域。亞馬遜希望通過量子計算解決目前無法高效解決的複雜計算任務。
輝達的算力佈局主要集中在GPU硬體、AI加速、資料中心、雲端運算以及自研軟體平台等方面,具體包括:
GPU硬體:輝達的核心算力技術是其圖形處理單元(GPU),特別是在人工智慧(AI)和高性能計算(HPC)領域,GPU的強大平行計算能力使其成為最適合加速大規模計算任務的硬體。輝達的最新GPU架構(如Ampere、Hopper和Grace)專為AI訓練、深度學習推理、圖像處理以及超算等領域設計,提供了極高的計算密度和性能效率。此外,輝達還推出了專為深度學習最佳化的Tensor Core,進一步提升了其算力平台的AI計算能力。
CUDA程式設計平台:NVIDIA的CUDA平台是其GPU加速計算的核心,通過平行計算加速AI訓練、深度學習和科學計算任務。CUDA已經成為全球AI開發者的標準工具,廣泛支援TensorFlow、PyTorch等流行的深度學習框架。
NVIDIA TensorRT:這是輝達的高效推理引擎,能夠加速AI推理任務,特別是在邊緣計算和嵌入式裝置上,提升計算效率和響應速度。TensorRT針對推理最佳化,能夠減少延遲並提高吞吐量,廣泛應用於智慧型手機、自動駕駛、工業自動化等領域。
雲端運算:通過NVIDIA DGX Cloud,輝達提供了基於雲的AI計算服務,客戶可以按需租用DGX系統的計算能力進行深度學習和AI訓練。DGX Cloud將NVIDIA的高性能計算與雲服務結合,減少了企業和研究機構的硬體投入,提升了計算的靈活性和擴展性。
邊緣計算:NVIDIA的EGX平台是一個邊緣計算平台,結合GPU、AI、5G和網路技術,適用於即時資料處理和推理。EGX平台特別適合需要快速響應的工業、智能城市、零售等領域。
AI平台與解決方案:輝達在AI領域的投入巨大,特別是在AI訓練和推理、自動駕駛、自然語言處理(NLP)等方面,提供了一整套硬體和軟體解決方案。例如,在自動駕駛和邊緣計算領域的佈局主要體現在NVIDIA DRIVE平台,該平台為自動駕駛提供了硬體、軟體和開發工具。而NVIDIA Jetson是一個專為邊緣計算設計的AI平台,提供低功耗、即時AI計算能力。Jetson廣泛應用於機器人、無人機、智能攝影機、工業自動化等領域,推動了邊緣裝置的智能化。
資料中心即產品項目: 來源於黃仁勳訪談“如果你有資料中心需求,只需要提供空間、一些電力和冷卻設施,我們將在大約 30 天內幫助你完成搭建。” 輝達就曾幫助X.AI在 19 天內上線一個 10 萬塊輝達H100晶片組成的計算叢集。
超算系統支援:在今年的最新 TOP500 榜單中(全球超算排名榜單),有 384 個系統採用了 NVIDIA 技術。在新上榜的 53 個系統中,有 46 個系統(佔比 87%)採用了 NVIDIA 加速技術。在這些加速系統中,85% 使用了 NVIDIA Hopper GPU,它們正在推動氣候預測、藥物發現和量子模擬等領域的進步。
量子計算:輝達也在量子計算領域進行前瞻性佈局,特別是在量子計算與AI相結合的研究上。例如,NVIDIA cuQuantum是一個量子計算軟體開發平台,結合了NVIDIA的GPU加速能力與量子計算的潛力。cuQuantum旨在加速量子計算模擬,為量子計算研究提供強大的計算支援,推動量子計算技術的普及與應用。
高算力消耗的產業投資:近年來,輝達在生物計算、機器人等未來高消耗算力的賽道上投資了多家初創公司,以進一步鞏固自己在算力上的地位。
特斯拉的算力佈局主要體現在多個關鍵領域,包括自動駕駛、AI晶片、資料中心等。具體佈局如下:
自研AI晶片:特斯拉在自動駕駛技術中對算力有極高的需求,因此開發了專門用於支援自動駕駛系統(FSD)的自研AI晶片——Tesla Full Self-Driving (FSD) 晶片。這一晶片特別設計用於處理龐大的即時資料流和執行複雜的圖像識別與決策制定任務。FSD晶片不僅提高了車載裝置的計算效率,還通過高效運行深度學習演算法,支撐了特斯拉自動駕駛的核心功能。
GPU加速與AI計算:自動駕駛系統的圖像識別和視訊分析任務對算力的要求極高。特斯拉通過使用高性能GPU(圖形處理單元)來加速資料處理和AI模型訓練。在早期,特斯拉採用了NVIDIA的Drive PX2平台,為自動駕駛提供了強大的計算支援。這些GPU能夠高效地進行圖像處理,支撐自動駕駛系統的感知、決策和控制,成為算力佈局中不可或缺的部分。
車載計算平台:隨著自動駕駛技術的進步,特斯拉在車載計算平台的算力不斷提升。每一代新車型都配備了更強大的計算硬體,以支援更複雜的自動駕駛功能及未來的軟體升級。這些車載計算平台不僅能處理即時資料流,還能通過OTA(Over-the-Air)更新不斷增強系統的計算能力,確保算力始終跟上技術發展的步伐。
AI技術與神經網路訓練:神經網路訓練和推理是自動駕駛系統不可或缺的組成部分,而這些過程都離不開強大的算力支援。特斯拉在AI算力和深度學習技術上進行了大量投入,尤其是在自動駕駛資料的訓練和即時推理過程中。車載計算平台和雲端平台的結合,使得特斯拉能夠通過神經網路訓練持續提升自動駕駛系統的決策和感知能力。
雲端運算服務:特斯拉通過自有基礎設施以及外部雲端運算服務,建構了強大的雲端運算平台,支撐車聯網(Tesla Connectivity)和其他業務應用。這些雲端運算服務為特斯拉提供了必要的算力,確保車輛的即時資料能夠快速處理和儲存,進一步強化了其自動駕駛系統的資料處理能力。
Dojo超級電腦:Dojo超級計算平台是特斯拉算力佈局中的一個重要組成部分。Dojo平台由數千個自研AI加速晶片構成,專門用於加速神經網路訓練,尤其是自動駕駛資料的深度學習訓練。通過大規模的平行計算,Dojo能夠顯著提高訓練效率和算力輸出,支援更為複雜的駕駛決策和模型最佳化,進一步提升了自動駕駛系統的智能化水平。
資料中心建設:特斯拉的自動駕駛系統需要強大的計算能力和儲存能力,以處理和儲存從車輛收集的大量資料,並用於訓練和最佳化神經網路。隨著車輛數量的增加和功能的不斷提升,特斯拉對資料中心的需求也日益增長。考慮到合規性和資料本地化的要求,特斯拉已經在多個地區建設了資料中心。例如,在中國,特斯拉已經建立了本地資料中心,以確保符合資料儲存和處理的監管要求。
Meta的算力佈局涵蓋了多個領域,具體包括:
算力資源儲備:根據Meta AI發佈的技術部落格,到2024年底,Meta將擁有35萬個輝達H100 GPU,這一數字在未來還將增長至60萬個。這一龐大的算力儲備,使得Meta能夠支援更大規模、更複雜的人工智慧模型訓練。據資料顯示,Meta2024年計畫在AI基礎設施上投資350億美元,僅H100 GPU的採購預算就超過100億美元。
資料中心:Meta營運著多個分佈式資料中心,主要用於支撐其社交網路平台(Facebook、Instagram、WhatsApp)、廣告服務以及其他產品和服務的計算和儲存需求。這些資料中心不僅提供儲存、計算和頻寬,還為Meta的AI模型訓練、巨量資料處理等任務提供基礎設施支援。在2023年,Meta已投入約160億美元用於資料中心和網路基礎設施。
光子晶片與網路硬體:Meta還投資研發光子晶片(photonic chips),該技術可在未來提高資料傳輸速率並降低能源消耗。光子晶片將有助於增強Meta資料中心的計算和通訊能力。
邊緣計算:Meta在某些應用場景中也採用了邊緣計算來降低延遲,尤其是增強現實(AR)和虛擬現實(VR)相關服務中,邊緣計算幫助資料能夠更快速地處理和響應,提升使用者體驗。
自研AI加速晶片:Meta為提升AI推理和訓練的效率,自研了多款專門針對AI任務的硬體。其最著名的硬體之一是MAAS(Meta AI Accelerators),該晶片專門設計用於加速深度學習推理任務,支撐其龐大的AI計算需求。
Catalina機架:Catalina機架是Meta為滿足大規模AI計算需求而設計的硬體平台。這些機架基於NVIDIA Blackwell平台,並整合了NVIDIA GB200 Grace Blackwell超級晶片。這項創新確保了Meta能夠應對不斷增長的AI計算需求。 (超算百科)