AMD 是 2025 年最具爆發力的科技股嗎?買入 AMD,你需要瞭解那些核心邏輯?我敢說,這可能是你在全網能看到關於 AMD 最硬核、最系統的一次深度解析!
視訊昨天已經發佈油管 Youtube,3萬播放,今天 AMD大漲6%
連結:https://youtu.be/WIpzpheZc9s
這期內容,我們將分析 AMD 在 AI 推理時代的核心優勢、真實增速、估值空間,以及那個真正決定爆發力的最大機會窗口到底藏在那裡。
除了 AMD,我們還會為大家介紹另一家正在深耕 AI 基礎設施的公司—它很可能就是市場被忽視的“下一個兆巨頭”。
AMD的戰略性突破口與前瞻性佈局。首先要明確的是,因為AI真的開始大規模用起來了,全球的資料中心也正迎來一波前所未有的大擴張。根據麥肯錫預測,到2030年,全球資料中心的總需求將有望達到298千兆瓦,年複合增長率高達27%。這一爆發式增長,核心原因是,AI對算力的需求正在從“訓練”階段,逐步轉向“推理”階段。
以前我們說AI訓練,拼的是誰的晶片算得快、性能強。但現在進入應用階段,推理需求迅速放大,企業要考慮的就不只是“快”,而是要“又快又省”——響應速度要夠快,功耗不能太高,部署和擴展還要靈活。性能當然重要,但成本控制和能效比變成了新的核心考量。
也正是因為這種採購邏輯的變化,AMD終於等到了自己的主場機會。
以前在AI訓練市場,輝達幾乎是“一家獨大”。它靠著CUDA生態和強悍的GPU算力,直接把對手遠遠甩在後頭,AMD根本沒法硬剛。但現在進入推理階段,遊戲規則變了。客戶更在乎的是誰更划算、誰部署得更快、誰系統效率更高——而這些,剛好就是AMD擅長的方向。
AMD在伺服器晶片上的能效設計一直做得不錯,現在再加上MI300系列在架構上的持續最佳化,它正好趕上了這個換擋期。在AI推理這個新賽道上,AMD等於說是打出了一套自己的組合拳。
更關鍵的是,AMD自己也很清楚這點,已經把戰略重心明確地轉向了推理市場。在最新一季財報裡,它第一次單獨披露了“訓練”和“推理”的業務資料,這就說明它不是試試看,而是準備在推理這邊真刀真槍幹一場。
根據AMD自己的預測,到2028年,整個AI晶片市場的規模能達到5000億美元,其中80%以上的增長都來自推理部分。換句話說,訓練市場是輝達的主場,但推理市場,很可能就是 AMD 真正爆發的大好機會!
從產品節奏上看,AMD與輝達已經步入年度迭代的同頻競爭周期。 根據最新的晶片路線圖,AMD今年推出MI350系列,2026年MI400系列上線,而2027年已規劃MI500——每年一更,覆蓋CDNA3到CDNA5架構。這一節奏與輝達從B200、GB200,到Rubin、Rubin Ultra再到Feynman的更新路徑高度同步,說明AMD已完成在高性能AI晶片領域的長期規劃。
更重要的是,從功耗(TDP)、視訊記憶體(HBM容量)、互聯方案(Infinity Fabric到Ultra Ethernet)到晶片與平台搭配,AMD產品的系統整合能力在逐步向輝達靠攏。 特別是未來的MI400與MI500,顯然是對輝達Rubin Ultra與Feynman的正面應對。
除了晶片,AMD 明年還有一張大牌要打 —— 就是它的旗艦 AI 系統 Helios。
它不只是台性能猛的新伺服器,更關鍵的是,它背後代表著 AMD 的一個重大轉變:不再只是賣晶片,而是開始把“整套 AI 系統方案”打包賣給客戶。
以前大家提到 AMD,想到的可能就是“做加速卡”的供應商。但 Helios 的出現,說明它已經開始往系統解決方案提供者這個方向走了。單機架最多能塞下 72 顆 MI400 顯示卡,計算密度能和輝達的 NVL72 正面對標。而且不僅適合小規模部署,它還能橫向擴展,組成上千卡等級的超級叢集。
那 AMD 怎麼做到橫向擴展的?關鍵在於它把 GPU 之間的互聯方案做了系統級最佳化 —— 不再是簡單拼性能,而是重新設計“怎麼讓這麼多 GPU 高效協同”的整體架構。
支撐這套系統的底層邏輯,是 AMD一直堅持的“開放”和“模組化”。跟輝達那種“一整套自家封閉系統”的做法不同,AMD 選擇的是相容主流標準,讓客戶可以自由組合計算、儲存、連接等模組。這樣做的最大優勢,就是靈活:誰都不想被一家廠商鎖死,尤其是那些追求高性價比和自主可控的大企業和雲服務商。
正如CEO蘇姿丰在發佈會上強調的那樣:
“AI的未來,不會由任何一家企業單獨完成,也不會存在於一個封閉的生態系統裡。”
這話聽起來挺客氣的,其實是對輝達“封閉生態”策略的正面回擊。這對於那些希望擺脫被一家廠商“繫結”、同時追求更高自主性和成本效益的企業來說,Helios 提供了真正有選擇空間的另一條路。
Helios 所代表的開放、模組化戰略,正是 AMD 建構 AI 解決方案閉環、實現更大野心的基石。 因為硬體只是進入 AI 戰場的門票,真正決定長期格局的,是能否提供一套完整的 AI 解決方案。
為了打通這條閉環,AMD 已在關鍵節點上加速佈局:不久前收購了伺服器製造商 ZT Systems,目的就是把“最後一公里”的交付也抓在自己手裡。接下來,它大機率還會在AI軟體平台上加碼,無論是自己做還是買,目標很明確——要像輝達那樣,搞一整套能承接訓練、部署、推理全過程的企業AI平台。
如果這條“晶片 + 平台 + 服務”能被打通,AMD就不僅僅是輝達的“追趕者”,而是真正具備做AI時代資料中心一站式解決方案提供者的潛力。這不僅會最佳化收入結構,還可能是其估值出現大跳躍的關鍵支點。
展望更遠的未來,這張令人期待的“王牌”——Agentic AI(代理型人工智慧)——也正與 AMD 的當前戰略高度契合。 這類 AI 系統具備在設定目標和規則下進行自主決策和任務執行的能力,被廣泛視為下一輪 AI 技術浪潮的主引擎。與當前生成式 AI 相比,Agentic AI 對算力架構、運行效率和彈性擴展能力提出了更高要求,也勢必對 AI 基礎設施提出更大挑戰。而 AMD 當前所推進的開放、高效、模組化生態,恰恰為這一演進方向奠定了堅實的技術基礎。
近期的一系列合作訊號正在釋放出強烈訊號:AMD不僅獲得了一批關鍵客戶的戰略認可,更有望在未來實現AI晶片的集中放量。
其中最具代表性的,是 OpenAI 已正式成為 AMD 新一代 MI Instinct 晶片的早期設計合作夥伴,並將採用 MI300X 與下一代 MI450 晶片。
要知道,OpenAI 不僅是AI模型研發的技術前沿,其選擇具有極強的行業示範效應——它的技術選型,往往會引導一大批企業客戶的採購決策。這背後,體現的是AMD產品在性能、能效、性價比等方面的全面認可。
更重要的是,合作已經不再停留在“測試”層面,而是進入了訂單落地、系統部署的實際階段。
甲骨文將在其雲服務中部署多達13.1萬顆MI355X晶片,是目前AMD最大規模的雲基礎設施合作,標誌著其解決方案已具備實際交付能力。
Meta 也已確認使用MI350晶片用於推薦引擎訓練和部署,驗證了AMD晶片在推理成本控制與系統部署效率上的競爭優勢。
馬斯克旗下AI公司 Xai正在使用AMD晶片,這從技術選型側也再次印證AMD的市場吸引力。
微軟則計畫繼續與AMD合作開發下一代Xbox硬體平台,平台將支援多裝置聯動,這意味著AMD在遊戲圖形晶片之外,也正向多終端算力生態擴展。
從這些客戶名單可以看出,AMD 正在進入一條“質量更高、轉化更快”的合作通道。 這些客戶要麼是AI算力基礎設施的核心提供者(如Oracle、微軟),要麼是AI部署規模最大的實際使用者(如Meta、xAI)。這說明AMD已經從“可能的替代者”變成“可實際落地的供應商”。
與此同時,AMD也在全球加速佈局其AI生態圖譜。中東市場成為其海外突破的重點方向。沙烏地阿拉伯、阿聯等國正大力建設本地AI基礎設施,對架構開放性和成本控制提出更高要求。AMD憑藉模組化設計、高性價比以及不鎖定生態的策略,成功進入該地區多個大型項目,逐步拓展出一條區別於美中之外的新興市場路線。
從投資的角度來看,AMD現在的AI收入和它未來可能達到的規模之間,其實還有很大差距。2024年全年,它的AI晶片收入大約是50億美元,而2025年第一季度的資料中心營收是37億美元,雖然增速不錯,但整體體量還相當於輝達在2023年AI起飛前的水平。
而今天,輝達的季度資料中心收入已經突破390億美元,市場普遍預計2025年將輕鬆邁過400億美元門檻,進一步穩固其市場主導地位。對比之下,AMD仍處於AI加速器市場的早期階段,尚未兌現其估值所對應的長期增長潛力。換句話說,這種體量差距雖然是挑戰,但是也意味著AMD還有很大的成長空間,當前的估值可能還沒有完全反映它未來的發展潛力。
市場研究機構預測,到2025年,全球AI晶片市場的規模將達到2500億美元,到2028年有望翻倍到5000億美元。就算AMD只拿下20%的市場份額,收入也有可能達到1000億美元,遠超現在市場預計的470億美元。
如果市場格局進一步變化,特別是推理市場打開了替代輝達的空間,那AMD的想像力還可以更大。假設未來推理市場佔AI總市場的60%到80%,而AMD能在這個部分拿到一半的市場,那它的AI晶片收入有可能衝擊1500億美元,接近現在輝達的總營收。
也就是說,現在的AMD,正處在“業績爆發前”的關鍵階段。它的真實潛力,很多還沒被市場看清。而這個“預期差”,可能就是2025年乃至未來幾年裡,投資者最值得把握的機會。對於看好AI進入推理時代的人來說,AMD或許正站在估值重估的起跑線上。風險與機遇並存的投資考量。
當然,增長預期的另一面是風險的增大。
一方面,僅僅實現當前市場預期的增長目標,AMD也面臨巨大挑戰。在產品性能、軟體生態、客戶轉化等多個關鍵維度上,必須持續取得突破,才能真正撼動輝達在AI晶片領域的先發優勢。這一過程不僅充滿技術壁壘,還伴隨著客戶黏性與平台依賴的慣性。
另一方面,一些核心雲廠商,如Google、亞馬遜——正在加快推進內部AI晶片(如TPU、Trainium)自研處理程序。算力“自供化”趨勢一旦加速,可能會壓縮通用AI晶片的市場份額,導致整體TAM未必能如預期般順利突破5000億美元。
很多投資者第一反應可能是:那我直接買輝達不是更穩嗎?這個邏輯當然沒問題,輝達是行業龍頭,實力也毋庸置疑。只是相對來說,輝達現在的體量已經很大了,市場對它的預期相對較滿。而AMD的故事,可能才剛剛開始——它還在加速追趕的階段,成長空間還沒被市場完全定價,所以“向上彈性”可能反而更大。
華爾街的預期其實也說明了這一點。最新預測顯示,AMD未來五年的每股收益(EPS)年復合增速有望達到26.7%,而輝達大概在14%左右。這意味著,那怕面對強敵,AMD依然被認為有很大的成長潛力。一旦資料中心業務開始放量,利潤率和營運槓桿就會同步釋放,長期增長的底子也就紮實了。
所以,這不是“輝達 VS AMD”的二選一問題,而是看你是否相信AMD能成為下一個成長極。如果你在尋找一個還在上升通道、有真實需求支撐、又沒被市場完全定價的投資機會——AMD,確實值得你認真想一想。
說完了AMD,我們接著分析另一家科技巨頭——甲骨文(Oracle)。
在剛剛發佈的2025財年第四季度財報裡,甲骨文不僅全面上調了2026年的增長預期,更傳遞出一個強烈訊號:這家公司,已經不只是賣軟體的老牌廠商,而是正在成為AI基礎設施領域裡,那個不可或缺的重要角色。
先看它的財務表現。這一次的增長,已經不是慢慢轉型,而是明顯的“加速起飛”。它的核心雲應用產品Fusion ERP,從上個季度的18%增速提到了22%;NetSuite也從17%加快到18%。而更值得注意的是,甲骨文還上調了下一財年的增長指引:預計2026年,雲應用收入將增長40%以上,雲基礎設施收入更是要增長70%+。這可是整個軟體行業目前都很難見到的速度。
那麼,這麼強勁的增長,到底是怎麼來的?
摩根士丹利最近的調研給出了答案:AI,正在成為企業把ERP系統遷移上雲的決定性催化劑。調查中,高達48%的受訪者表示,“為了使用AI功能”是他們做出遷移決策的重要原因之一,僅次於“實現數位化轉型”和“提高營運效率”。也就是說,AI已經不是“加分項”了,而是企業IT架構升級時繞不開的核心原因。
這也正好解釋了甲骨文這次財報背後的邏輯。以前企業遷移ERP,可能是為了系統跑得更快;而現在,遷不上雲,就用不上AI模型,就無法實現財務自動化、預算預測、甚至自動報表生成。正如CEO Safra Catz在電話會上所說:
“客戶開始意識到,只有遷移到雲端,才能真正使用AI功能。如果他們想要實現自動化、降低成本、提高效率,就必須遷移到Fusion或NetSuite。”
所以說,AI對ERP的價值,已經從‘加分項’變成了‘必選項’。而甲骨文,剛好站在這個拐點上——它有成熟的雲產品,也有龐大的客戶基礎,現在又靠AI打開了新的增長空間,正在成為這波“AI驅動企業升級”潮流中,最大的一批受益者之一。
但你可能會問:甲骨文的雲基礎設施(OCI)怎麼可能比亞馬遜AWS增長得還快?
美股投資網總結了以下三個原因。
第一,它沒有硬碰硬,而是繞開主戰場,選了條更聰明的路。甲骨文並沒有直接和AWS正面對抗,而是選擇做“多雲相容”。什麼意思呢?它把自己最強的資料庫服務標準化了——不管你用的是AWS、Azure還是Google雲,都能直接對接它的系統。目前它已經建了23個多雲資料中心,一年之內還要再建47個。說白了,那怕客戶原本用的是別家的雲,只要資料有需求,也能接進來,讓甲骨文來“跑業務”。
第二,成本優勢有吸引力。在同等配置下,甲骨文的雲成本比AWS便宜最多能到60%。而且還有個關鍵點:AWS傳出資料是要收費的,超過1GB就開始按GB計價,0.09美元/GB,而甲骨文直接免這個錢。別小看這點,對訓練AI模型、部署推理這種要頻繁傳資料的企業來說,這就是實打實的成本優勢,能省下不少錢。
第三,甲骨文處於低基數的爆發增長階段。甲骨文現在的市場份額還不到AWS的十分之一,但它去年的雲業務增速是50%,今年直接把增長目標拉到70%以上。因為基數小,成長空間反而大。我們最愛找的,就是這種“從小起跳,正在提速”的估值重估機會。
講到這裡,很多人可能會以為甲骨文增長靠的就是“便宜+聰明打法”,但其實最根本的原因,是它的定位變了:它不再是那家只賣軟體的公司,而是開始搭建AI時代的底層“水電煤”系統。
比如在今年一月,甲骨文宣佈斥資210億美元擴建“星際之門” AI資料中心計畫,這是目前全球最大的資料中心建設項目之一。“星際之門”並非噱頭,而是為了真正提供AI模型訓練和推理需要的高性能算力平台。隨著AI代理、AI機器人這類應用開始部署,對這種基礎設施的需求也開始爆發。
而甲骨文的優勢不僅是硬體,而且還在於它對企業資料流的全鏈路打通能力:上層有ERP和業務軟體,中間有資料庫,底層有算力和儲存。企業想真正落地AI應用,不能只靠買幾張卡,還得先把資料採集、結構化、呼叫這一整套流程打通。而這三步,甲骨文都有成熟的解決方案。
就像創始人拉里·埃裡森說的那樣:“AI的金子不是演算法,是資料。”
在別人還在卷模型、卷參數的時候,甲骨文專注的是“模型怎麼跑得起來,能不能落得下來”。雖然不像模型參數那樣容易吸引眼球,但要真正落地到企業營運中,最核心、最難被替代的,正是這些基礎能力。
目前甲骨文的資本支出與RPO(已簽署待履約訂單)是高度聯動的。這說明這些巨額投入並非憑空設想,而是基於客戶已簽訂單按需擴容。隨著RPO的快速增長,未來一年甲骨文將不得不加快交付節奏,資本開支有望從當前的250億美元進一步抬升至400至500億美元。從這個意義上說,真正的收入兌現周期,才剛剛開始。
所以我們看甲骨文,不只是關注一兩季的財報數字,而是要看到它背後正在搭建的,是一整套支撐AI全面落地的底層技術和服務體系。而這種轉型的深度和廣度,可能還沒有被市場充分認清。
從估值角度來看,目前甲骨文的市值約為5900億美元,很多投資者仍把它當作一家傳統軟體公司,用舊的盈利模型去衡量它的未來表現。但如果我們換一個角度,把它視為AI時代企業資料流通、系統整合與算力部署的“基礎設施提供者”,那麼它的商業邏輯、估值體系和現金流能力,都值得重新評估。
你會發現,微軟主攻“入口層”,輝達掌控“算力層”,而甲骨文所處的位置,是幫助AI真正落地的“執行層”和“資料流通層”。它不是AI浪潮的邊緣參與者,而是整個商業化過程中的關鍵樞紐。
這,才是我們真正看好甲骨文的核心理由。
今天的分享就到這裡。你怎麼看AMD的成長潛力?你會怎麼在輝達和AMD之間分配倉位?你認為甲骨文它能否成為下一個被市場重新定價的兆巨頭? (美股投資網)