#INTEL
處理器價格持續暴漲原因找到了!Intel:CPU和GPU需求量將達1:1
生成式AI的爆發,不僅帶火了GPU市場,更讓CPU重回半導體產業的核心戰場。近期全球CPU市場供需嚴重失衡,終端價格持續走高,核心原因正是代理式AI帶來的CPU需求結構性暴漲。Intel日前披露,AI正快速從訓練走向推理與代理式(Agentic AI)應用。此前AI訓練階段,資料中心GPU與CPU的用量配比約為8:1。如今隨著代理式AI興起,這一比例已降至4:1,未來甚至可能達到1:1甚至反轉。CPU在資料調度、記憶體管理與系統協作上的核心價值大幅提升,伺服器CPU市場迎來強勁增長。Intel經營層直言,當前CPU需求遠大於供給,產能不足已讓公司流失數十億美元的營收機會。為鎖定高價值賽道,Intel將有限產能優先供給高價的至強伺服器處理器與高端PC產品。中低端消費級CPU、Chromebook平台CPU供應被大幅壓縮。其中PC組裝市場,Intel市佔率從巔峰時期的近9成,下滑至與AMD平分秋色。Chromebook平台CPU交期甚至拉長至1年,2026年整體出貨量預計因缺貨下滑至1800萬台。供需缺口持續擴大,直接推動CPU價格上行。供應鏈資訊顯示,Intel自2025年底至今已兩度上調CPU價格,2025年12月首輪調漲約10%,2026年3月針對部分型號再漲約10%,高端產品漲幅更高。AMD也同步跟進漲價策略,同時快速搶佔市場缺口,其伺服器CPU市佔率已逼近5成。深耕Chromebook平台多年的聯發科,成為本輪缺貨潮的大贏家。2026年其Chromebook處理器出貨量預計同比增長超40%,主力型號MK8189出貨量將達700萬顆,幾乎追平Intel同等級產品。目前Intel正通過18A製程良率提升、上調資本支出擴產緩解壓力,2026年二季度營收有望創下6年來首次雙位數增長,但行業短期供需失衡與價格高企的局面難有根本改變。另據DigiTimes報導,在代理式AI需求激增的推動下,CPU供需缺口持續擴大,導致Intel產能陷入罕見的供不應求盛況。在這種情況下,AMD和聯發科都在趁機搶佔市場,Intel、AMD和聯發科三大晶片廠商均在加緊擴產,但短期內價格漲勢和供貨緊張局面難以緩解。Intel高管在財報會議上直言,GPU與CPU的需求比例已從8:1來到4:1,並可能進一步走向1:1。Intel已將有限產能優先供給高利潤的至強伺服器處理器,供應鏈消息稱,至強6系列需求創歷史新高,Intel甚至動用回收晶圓來維持出貨。AMD也在借勢快速擴大市場份額,伺服器CPU市佔率有望很快突破50%,基於Zen 6架構、採用台積電N2工藝的下一代EPYC Venice處理器將於今年出貨。在主流市場,Intel將重心轉向伺服器和高端產品後,Chromebook的CPU供應明顯不足,交期甚至已拉長至1年,OEM廠商紛紛轉向替代方案,聯發科成為最大受益者之一,消息稱2026年聯發科Chromebook處理器出貨年增逾40%。(硬體世界)
罕見!Intel公開銷售廢品CPU獲利:客戶排隊搶購殘次品 全都要
客戶正在瘋狂買買買,甚至包括一些有缺陷的CPU晶片。Intel2026年第一季度財報業績大幅超預期引發關注。據報導,該公司已證實,已將原本會被當作廢品處理的低質CPU推向市場獲利,而面對極度旺盛的行業需求,下遊客戶對這些晶片照單全收,甚至出現了搶購的情況。4月23日,Intel發佈2026財年第一季度財報。財報顯示,公司當期營收達136億美元,遠超市場預期的123.6億美元;非GAAP毛利率達到41%,較公司自身給出的34.5%指引高出650個基點,每股收益更是超出市場預期3000%。如此巨大的差距令分析師們不禁好奇,究竟是什麼讓Intel業績如此亮眼?而答案似乎部分在於一些存在缺陷的晶片。科技行業分析師本・巴加林(BenBajarin)對外披露,他已直接從Intel投資者關係團隊獲悉。公司利潤率的意外提升,至少有一部分來自於原本會被歸為廢品或低預期產出的CPU銷售,這些產品為Intel帶來了實打實的營收增量。在晶片製造過程中,同一片晶圓切割出的晶片,性能和品質有好有壞,也就是大家常說的良率。晶圓中心區域切割出的晶片,性能更穩定,缺陷更少。晶圓邊緣切割出的晶片,往往缺陷更多,性能表現更差。按照行業常規操作,達不到高端型號規格但仍可使用的晶片,會被降檔標定為低端型號銷售。還有一部分邊緣晶片,連降檔的標準都達不到,最終只能被當作報廢品處理。如今CPU市場需求極度旺盛,客戶願意採購這些原本會被報廢的晶片。Intel只需將這些晶片降檔標定為低規格型號,就能順利完成銷售。這部分額外收益,並非來自晶片工藝提升,也不是來自成本控制最佳化,純粹是旺盛的市場需求,讓原本幾乎沒有商業價值的晶片實現了變現。這一罕見現象的背後,是AI浪潮帶動的全行業算力建設熱潮。AI基礎設施建設,正在以遠超供應鏈設計上限的速度消耗算力,直接催生了對伺服器處理器的海量需求。當下,作為是AI資料中心的核心硬體,Intel至強系列CPU始終處於持續高需求狀態。戴爾、惠普、聯想等頭部整機廠商,以及微軟、Google、亞馬遜等雲服務巨頭,都在大規模採購Intel處理器。管它好與不好,能用就行。 (硬體世界)
《觀察節拍》科技巨雄財報週:Intel 利多與 V價漲量縮並存,本週觀察節拍的三個關鍵錨點AI 財報、央行決議、波動率警戒同步上場,市場不是只看漲跌,而是要看資金輪動到哪一層、風險是否開始升溫、以及 AI 供應鏈還能不能續命。召喚一起練穩現金流節奏的夥伴-----------------------------------------------------📊 每日 MK AI賦能指引 — 掌握最新市場的節奏🎯 週四練功房 — 把觀察變成你的配速行動💬 飛鴿提問 — 有疑問直接問 MK👉 加入 MK CASH 陪跑學苑https://happy2brich.com/join-----------------------------------------------------
馬斯克:Terafab將採用Intel 14A製程製造晶片!
當地時間4月22日,特斯拉CEO馬斯克(Elon Musk)表示,特斯拉計畫在Terafab晶圓廠項目中採用英特爾(Intel)先進的14A製程技術來製造晶片。馬斯克在特斯拉財報電話會議上表示:“考慮到等到Terafab擴大規模時,Intel 14A製程可能已經相當成熟或準備好進入大規模商用階段,因此選擇14A看來是正確的舉措,而且我們與英特爾的合作關係非常良好。”這一消息對英特爾來說是一大突破,英特爾一直試圖發展晶圓代工業務,特別是希望能夠引外部大客戶採用其晶片製程技術。英特爾此前量產的18A製程已經通過自家的新款處理器證明其出色的表現,而即將推出的14A製程則更是面向代工客戶而設計,目標則是與台積電的2nm甚至是A16製程相競爭。在本月上旬,英特爾公司宣佈,加入馬斯克的TeraFab項目,將幫助SpaceX以及特斯拉重構矽晶圓廠技術。科技顧問公司創意策略公司(Creative Strategies)負責人巴荷林(Ben Bajarin)表示,英特爾的14A技術“對英特爾來說,可能比大家想像的還要重要”。巴荷林說:“(對英特爾來說)擁有多個夥伴做為早期設計夥伴很重要,這有助於理順流程,並在先進製程上獲得所需的經驗。他們(特斯拉和SpaceX)絕對具備規模優勢,因此會是一個很棒的首位外部大客戶。”特斯拉表示,今年將展開自駕計程車Cybercab與Tesla Semi的“量產”,而生產Optimus機器人的首座大型工廠籌備工作,將於第二季啟動。這些都將帶來對於自研晶片的大量需求。而為了推動TeraFab項目,特斯拉已經將今年的資本支出提高到了250億美元。 (芯智訊)
Intel新CEO重磅警告:記憶體比算力更緊缺!晶片戰爭真正瓶頸首次曝光
在Cisco AI峰會上,剛剛履新10個月的Intel CEO Lip-Bu Tan首次系統披露了AI基礎設施的真實瓶頸。這位曾帶領Cadence 25年的EDA工具教父,用一句話顛覆了行業共識:“如果有什麼會拖慢AI,那一定是記憶體,不是算力。”“朋友都勸我別接這爛攤子”開場時,Cisco高管Jeetu Patel半開玩笑地說:"你保持了我交友速度的紀錄——從沒人讓我這麼快建立友誼。"Lip-Bu Tan的回應更實誠:“加入Intel董事會兩年後,很多朋友勸我別當CEO——你在風投界名聲那麼好,幹嘛接這個爛攤子?”但他最終還是說服了妻子:"這是一家標誌性公司,對行業、對美國都太重要了。“10個月過去,Lip-Bu用"marching off the map”(踏入未知領域)形容這段經歷——意外狀況不斷,只能邊走邊學。摩爾定律壓縮到"三四個月"當被問到AI發展的最大制約因素時,Lip-Bu Tan的答案出人意料:“記憶體。記憶體供應商告訴我,至少到2028年都不會緩解。”為什麼?因為AI"吞噬"了太多記憶體。他提到與輝達CEO黃仁勳的私下交流:"Jensen下一代產品需要大量HBM記憶體。"而全球只有三家主要供應商(三星、SK海力士、美光),其中兩家明確表示產能已被鎖死到2028年。更驚人的是算力需求的增速。Lip-Bu透露了一個資料:"過去摩爾定律的周期是3-4年,現在變成了3-4個月。"這意味著計算需求的膨脹速度比任何人想像的都快。台積電產能:AI晶片的"七吋"雖然記憶體是第一瓶頸,但Lip-Bu更擔心的是2027年的晶片產能危機:2024-2025年新增15-18GW算力2026年新增約30GW2027年,晶圓廠產能將再次成為最大瓶頸他直言:“台積電等廠商約50%的先進製程產能都用於AI晶片。到2027年,瓶頸會從電力重新回到半導體製造。”這與此前SemiAnalysis創始人Dylan Patel的"台積電瓶頸論"不謀而合——當所有人盯著資料中心電力時,真正的死結在上游。為什麼Nvidia"被迫"多線押注?訪談中,Lip-Bu揭示了一個罕見細節:Intel正在同時押注CPU、GPU、RISC-V和ARM架構。“我剛聘請了頂尖的GPU架構師,還在擁抱RISC-V和ARM。關鍵不在於堅守x86,而是從軟體層往下定義硬體。”這背後的邏輯是:沒人知道AI的最優架構是什麼。輝達用GPU統治訓練市場,但推理市場正在分化——Intel客戶發現CPU在某些場景下性能更優,而Cerebras用WSE(晶圓級晶片)搶走了OpenAI的750MW推理訂單。Lip-Bu說得更直白:"每個CEO都給我打電話——Lip-Bu,我是你最重要的客戶,能多給我點貨嗎?“這種供不應求的狀態,倒逼晶片廠商必須"多條腿走路”。18A良率暴漲背後:開放的力量Intel代工業務(Foundry)是Lip-Bu的戰略重心。他接手時,18A製程良率"相當糟糕",但通過一個反常規操作實現了逆轉:“我讓所有朋友來幫忙——PDF Solutions、KLA等裝置商。我們’打開和服’(open up the kimono),讓外部專家進來診斷。現在良率每月提升7-8%,這是行業最佳實踐。”這種"透明即信任"的策略奏效了:Panther Lake(潘瑟湖)晶片已交付18A生產多個客戶主動上門要求使用18A14A製程(1.4奈米)將於2028年風險量產、2029年量產Lip-Bu給客戶的承諾也很實在:“給我你最大、最重要的產品,先給我5%-50%的份額,讓我慢慢贏得信任。”中國AI:比你想像的更接近當Jeetu Patel提出"中國模型只是蒸餾美國模型"的觀點時,Lip-Bu Tan的回答讓現場氣氛凝重:“我最近想招頂尖CPU架構師,發現華為有100個世界級CPU架構師。我震驚了。”他追問這些人才為何去華為,得到的答案是:“雖然我們沒有Cadence、Synopsys的頂級EDA工具,也沒有ASML的光刻機,但我們有’窮人的辦法’(poor man’s way)。而且我們在悄悄自研裝置。”Lip-Bu的結論令人警醒:“他們只是略微落後。如果我們不小心,他們會跳躍式超越。”更致命的差距在基礎設施審批速度:“在美國,資料中心的監管審批流程很長;在中國,一旦決定就能迅速獲批並建成。”開源AI:美國唯一的武器?面對中國政府補貼AI研發的模式,Lip-Bu給出了美國的"遊戲理論"答案:開源。“我強烈支援開源。坦率講,有很多專業人士告訴我——Lip-Bu,我們在開源AI上已經落後中國了。DeepSeek只是一記警鐘。”但問題在於:開源模型的訓練成本太高,沒有商業模式支撐。Lip-Bu透露,一些朋友正在重建開源社區,甚至成立獨立研究機構(而非依賴大學),專門資助頂尖AI研究者。他還呼籲產業界投入基礎研究:“公共公司受短期業績壓力,無法投資10-20年的長期項目。而頂尖教授正被亞洲和歐洲挖走,這太危險了。”散熱、互連、軟體:全端最佳化才是出路除了晶片和記憶體,Lip-Bu Tan還指出了三個被低估的瓶頸:散熱技術  “高性能GPU或CPU有時不得不降頻,因為散熱跟不上。風冷已經不夠了,液冷、微流體冷卻、浸沒式冷卻正在成為標配。”光互連  “過去靠銅纜和Credito、Astera Labs的方案,現在必須轉向光互連。速度和延遲要求太高了。”叢集管理軟體  “Kubernetes很好,但解決不了實際問題。現在有很多創業公司來找我,專攻GPU/CPU叢集的故障診斷——你都不知道問題出在那。”他強調Intel正在探索新材料:玻璃(優秀絕緣體)、人造金剛石、氮化鎵(用於射頻和開關)——“CMOS快到極限了,我們得翻遍元素周期表。”量子計算:AI之後的下一個戰場Lip-Bu Tan的時間線很清晰:現在:AI模型訓練與推理近期:Agentic AI(智能體)中期:Physical AI(物理世界AI,如機器人)遠期:量子計算“量子就在拐角處,這是AI之後的下一波浪潮。”給企業CIO的建議:別把AI堆在舊系統上訪談最後,Lip-Bu對全球數百萬IT決策者喊話:“不要把AI堆在遺留系統上——不會成功的。我剛招了能找到的最好的CIO,告訴她:現在是重新審視基礎架構的好時機。你得拆掉舊的,再逐功能引入AI工具。”他還分享了一個冷水資料:MIT教授的研究顯示,全球經濟的生產力增長率仍然極低,甚至低於19世紀的某些時期。“這說明AI的採用還不夠廣泛。我們必須明確目標、設計流程、建立可衡量的指標,才能真正向董事會證明:投資這項技術提升了生產力和營收。”尾聲:國家寶藏的雙重使命Jeetu Patel最後說:“Intel是國家寶藏,但你也是。”Lip-Bu Tan的使命很清晰:短期:讓18A/14A代工贏得客戶信任中期:重建美國半導體製造能力長期:在開源、材料、量子等領域保持領先他在風投界幹了幾十年,現在選擇"再戰一次"。或許正如他所說——這不僅是一家公司的轉型,更是一個產業、一個國家的生死戰。 (硅星人Pro)
記憶體大漲價:Intel CPU反而受歡迎!份額止跌回升
在CPU市場上,AMD自從銳龍架構之後不斷收復失地,份額快要跟Intel五五開了,然而在最新的Steam調查中Intel CPU份額止跌回升。據1月份的Steam硬體調查,Intel的CPU份額在過去幾個月中一直穩定下滑,但上月份額回到了56.64%,環比增加了0.25個百分點,而AMD的份額微跌0.19個百分點。雖然兩邊漲跌的份額非常小,但考慮到Steam調查的基數很大,這個變化依然能看出一些趨勢,尤其是考慮到過去幾個月來DIY市場面臨的記憶體大漲價問題。AMD平台的裝機主要是AM5平台和DDR5記憶體,但Intel這邊的裝機還有很多13、14代酷睿處理器,而且經常打折,價格已經便宜了很多。再加上Intel這邊的DDR4記憶體主機板還有很多,比如B760這樣的型號依然很主流,不排除近期裝機的玩家會傾斜於Intel平台。另外,箭湖平台的酷睿Ulrta 200系列雖然遊戲性能被銳龍X3D家族超越了,但是這一代CPU打折更多,之前我們就提到過酷睿Ultra5 265K/KF這種處理器性價比非常高了,甚至可以說1500元檔的神U,這可能也是Intel裝機數量增加的重要因素。報告還顯示,在PC顯示卡領域,輝達處於斷層式領先狀態,佔有73.24%的市場份額,AMD則是18.44%,剩下的8%為Intel所有。具體到顯示卡型號,RTX 4060 以 4.36% 的使用者佔比,終結了 RTX 3060 長達三年的榜首地位,成為當月使用者數最多的顯示卡。RTX 3060 佔比微降至 4.28% 位居第二,其餘位列榜單前十的均為N卡,AMD 獨顯暫無一款入圍。AMD方面,比較受歡迎的顯示卡是RX 7800 XT和RX 6600等較老的顯示卡,新一代的Radeon RX 9070僅有0.16%的份額。不過需要注意的是, AMD Radeon(TM) Graphics也包含一些可能未被識別的RDNA獨顯,佔比為2.27%。除了顯示卡之外,V社還公佈了其他一些資訊。Steam大多數玩家都在使用16GB記憶體,佔比40.24%,顯示器方面還是1080P顯示器居多,佔比52.59%,語言方面仍舊是英語最高,佔比37.01%。 (硬體世界)
一文讀懂英特爾(Intel)Flex 140顯示卡
在AI時代,大家都在卷大模型訓練,大算力堆疊。但你有沒有想過——99% 的AI工作,其實是推理?訓練只是一次性投入,推理才是源源不斷的算力消耗,尤其在視訊分析、圖像識別、即時推薦等場景中。這時候,一張“訓練不強但推理極卷”的顯示卡就顯得格外重要。它就是——Intel Flex 140。今天,我們就一文帶你讀懂這張專為AI 推理 + 媒體轉碼場景打造的神秘角色👇一 Flex 140 規格參數一覽Flex 系列是 Intel 在 2022 年推出的 資料中心 GPU 產品線,主打 AI 推理 + 媒體處理,Flex 140 是該系列的中端型號。它的設計目標不是和 H100 拼訓練性能,而是要解決如下問題:✅ 即時視訊流的轉碼和處理✅ 多模型 AI 推理負載✅ 低功耗運行、超強並行能力📌 本質上,它是一張“通用推理+媒體”加速卡,定位類似 NVIDIA 的 A10/A2/V100 推理版本。🎯 超小功耗 + 全功能支援,特別適合邊緣伺服器和大規模推理叢集。二 有那些技術亮點?✅ 1. 面向 AI 推理最佳化支援 FP32 / BF16 / INT8 精度通過 OpenVINO™ 工具套件 高效運行 YOLO、ResNet、MobileNet、Transformer 等模型針對多模型/多實例並行最佳化,可在一張卡上跑數十個推理實例✅ 2. 超強視訊編解碼能力支援 AV1 編碼/解碼(比 H.265 更高壓縮效率)同時轉碼 36 路 1080p 視訊流視訊幀中插入 AI 檢測、識別、推薦,邊轉碼邊推理✅ 3. 易部署、易擴展無需外接供電,僅 75W TDP可部署在標準 1U/2U 伺服器中無需風扇,適合密集部署場景三 Flex 140對比NVIDIA A10 / A2 / L4🎯 如果你重視視訊轉碼 + 多實例推理,Flex 140 極具性價比;但如果你已重度依賴 CUDA 生態,NVIDIA 更方便。💡 與 Gaudi 系列有啥關係?Flex 系列不是 Gaudi 的低配版,而是專為推理和視訊打造的“平行支援部隊”。四 適合什麼應用場景?Flex 140 不是用來跑 GPT 的,但它特別適合這些 “落地型 AI + 視訊” 應用場景:📌 它的最大優勢是:一張卡,搞定視訊 + AI 推理 + 多流並行。五 結論Flex 140是Intel推理市場的一把瑞士軍刀,專注“小而強、小而全”的部署場景。在那些“訓不起大模型、但又必須即時推理+轉碼”的應用裡,它是你的最優選擇。 (AI算力那些事兒)
英特爾CFO:公司正處於“手停口停”的極限狀態
1月23日,英特爾公司發佈2025年第四季度及全年財報。儘管在營收和每股收益上均超出華爾街預期,但公司對2026年第一季度的業績指引低於市場普遍預測,導致盤後股價一度重挫。介面新聞記者獲悉,英特爾2025年第四季度營收137億美元,同比下降4%;2025年全年營收529億美元,與去年持平。圖片來源:介面圖庫英特爾預計2026年第一季度營收將在117億至127億美元之間,預計第一季度每股收益為-0.21美元,非通用會計準則每股收益為0.00美元,即處於盈虧平衡水平。英特爾首席財務官David Zinsner表示,“儘管面臨全行業供應短缺的挑戰,公司第四季度的營收、毛利率和每股收益方面均超出預期。公司預計,可用供應量將在第一季度降至最低水平,隨後從第二季度起逐步改善。”在隨後的電話會上,David Zinsner表示,公司正處於“手停口停”(hand to mouth)的極限營運狀態。據其透露,進入2026年時,英特爾的緩衝庫存已經徹底耗盡,庫存水平已降至峰值的40%。更棘手的是,為了應對市場的強勁需求,英特爾在2025年Q3開始將晶圓向伺服器組合轉移,但由於伺服器晶片的生產周期較長,這批晶圓直到2026年Q1晚些時候才能產出,使得內部供應限制在第一季度將達到“最嚴重”的程度。這種產能錯配直接衝擊了英特爾的業績預期。David Zinsner指出,若非供應受限,公司第一季度的營收本應遠高於季節性水平。在產能吃緊的背景下,良率問題成為了關注的焦點。英特爾首席執行長陳立武透露,基於Intel 18A工藝的首批產品Core Ultra Series 3(代號Panther Lake)已開始交付,良率正在穩步提升,且符合內部計畫,“雖然良率符合內部計畫,但仍低於我想要的水平。”陳立武表示,加速良率提升將是2026年最重要的槓桿。他透露,目前每月良率提升幅度在7%至8%之間,但重點在於一致性和缺陷密度。除了生產端的挑戰,英特爾在AI時代的戰略定位也是投資者關注的另一重點。陳立武在電話會上糾正了市場對“AI時代CPU已死”的誤解,並明確表示“公司對CPU在AI時代不可或缺的作用信心堅定”。陳立武表示,AI基礎設施不僅僅是GPU的堆砌,推理模型、代理AI(Agentic AI)以及物理AI的興起,正在放大X86架構在編排和控制平面上的重要性。“AI工作負載的持續擴散和多樣化給傳統和新的硬體基礎設施帶來了巨大的產能限制,加強了CPU在AI時代日益增長和不可或缺的作用。”陳立武說。圖片來源:介面圖庫為了更直接地參與AI計算競爭,英特爾對其伺服器路線圖進行了調整。據陳立武透露,公司已將資源集中於16通道的Diamond Rapids處理器,並計畫加速引入具備超線程技術的Rapids系列產品。此外,英特爾正在與輝達緊密合作,建構一個與其NVLink技術完全整合的定製Xeon,為AI主機節點帶來一流的X86性能。與此同時,英特爾的定製ASIC業務已成長為新的增長極,2025年該業務增長超過50%,環比增長26%,並在Q4達到了超過10億美元的年化收入運行率,主要得益於AI基礎設施對專用網路晶片的強勁需求。在晶圓代工業務方面,英特爾正試圖通過技術節點的按期交付來重建市場信任。2025年Q4代工業務營運虧損擴大至25億美元,主要受18A早期爬坡成本拖累。儘管目前仍處於投入期,但陳立武在電話會上給出了時間表,外部客戶預計將在2026年下半年至2027年上半年做出實質性的產能承諾。目前,Intel 14A工藝的PDK 0.5版本已發佈,客戶正基於測試晶片評估良率,接觸“非常活躍”。分析師John Vinh在1月13日表示,英特爾18A良率提升下,“足以讓我們相信,它有望超越三星,成為業內可信的第二大晶圓代工供應商”。從行業視角來看,結構性分化加劇了英特爾當下面臨的挑戰。摩根士丹利分析師在電話會上表達了對英特爾在等待新產品周期時市場份額的擔憂。對此,David Zinsner表示,“所以我們在客戶端內部所做的是,我們專注於中高端,而不那麼專注於低端。”這也意味著,在供應受限下,英特爾將進行一些份額調整,優先滿足資料中心和高端客戶端需求,可能一定程度導致部分中低端市場份額的短期波動。針對2026年,David Zinsner預計,隨著下半年供應改善和Panther Lake成本結構的最佳化,毛利率將逐步修復,目標是首先重回40%的水平。公司計畫在2026年將營運支出控制在160億美元以內,並償還25億美元到期債務。 (介面新聞)