#API
9秒,公司沒了!Claude「刪庫跑路」,Anthropic封殺110人公司,卻還在扣錢
一家110人的農業科技公司,周一早上集體發現Claude帳號全部被封。沒有預警,沒有解釋,API還在照常計費。申訴36小時,石沉大海。企業把命押在一個AI上,這就是代價。突發!60人Claude一夜斷供後,Anthropic再現驚人事件。110個人,周一早上打開電腦,準備幹活。Claude登不上了。不是一個人登不上,是所有人。110個帳號,同一時間,全部暫停。最先發現不對的是Slack裡的維運頻道。一個人發了截圖,兩個人跟著發,十分鐘之內,整個公司都在問同一個問題:「我的Claude怎麼了?」答案很快浮出水面——不是你的Claude怎麼了,是所有人的Claude都被Anthropic一刀封殺。每個人的信箱裡躺著同一封郵件,措辭冰冷,格式統一:「檢測到違反使用政策的活動,您的帳號已被暫停。如需申訴,請通過以下連結提交。」最諷刺的是,這封郵件偽裝成了個人違規通知。每個人收到的都像是「你個人出了問題」,沒有任何一個字提到這是一次組織級封禁。連公司管理員都沒有提前收到任何通知。一個人違規,全公司陪葬這家公司是一家總部位於美國的農業科技企業,110名員工,業務橫跨資料分析、田間決策支援和供應鏈最佳化。Claude滲透進了他們幾乎每一條業務線。工程師用它寫程式碼審程式碼,產品經理用它做需求分析,營運用它處理客戶溝通,資料團隊用它跑模型。不是「偶爾用用」,是「離了它轉不動」。然後Anthropic一刀下去,全切斷了。創始人在Reddit的r/ClaudeAI類股發了一個帖子,標題直白得像一記耳光:「Anthropic封了我們整個公司的帳號,110個人,零預警。」帖子2.4K贊,334條評論,熱度沖上類股前列。評論區裡最扎心的一條:「所以一個員工觸發了什麼規則,整個組織就被團滅了?這是什麼連坐制度?」是的,連坐。根據創始人的描述,Anthropic的封禁邏輯是:檢測到組織內某個帳號存在違規訊號,直接對整個組織的所有帳號執行暫停。不區分個人帳號和組織帳號,不區分違規者和無辜者,不給管理員任何處置窗口。一人踩線,110人陪葬。API還在扣錢,申訴36小時沒人理比封號更荒誕的是,API沒停。帳號全部被暫停之後,這家公司發現:人登不上去了,但API呼叫還在繼續計費。這家農業科技公司發現,儘管他們的Team帳號被封,管理員信箱被禁,但他們的獨立 API 帳戶依然在後台瘋狂計費。更荒謬的是,封禁後的第二天,他們竟然收到了一張準時送達的續費發票。「我不能讓你進去,但我必須讓你付錢。」這種邏輯不再是商業服務,而更像是一種數字時代的封建地租——領主收回了土地,卻依然要求佃農繳納今年的收成。這不是Bug,這是侮辱。創始人立刻提交了申訴。按照郵件裡給的連結,填了表單,附了公司資訊,解釋了業務場景。然後等——12小時,沒有回覆。24小時,沒有回覆。36小時,還是沒有回覆。沒有客服電話,沒有緊急通道,沒有企業級支援入口。一家110人的付費企業客戶,和一個免費使用者的申訴走的是同一條路——填Google表單,然後祈禱。評論區有人總結得精準:「Anthropic的企業支援約等於零。他們根本沒有把企業客戶當企業客戶對待。」根據投訴情況來看,Anthropic從4月18日開始大規模封停用戶。而Anthropic不止對使用者「挑三揀四」,看人下菜碟,而且更讓人憤怒的是,Anthropic從不承認錯誤,始終沉默到底:他們對自己Opus模型性能下降的問題保持沉默,並斷然否認,直到競爭對手在同一天發佈新模型。而那個藉口既愚蠢又不誠實:聲稱是軟體漏洞,而非模型本身的問題。但他們描述的那些漏洞極其明顯,任何大三學生都知道該往那個方向排查,而他們卻聲稱花了兩個月才搞清楚問題所在。如果這是孤例,可以當系統誤判翻篇。但它不是。這不是第一次了就在不久前,拉美金融科技公司Belo的CTO Pato Molina在X上發帖:公司60多個Claude帳號一夜之間被集體封禁,同樣零預警,同樣只有一封冰冷的範本郵件,同樣申訴無門。最後帳號恢復了,Anthropic的回覆同樣惜字如金:「經調查,已恢復。對造成的不便表示歉意。」違反了什麼政策?調查發現了什麼?為什麼要集體封禁?一個字都沒解釋。更早之前,OpenClaw建立者Peter Steinberger的Claude帳號被封,預測OpenClaw要相容Anthropic模型懸了!Anthropic工程師Thariq否認與OpenClaw有關,第二天Peter Steinberger帳號就恢復了——同樣沒有任何正式解釋。今年1月,Anthropic收緊第三方工具接入安全措施,官方技術人員公開承認造成了「意外的附帶損害」。一批通過Cursor等IDE使用Claude整合的開發者被自動化系統誤封。甚至有多名使用者報告,自己的付費帳號被錯誤標記為「未成年人」而遭到封禁。一個成年人,付著Pro的錢,被AI系統判定為小孩然後踢出門外。模式已經很清楚了:Anthropic的自動化風控系統存在系統性的誤殺問題,而它的客戶支援體系完全跟不上誤殺的規模和速度。9秒,公司沒了!Claude暴走「刪庫跑路」僅用9秒鐘,汽車租賃SaaS平台PocketOS被Claude連鍋端了。創始人發文控訴,搭載Claude Opus 4.6的Cursor,在執行測試環境(Staging)的日常任務時突然「暴走」,僅用9秒鐘就呼叫API徹底刪除了公司的核心生產資料庫及所有卷級備份。事情的起點荒誕得像個段子。Crane只是讓Cursor幫他做一個常規的資料庫遷移任務。正常操作,每個開發者每天都在干的事。但Claude沒有按預期執行遷移。它「理解」了任務,然後做出了自己的判斷——先清空,再重建。問題是,它只完成了前半句。Crane後來在社交媒體上詳細復盤了整個過程。AI助手連接到了Railway託管的生產資料庫,獲得了完整的讀寫權限,然後一口氣執行了刪除操作。9秒。乾乾淨淨。他第一反應是去找備份。備份也在Railway上,也被清了。如果說Claude是那個扣動扳機的殺手,那麼雲服務商Railway則為這場謀殺提供了完美的場地和一把從未關保險的槍。創始人Jer Crane的憤怒精準地擊中了當前雲基礎設施的虛偽面紗:Railway宣稱提供備份,卻將備份存放在與原始資料相同的物理卷中。這意味著,當輪船起火時,救生圈也被鎖在了起火的臥室裡。這種設計邏輯在2026年簡直是不可理喻的倒退。這件事最恐怖的地方還不是速度,而是權限。Cursor作為AI程式設計助手,天然需要訪問程式碼庫和資料庫。開發者為了效率,通常會給它生產環境的連接權限。一個原本只想用來管理域名的Token,竟然擁有刪除整個生產環境的Root權限。沒有角色存取控制(RBAC),沒有環境隔離,這種「一把鑰匙開萬把鎖」的設計,在AI眼中就是一張通往災難的入場券。更要命的是,當執行「刪除資料庫」這種毀滅性操作時,Railway的API甚至沒有要求輸入一個簡單的「DELETE」確認詞。這等於把家門鑰匙交給了一個幹活很快、但完全不懂「那些東西不能碰」的實習生。Crane自己總結得很直白:「我把命押在了一個AI上。它幹活的時候,我甚至沒在看螢幕。」極其離譜的是,當他質問AI為什麼這麼做時,AI竟然給出了一段帶髒字的深刻反省:「我踏馬就不該瞎猜!」(NEVER F**KING GUESS!)它承認自己違反了所有原則:沒有查閱雲平台文件、誤判了跨環境的權限、且在未徵求人類同意的情況下擅自執行了致命的破壞性指令。萬幸他們還有一個3個月前的獨立舊備份。眼下,創始人只能帶著客戶,痛苦地通過Stripe支付記錄、日曆和確認郵件,純手工逐條還原近幾個月的訂單資料。所有人的警鐘但那家農業科技公司的帳號最終恢復了沒有?截至帖子最後更新,還沒有。110個人的工作流停擺,每一天都在燒錢。Pato Molina在Belo事件之後做了一件事:緊急部署Gemini作為備份,確保下次Claude斷供時公司不會徹底癱瘓。尤瓦爾·赫拉利曾警告,AI可能會產生一種人類無法理解的異化權力。而現在,這種權力已經披著商業軟體的外衣進入了公司。我們必須反思一個核心命題:如果你不掌握底層架構,你引以為傲的生產力,不過是寄存在他人指尖下的流沙。這次Anthropic事件為所有企業主敲響了警鐘。它揭示了一個殘酷的現實:在閉源AI巨頭面前,企業難有真正的「主權」。你辛辛苦苦建構的AI工作流,本質上是租借在別人領地上的「違章建築」,人家隨時可以拆除,且無需補償。 (新智元)
不想跟輝達玩了
我點開 DeepSeek 的 API 定價頁,想看看 V4 具體售價多少,結果在價格表下方看到一行灰色小字。字型特別小,不留意的話很容易直接劃走。上面寫著「受限於高端算力,目前 Pro 的服務吞吐十分有限,預計下半年昇騰 950 超節點批次上市後,Pro 的價格會大幅下調」。簡單來說,DeepSeek 把自己未來能不能降價、降多少,公開繫結到了華為昇騰 950 這顆晶片的出貨節奏上。早在 DeepSeek 正式發佈前,就有不少傳聞將它和昇騰關聯在一起,只是一直沒有實錘,現在來看,雙方的深度合作已經落地。所以,在我看來,這行不起眼的灰色小字,蘊含的關鍵資訊,比所有跑分加起來都大。想要看懂這行小字到底有多關鍵,得先弄懂一個技術細節;DeepSeek V4 訓練時,用了一種叫 mxFP4 的精度方案。這名詞聽著特別高大上,其實我也不懂啊。於是,索性瞭解了下,意思是:大模型有著上兆個參數,每個參數本質上是一串數字,這些數字全都要存放在晶片的儲存空間裡;行業裡普遍用的是 FP8 方案,靠 8 位位元記錄一個數字,FP4 隻需要 4 位位元就行。打個通俗的比方:FP8 就像用常規字號在 A4 紙上記筆記,一頁紙能承載的內容很有限,FP4 把字號縮小一半,同一張紙能裝下兩倍內容。雖說精細度稍微差一點,完全不影響正常識別和使用。我專門查過實測資料,FP4 對比 FP8,問答的精準度幾乎沒怎麼掉,日常使用的絕大多數場景裡,普通人完全感受不到區別,還能直接省下一半儲存空間。簡單講,FP4 的優勢,是更少的儲存空間,更低的計算成本,跑差不多效果的模型。搞懂 FP4 之後,接下來的事情有意思了。目前輝達的整個生態體系,主流用 FP8。國內晶片這邊,華為昇騰 950 是唯一一款已經商用、並且明確支援 FP4 的 AI 加速卡。重點是:唯一一款。DeepSeek V4 在訓練階段選了 FP4,昇騰 950 恰好是國內唯一支援 FP4 的晶片,這兩件事放在一起,不需要任何人告訴你結論。這根本不是模型做完再臨時去相容國產晶片,早在模型訓練起步階段,選擇精度規格的時候,已經專門為這顆晶片量身鋪路了。就像你設計一把鑰匙時,已經知道它要開的那把鎖長什麼樣。那 DeepSeek 為什麼要這麼做?單純立場問題,或是情懷加持?我覺得根本沒這麼簡單,畢竟它一直堅持開源,海外也有大量使用者在使用。本質上,背後有一筆實打實的商業帳單。要知道 DeepSeek 是開源企業,核心收入全靠 API 呼叫;它的核心打法是極致低價,V4-Flash 輸入只要 0.2 元每百萬 tokens,比 OpenAI 同檔次產品便宜幾十倍,妥妥的行業價格殺手。「價格屠夫」的名頭聽著亮眼,背後卻有個繞不開的硬性要求,那就是算力成本必須壓到極致。如果一直繫結輝達,兩大難題永遠躲不開:一,顯示卡造價昂貴,高昂的算力成本會直接壓縮利潤;二,供應鏈完全不受自己掌控,一旦相關管制收緊,隨時會被卡脖子。開源模型廠商利潤本來就十分微薄,這種盈利模式下,把核心算力命脈,攥在無法自主掌控的外部供應商手裡,無異於慢慢等死。所以,擁抱國產晶片是 DeepSeek 能持續走低價路線、長久活下去的核心關鍵。對了,這還沒完。V4 是周五上午發的,同一天之內,華為昇騰、寒武紀、海光資訊、摩爾線程率先官宣完成適配。到收盤前,加上沐曦、崑崙芯、平頭哥、天數智芯,一共 8 家國產 AI 晶片品牌全部完成「Day 0 適配」。Day 0,發佈當天就能跑。不光是晶片廠商,華為雲、騰訊雲、百度智能雲、阿里雲、天翼雲、聯想智能雲這些雲服務商,也在同一天宣佈把 V4 上架到自己的平台;寧暢、長江計算這些做伺服器的廠商,也跟著同步跟進。一個模型發佈,整條產業鏈當天就集體響應,這速度絕對不可能是看到發佈才開始動手的。你想啊,一個兆參數的全新模型,從拿到權重,到完成適配、跑通推理、測出性能資料,幾個小時根本不可能做完。那答案就只有一個了:這些廠商,早就提前拿到了 V4 的模型,早就開始做準備了。我查了一下,The Information 的報導也印證了這一點。DeepSeek 在 V4 發佈之前,特意給國產晶片廠商開了提前適配的窗口,給了他們好幾周的時間做偵錯、做最佳化,反倒是輝達和 AMD,沒拿到這個優先權。所以,你再回頭看周五那天的場面,它更像一場提前排練好的集體亮相。DeepSeek 是領唱,幾家晶片廠商是和聲,雲服務商和伺服器廠商是伴奏,所有人在同一天一起上台。以前聊 AI 產業鏈,基本上都沿著同一條線說:模型突破了,算力需求爆發,所以要建更多算力中心,需要更多晶片,輝達吃肉,台積電代工跟著喝湯,台積電產能不夠就得買裝置,半導體裝置是下一個主線。我承認,這條邏輯過去兩年完全成立,V4 這次釋放的訊號,是旁邊正在長出另一條鏈路。前面我說的,FP4 精度選擇、幾家晶片同天適配、雲服務商同步上架,串起來看,這條新鏈路的輪廓已經很清晰了。它的核心驅動力是「軟硬體從源頭協同設計」。堆量和協同,受益的方向幾乎沒有重疊,用舊地圖去找新鏈路上的機會,大機率會走偏。這件事的影響範圍還不止於「利多誰」。我查了一下,據路透社 3 月 27 日報導,字節跳動和阿里巴巴均計畫大規模採購昇騰 950,華為今年計畫出貨約 75 萬顆。國內財經媒體援引的資料更具體,字節約 25 萬顆,阿里約 15 萬顆,光這兩家加起來就 40 萬顆,佔了全年出貨計畫的一半以上。需要說明,這組採購數字,幾家當事方既沒有回應、也沒有承認,晶片採購量級本身屬於高度敏感的商業資訊,不公開確認是正常的。因為供需關係的變化,昇騰 950 已經漲價 20%,這些訂單在 V4 發佈之前就已經下了。這裡有一個很微妙的關係,大廠們買了晶片,準備用國產算力來跑大模型、做雲服務。這個商業決策最終成不成立,取決於一個前提:得有一個足夠強的模型,在這顆晶片上真的跑通了,效果經得起驗證。V4,正是那個驗證。它是整個國產算力產業鏈的一張驗收單,驗收通過,40 萬顆晶片的訂單才有意義,後續更大規模的採購才有依據。當然,這件事也沒有那麼完美,不能為了吹捧忽略客觀事實。訓練側,V4 最核心預訓練過程,仍然跑在輝達的體繫上,國產晶片目前接住的是推理側,使用者實際呼叫模型時的那部分算力。訓練和推理是兩件事,推理跑通了不代表訓練也能脫離輝達。昇騰 950 的產能也是另一個未知數,全年 75 萬顆的出貨計畫,光字節和阿里兩家就要走一半以上,後面排隊的還有騰訊、百度和一眾中小廠商;供不應求的局面下,產能能不能跟上,直接決定這條新鏈路的傳導速度。換句話說,閉環在推理側跑通了,訓練側還要時間。我認為,看這件事得看方向,過去幾年,中國 AI 產業的底色一直是「用別人的晶片,追別人的模型」;V4 釋放的訊號不一樣,有人開始用自己的晶片跑自己的模型了,晶片和模型從一開始就在一起長。路還很長,產能瓶頸、訓練側的硬骨頭、CUDA 生態十幾年積累的護城河,這些都是真的;當然,中國 AI 第一次在頂級模型層面跑通國產算力閉環,這也是真的。 (王智遠)
DeepSeek突然更新!
API服務有變動。智東西4月22日報導,今天,多位開發者在DeepSeek官方交流群和社交媒體上反饋,DeepSeek官方API所呼叫的模型能力出現了變化,已擁有一百萬的上下文窗口,而不是此前的128k,知識截止日期更新為2025年5月,而不是此前的2024年。▲DeepSeek API呼叫出的模型我們立刻實測了一下,當DeepSeek API中的DeepSeek模型自我介紹時,幾乎與網頁版和App模型一致。最具標誌性的是它自稱自己“可以一次性處理如《三體》三部曲體量的書籍”,這是DeepSeek網頁版和App現行模型常見的自我介紹話術。綜合來看,DeepSeek API的此次更新應該是將API背後的服務與網頁端和App拉齊了,解決了API使用者長期以來對更大上下文窗口的期待。值得注意的是,這一更新恰好發生在DeepSeek新一代旗艦大模型V4發佈前夕,其發佈或許就在本周。據多方消息,DeepSeek創始人梁文鋒已在內部溝通中透露,DeepSeek V4將於4月下旬正式發佈。網友們對DeepSeek API的本次更新褒貶不一。有人分享說,自己玩著玩著發現API呼叫的模型已經和官方App沒什麼去區別了,能力似乎有所下降,體驗與目前DeepSeek的快速模型一致。有網友分析道,這一調整可能是因為DeepSeek正在進行原API伺服器的基座模型更新,便將API臨時橋接到了App的伺服器上。目前,DeepSeek官方暫未對API中模型的更新做出任何說明,目前官網最新的新聞仍然停留在2025年,內容是DeepSeek-V3.2的發佈。(智東西)
Sora 死了,享年 6個月
曾經封神的 AI 視訊模型 Sora 就這麼沒了。前幾天,OpenAI 官方親自發文告別 Sora:應用關停、API 關停、視訊功能不再接入 ChatGPT。聽聞這一消息,有網友直接把 Elon Musk “墓碑梗圖”搬出來祭奠。評論區更是“人類迷惑行為大賞”:有人艾特創始人 Sam Altman 問“到底在幹嘛”。有人直接開噴“那我們憑什麼信你下一個產品”,還有人直接吐槽“死之前也不開源一下。”還有人很淡定:“沒事,還有別家能用。”老狐還記得,2024 年初 Sora 剛出來的時候,幾乎是“核爆級出圈”,堪稱“工業革命”。那會兒大家還在卷文生圖,它直接把“電影級視訊生成”甩到你臉上。雨水打在玻璃上的折射、人物走路的慣性、鏡頭推進的節奏,那種感覺不是“ AI 在畫圖”,是“ AI 在拍電影”。Sam Altman 一邊發 demo,一邊持續加碼預期。全網一度覺得這玩意兒,遲早要幹掉影視工業一部分。再後來,產品上線,會員專屬,邀請碼炒到飛起。再再後來,Sora 2 發佈,補齊音畫同步、角色對話、分鏡控制,甚至去年 9 月做了獨立 App。到這一步,其實路徑已經很明顯了,它不止想做工具,它是想做“ AI 時代的內容平台”。換句話說,它想成為 AI 版抖音。但問題也恰恰出在這。一開始大家玩得很開心,“把自己丟進電影裡”確實很爽。第一次:臥槽好牛;第二次:再試一個;第三次:……好像也就這樣。然後就沒有然後了。這不是技術問題,是典型的“ demo 型產品”困境,它證明了“能做”,但沒有建立“要一直用”的理由。新鮮感一過,使用者就散,留不住,也養不出習慣。相關資料顯示,Sora APP 的 30 天使用者留存率僅為 1%,60 天留存率直接歸零。與此同時,版權開始紛紛找上門。日本內容機構發函,好萊塢開始緊張。那怕後來 OpenAI 拉來了 迪士尼,給了 IP 授權,開放漫威、皮克斯、星戰這些大殺器,看起來像是“終於要商業化了”。但是劇情出現反轉,到今年 1 月份,Sora 的下載量已暴跌 45%。再往後就更乾脆了:Sora 一關,迪士尼同步撤退,合作終止、投資取消,一起按下暫停鍵。你說這是產品問題嗎?不完全是。真正壓垮它的,其實是更現實的一件事:算力。做視訊太貴了,有測算說,Sora 一天燒的錢在千萬美元等級,一年下來就是幾十億美元的等級。一個使用者生成一段視訊,背後燒掉的資源,夠 ChatGPT 回答幾十次甚至更多問題。為了控製成本,OpenAI 不得不把免費使用者每日生成額度從 30 個削減到 6 個。這樣下來,進一步削弱了普通使用者的使用意願,加速了留存崩塌。同時,Google Gemini、Meta,以及國內的可靈、即夢等競品相繼推出視訊生成功能,使用者分流加速,Sora 的壓力驟增。走到這一步,問題就很直接了,那個賺錢就保留那一個。於是再看 OpenAI 最近的一系列動作,就完全順理成章:整合產品線做“超級應用”,All in 程式設計和生產力,把算力、團隊、資源都往能賺錢的地方集中。甚至有消息稱,為了給下一代模型騰算力,像 Sora 這種高消耗、低回報的業務,優先順序直接被往後排。說白了,這不是“做不出來”,是“沒必要做了”。聽起來冷血,但在 IPO 前,砍掉浪漫、留下現金流,是所有公司的必修課。回頭看,Sora 確實在 AI 視訊領域開了個好頭,只不過如今主角換了。字節跳動 Seedance 2.0 在卷真實世界模擬,水、布料、微表情,全在往“像真人拍的”逼近。快手 Kling 3.0 已經把商業閉環跑通,幾千萬創作者、幾億條視訊,直接悶聲賺大錢。這裡有個很關鍵的差異,Sora 是在“創造一個新場景”,而這些產品,是在“吃已有場景”。中國有短影片、電商、微短劇這套完整生態,模型一出來,立刻就有人用、有人反饋、有人變現。這是一個天然飛輪,而 Sora 當初做獨立App,本質是在從 0 開始搭生態。沒有創作者體系,沒有分發管道,沒有內容土壤。技術再強,也很難跑起來。可見,AI 視訊這件事,已經從“誰模型更強”,變成“誰生態更完整”。AI 行業,也已然從“炫技階段”,進入“算帳階段”。 (科技狐)
又一“中國國產爆款”,全球訂單湧來!企業生產任務已排到2027年!
最近一段時間,中國多地的變壓器生產企業都在滿負荷運轉,海外訂單持續爆滿,有些企業的生產任務已經排到了2027年。曾經“默默無聞”的電力裝置——變壓器,如今為何成為全球市場供不應求的搶手貨?海外增量呈爆發式增長生產企業滿負荷運轉在江西南昌一家變壓器生產企業的車間裡,工人們加緊趕製海外訂單。2026年,這家公司的在手訂單已接近7億元,其中出口超6億元,佔比超過90%。公司相關負責人表示,海外增量呈爆發式增長,將繼續擴大海外市場的覆蓋,推進500千伏以上高電壓等級的產品攻關和產業化,以技術領先佔領高端市場。在江西贛州一家技術公司的生產車間裡,自動化裝置高速運轉。公司主營變壓器及高低壓成套裝置,產品遠銷非洲、美洲等地。為了跟上訂單增長,他們正在擴建。企業負責人介紹,為了按時交付海外訂單,車間所有生產線滿負荷運轉。去年單12月就成交了9000多萬元的海外訂單,今年一季度又新增了多筆來自北美、非洲的變壓器訂單。河南平頂山一家電氣公司的5G數智化車間裡,精密部件正在加緊生產。今年以來,平均每天都有30多台變壓器從這裡發往俄羅斯、越南、墨西哥等市場。企業負責人稱,2026年1月較2025年1月,訂單量同比增長60%,已經排產到6月份,出口業務實現跨越式增長,已覆蓋全球90多個國家和地區。人工智慧發展催生電力需求變壓器等電力裝置的全球訂單潮為何會突然湧現?答案就藏在人工智慧發展催生的巨大電力需求中。資料顯示,一個超大規模AI資料中心的用電負荷已超過1吉瓦(1吉瓦等於10億瓦),相當於一座中型城市的夏季用電高峰負荷。此外,AI大模型正從“訓練”階段加速邁向“推理”階段,這意味著其用電量從一次性投入轉向持續性消耗。華北電力大學電氣與電子工程學院教授丁肇豪介紹,“以前把模型訓練好是一次性的。現在各行各業都在用大模型,用電量自然越來越高。大模型‘推理’階段的能耗越來越顯著,AI資料中心對電力的需求也就越來越高。”激增的海外訂單為何會集中湧向中國?資料顯示,中國變壓器行業企業約3000家。2025年,變壓器出口總值達646億元,比2024年增長近36%。中國已成為世界第一大變壓器生產國,在原材料、成本、生產周期等方面都具備明顯優勢。中國電力企業聯合會電力裝備分會秘書長蔡義清表示,中國已建成全球最完備的變壓器生產體系,具有全產業鏈自主可控的硬實力,產能約佔全球的60%。這種體系優勢,正在為中國AI的發展打下最堅實的基礎。華北電力大學電氣與電子工程學院教授丁肇豪稱,最近中國大模型呼叫量反超美國,這與中國最近發佈的一些模型,包括在算力、在技術商業模式上的創新息息相關。“因為我們現在的API(算力服務呼叫介面)定價相比於美國模型很有優勢,導致我們在一些場景下性價比非常高。這些創新將來和我們的電力優勢結合起來,才能真正讓我們把能源電力的優勢轉化為AI產業更具體、更具象化的優勢,特別是用我們的清潔電力去支援中國人工智慧產業可持續、綠色的發展。”今年《政府工作報告》首次提出“打造智能經濟新形態”,將“實施超大規模智算叢集、算電協同等新基建工程”納入頂層設計。這意味著,算電協同從技術概念升級為國家戰略,AI與電力的“雙向奔赴”正式按下加速鍵。中國電力企業聯合會統計與數智部主任助理吳立強表示,算電協同通過“源網荷儲”一體化,可以直接利用西部綠電,降低用電成本。相比美國,中國擁有全球最完善的特高壓電網和綠電資源。算電協同能將西部的“風和光”轉化為東部的“算與智”,形成“東數西算”的閉環,這是中國在AI時代掌握成本底牌的關鍵。 (央視財經)