#效率
從《逐玉》看AI治理如何為演員演技護航
一、守護“真實感”:AI治理讓表演回歸本真在《逐玉》熱播之際,一份關於演員演技的真實評分引發熱議——田曦薇以9.2分奪得演技榜首,張凌赫也斬獲7.6分。這份高分背後,最打動觀眾的恰恰是演員們用“肉身”換來的真實感。據悉,張凌赫為演好落難侯爺謝征,特意減重15斤,在豬圈裡躲藏時那種脆弱又迷茫的眼神,讓觀眾真切感受到了角色的“破碎感”。而田曦薇更是徹底撕掉“甜妹”標籤,在劇中敢於素顏出鏡,把屠戶少女的潑辣直率演繹得入木三分。這種“演技上線”的背後,與當今AI治理理念的深化密不可分。過去一段時間,過度磨皮濾鏡曾讓不少演員的細膩表演被“一鍵抹平”——有評論尖銳指出:“演技再真,也扛不住濾鏡磨平細節”。正因如此,當前AI治理的一個重要方向就是防止技術對真實感的侵蝕。無論是國家廣電總局對AI“魔改”視訊的專項治理,還是行業對濾鏡過度的反思,本質上都是在守護影視作品應有的“人文溫度”。只有在這樣的治理框架下,演員們用身體和情感磨出來的“破碎感”、用素顏和汗水換來的“煙火氣”,才能真正被觀眾看見、被市場認可。二、賦能而非替代:AI治理重塑創作倫理《逐玉》中張凌赫和田曦薇的出色表現,還得益於當前AI治理所倡導的“技術賦能而非替代”的創作倫理。在北影節“BE SEEN光幕計畫”主題工坊上,業內專家達成共識:AI可以取代初級和中級的表演,但高級和頂級的表演是人與人之間的互動、在場的共振,這是演算法無法複製的變數。這種理念正在成為行業共識——AI應當成為輔助創作的“手術刀”,而非替代演員的“印鈔機”。在《逐玉》的創作中,我們看到的正是這樣的良性互動:AI技術被用於提升製作效率、完善視覺效果,但最核心的表演環節,始終留給演員的真實情感和身體表達。田曦薇原聲台詞的煙火氣、張凌赫在雪地背人戲中的喘氣和踉蹌感,這些細節恰恰是AI難以生成的“人味兒”。與此同時,隨著AI換臉、聲音合成等技術門檻的降低,演員的肖像權和表演權保護也成為AI治理的重點議題。從OpenAI聯手演員工會推出肖像權保護機制,到國內對AI“魔改”視訊的專項治理,都在為演員的創作權益構築“智能防線”。正是這種“賦能而不越界”的治理理念,讓《逐玉》的主演們能夠在技術輔助下盡情施展,而不必擔心自己的表演被技術篡改或濫用。三、淨化生態:AI治理為演技脫穎而出創造條件《逐玉》的爆火與主演演技被廣泛認可,同樣離不開AI治理為行業營造的公平競爭環境。曾幾何時,影視行業陷入“預製爆款”的怪圈——高顏值流量+大IP+過飽和式行銷,每一步都像是由演算法精確計算出來的“工業糖精”。更有甚者,利用AI技術製造“資料泡沫”,讓真正的好作品、好演員淹沒在虛假熱度之中。而當前AI治理的一個重要方向,正是打擊這種資料造假行為,讓市場回歸真實。在橫店影視文化產業發展大會上發佈的“暗影獵手”監測預警模型,已成功偵破侵權案件14起,封禁非法網站173個,為影視企業挽回經濟損失超700萬元。這種對侵權和造假行為的精準打擊,實際上是在為田曦薇這樣的實力派演員清路——當她憑藉9.2分的高分奪得演技榜首時,這份認可不再是流量泡沫堆砌的結果,而是觀眾真實投票的體現。更值得一提的是,演技評分榜單中,嚴屹寬拿到9.1分,老戲骨岳暘和劉琳更是整部劇的“定海神針”。這些實力派演員能夠脫穎而出,恰恰說明在AI治理日益規範的今天,行業正在回歸“好演員與好劇本互相成就”的健康生態。正如一位新生代演員所言:“電影中很多神性的瞬間,都來自於不確定”——而這種不確定的、屬於人的光彩,只有在去除了資料泡沫、淨化了行業生態之後,才能真正照亮觀眾的心。 (小橘搞研究)
OpenClaw新手指南:你的專屬“AI助理”養成記,這10個“神技”讓你效率飛昇!
要論今年最出圈的AI產品,OpenClaw首當其衝。很多科技博主將其稱為“最強AI助理,年輕人的第一個賈維斯”——通過與智能體對話,使用者可以部署並培育一個24小時線上的專屬AI助理,且其能力能夠不斷迭代,堪稱真正的“養成系”。對於身處異國他鄉的留學生而言,學業、生活、社交多重壓力之下,若能擁有一個聰明高效的AI助理打理一切,無異於如虎添翼。OpenClaw的精髓,主要在其豐富的“Skills”生態。這些Skills猶如AI的“外掛”,賦予其各種超能力,讓一個初始的“空殼子”瞬間進化為“超級助理”。然而,面對ClawHub上成百上千個Skills,不少使用者往往陷入“懵圈”狀態,不知從何下手。這種感覺,就好像購置了一輛頂配豪車,卻發現說明書是梵文,連方向盤都無從握起。為此,我們從ClawHub的茫茫“技能海”中為留學生群體精挑細選出10個最值得安裝的“開荒神技”,立竿見影,穩定靠譜。話不多說,直接上乾貨!1.安全第一道防線:skill-vetter一句話總結: 安裝其他任何Skill前,先給它做個“全身檢查”為何要裝: ClawHub上的Skills由全球開發者貢獻,質量良莠不齊。若某個開發者無意中留下後門,使用者的電腦可能面臨風險。這個Skill如同一位“安檢員”,幫助把好第一關,確保使用的都是乾淨安全的Skill。安裝指令: openclaw plugins install skill-vetter使用方式: 安裝後它會默默守護。當安裝其他Skill時,它會自動運行安全掃描,可謂“安全感爆棚”。2. 打通“任督二脈”:tavily-search一句話總結: 讓AI擁有“即時聯網搜尋”的超能力為何要裝: 沒有它,AI就是個“單機版”,只能依賴模型自帶的舊知識回答問題。想查詢今日新聞、最新學術論文或留學政策變動?裝上它,AI才能連接真實世界,成為使用者的“百科全書”和“新聞播報員”安裝指令: openclaw plugins install tavily-search使用方式: 直接向AI提問即可。“幫我查一下最近的AI技術突破”、“英國最新的留學簽證政策是什麼?”,它會自動呼叫Tavily進行搜尋,提供最新鮮、最準確的答案。3. 學會“自我進化”:self-improving-agent一句話總結: 讓AI記住自己犯過的錯並從中學習,避免重複犯錯為何要裝: 原生AI如同“金魚”,只有短暫記憶。使用者剛糾正完一個錯誤,下次它可能照犯不誤。這個Skill能讓它“長記性”,越用越聰明,越來越懂使用者。它在ClawHub熱門榜排名第一不無道理——它能讓AI助理真正成為使用者的“私人定製款”,而非千篇一律的通用模型。安裝指令: openclaw plugins install self-improving-agent使用方式: 潛移默化中發揮作用。當使用者糾正它時,它會默默記錄並最佳化自己的行為模式,逐漸符合使用者的習慣和需求。4. 留學生辦公自動化核心:gog (Google 全家桶)一句話總結: 用自然語言操作Gmail、Google Calendar和Google Drive為何要裝: 這才是真正的生產力。在海外,Google全家桶幾乎是標配。讓AI幫忙“讀一下今天的重要郵件”、“在明天下午3點建立一個小組會議”、“把這份作業提交到Google Drive”,使用者會第一次感覺到自己像個“CEO”——郵件、日程、檔案管理,統統交給AI。安裝指令: openclaw plugins install gog使用方式: “幫我看看今天有沒有‘教授’發來的郵件,有的話總結一下關鍵內容”、“在下周二下午2點建立一個‘小組項目討論’的會議,邀請[同學A的信箱]和[同學B的信箱]”,AI會自行查閱信箱、建立日程。5. 程式設計師狂喜:github一句話總結: 專屬的GitHub私人助理為何要裝: 對於CS或相關專業的留學生,這個必裝。搜尋程式碼、查看issue、提交PR,甚至建立repo,都可以直接在聊天框裡讓AI完成。無需在瀏覽器和IDE之間來回切換,效率直接拉滿。安裝指令: openclaw plugins install github使用方式: “去GitHub上搜一下有沒有用Python實現的快速排序演算法示例程式碼”,它會將程式碼片段直接呈現。或者“幫我看看[某個repo]最近有沒有新的issue”。6. 資訊過載解藥:summarize一句話總結: 一鍵總結網頁、PDF、YouTube視訊,甚至圖片中的文字為何要裝: 留學生每天需要處理的海量資料常令人頭疼——學術論文、新聞資訊、課程視訊……將連結或檔案丟給它,直接說“總結一下”,幾秒鐘就能獲得一份核心摘要。節省下來的時間,足以多刷幾集劇或多睡幾個小時。安裝指令: openclaw plugins install summarize使用方式: “總結一下這個網頁的核心觀點:[網頁連結]”、“幫我把這份PDF(附件)裡的關鍵資訊提煉出來”、“這個YouTube視訊(連結)講了什麼?”7. 讓AI不再健忘:ontology一句話總結: 給AI一個長期記憶系統,讓它真正“認識”使用者為何要裝: 想讓AI記住學習習慣、研究方向、項目背景,甚至家中寵物的名字?這個Skill可以將這些資訊結構化儲存,建構一個專屬的“知識圖譜”。如此一來,AI能更好地理解上下文,提供更個性化的幫助。安裝指令: openclaw plugins install ontology使用方式: “記住,我的主力程式語言是Python,我正在研究機器學習領域”、“我的導師是[教授姓名]”、“我最喜歡的咖啡是拿鐵”,它會將這些資訊存入個人“本體”中。8. 從被動到主動:proactive-agent一句話總結: 讓AI從“問一句答一句”的客服,轉變為“會主動幹活”的助理為何要裝: 裝上它,AI會變得更有“眼力見”。使用者給出一個模糊任務,它會自行規劃、拆解、執行,甚至在使用者意想不到的地方主動提供建議。用社區的話說,感覺AI“活了”,真正成為“得力助手”,而非簡單工具。安裝指令: openclaw plugins install proactive-agent使用方式: 給出開放式任務,如“幫我規劃一下下周的期末複習計畫”,或“我最近想找一份實習,有什麼建議嗎?”,然後看它如何應對——它可能會主動搜尋資訊、列出步驟,甚至提供面試技巧。9. 技能發現專家:find-skills一句話總結: 讓AI自己去ClawHub上尋找完成任務所需的Skills為何要裝: 這解決了“我怎麼知道該裝什麼Skill”的終極問題。作為“元技能”,它讓AI自己武裝自己。遇到新需求而不知是否有對應Skill時,直接問AI,它就能幫忙找到並推薦,堪稱“懶人福音”。安裝指令: openclaw plugins install find-skills使用方式: “我想實現一個功能,自動把每天的天氣預報發到我的信箱,有合適的Skill嗎?”,它會自行搜尋並推薦。或者“我需要一個能幫我管理項目進度的Skill,ClawHub上有嗎?”10. 新手村福利:weather一句話總結: 查天氣,無需任何配置,簡單直接為何要裝: 簡單直接、100%成功。當被各種API Key和複雜配置搞得頭昏腦脹時,可以用它來測試OpenClaw是否正常工作,順便建立信心。同時,瞭解當地天氣也是留學生的日常剛需。安裝指令: openclaw plugins install weather使用方式: “紐約今天天氣怎麼樣?”、“[所在城市]明天會下雨嗎?”留子們是不是已經躍躍欲試了?技能雖好,但不建議一股腦全部安裝,容易出現問題。如同遊戲闖關,新手村應先熟悉操作,再逐步升級。建議按以下順序推進:先基礎,再生產力,最後上高級功能。安全與基礎: skill-vetter(安全第一)→ tavily-search(聯網能力,AI的眼睛)核心智能化: self-improving-agent(讓AI更聰明)→ proactive-agent(讓AI更主動)生產力工具(二選一或全都要): gog(辦公利器,留學生必備)/ github(開發者專屬)效率增強: summarize(資訊處理神器)→ find-skills(AI的“技能樹”)長期調教: ontology(AI的“記憶宮殿”,越用越懂使用者)輔助功能: weather(日常剛需,測試是否正常工作)作為“過來人”,日報君也已經替大家踩過不少坑,為了讓OpenClaw運行更順暢,以下幾種需要特別留意:1、裝完不重啟,死活不生效現象: 安裝完新Skill後興致勃勃地去問AI,結果它一臉茫然,無法呼叫新功能。原因: OpenClaw的Skills不支援熱插拔。多數情況下,新裝的Skill需要重新載入才能生效。解決: 最穩妥的方法是Ctrl+C停掉OpenClaw,然後重新執行openclaw gateway啟動。否則問到天荒地老,它也調不出新裝的工具。切記,重啟大法好。2、API Key 填錯地方現象: 某些需要聯網的Skill(如tavily-search)安裝後無法使用,報錯提示API Key無效。原因: API Key的配置位置可能與預期不同。解決: 像tavily-search這類需要API Key的Skill,Key並非寫在Skill的配置檔案裡,而是統一寫在~/.openclaw/openclaw.json的models.providers部分(若使用需要聯網的模型)或專門的skills配置塊中。具體需查閱每個Skill的文件,切勿想當然,仔細閱讀官方文件是王道。3、貪多嚼不爛,Token爆炸現象: 安裝一堆Skill後,AI回覆變慢,甚至開始“胡言亂語”,或直接報錯“上下文長度超出限制”。原因: 每個Skill都會在背後悄悄增加傳送給大模型的prompt長度。開啟的Skill越多,每次請求消耗的token就越多。解決: 不僅花費增加,還容易超出模型的上下文長度限制,導致AI“智商”下降或直接報錯。建議新手先保持3-5個核心技能,玩熟後再根據需求逐步增加。 如同手機裝App,並非越多越好,適合自己的才是最好的。將OpenClaw安裝起來只是第一步,學會用Skills武裝它,才是真正打開新世界的大門。對於留學生而言,時間就是金錢,一個精心調教的AI助理,能幫助我們處理日常瑣事、輔助學術研究,有更多精力投入到學習和體驗異國文化中去。當然,OpenClaw的生態仍在不斷發展壯大,ClawHub上還有更多寶藏Skill等待發掘。若有其他好用的Skill推薦,或在折騰OpenClaw的過程中踩到什麼新坑,歡迎在評論區留言交流,日報君將持續關注並帶來更多實用資訊。 (留學生日報)
矽谷工程師的“AI時代帳本”:效率翻了10倍,我卻更累了
AI工具越強,人卻為何越累,這或許才是這場效率革命真正值得追問的地方。圖片由AI工具製作026年初,軟體工程領域出現了一個耐人尋味的景象。以Claude Opus 4.6為代表的新一代AI程式設計工具,正在將開發者的效率推向前所未有的高度。微軟內部資料顯示,工程師在自主選擇工具後,Claude Code迅速佔據主導地位,這被部分觀察者視為“阻力最小路徑”的自然選擇。但與此同時,關於“職業倦怠”的討論正在開發者社區密集湧現。曾在Google、亞馬遜任職的工程師史蒂夫·耶格(Steve Yegge)在近期的一篇自述文章中描述了一種他稱之為“瞌睡攻擊”的現象:在長時間的氛圍程式設計後,他會毫無預兆地在白天突然入睡。擁有40年矽谷經驗的軟體工程師耶格發文如今,越來越多的軟體工程師開始公開談論一種共同體驗:工作產出大幅提升,但疲憊感以更快的速度積累。技術大幅縮短了任務執行時間,卻沒有減少人類的決策負擔,後者反而在增加。圖片來源於網路01 AI不會疲憊,但你會在耶格看來,此前關於“AI對實際工作幫助有限”的討論,在Claude Code搭配Opus 4.5及4.6投入使用後,已不具備參考價值。這套組合顯著降低了從問題定義到可運行程式碼之間的轉換成本,使得一名熟練工程師在單位時間內的產出,可以達到傳統工作流的數倍。耶格指出,當生產力提升超過約2倍時,一種被他稱為“吸血鬼效應”的現象便開始顯現,技術不再僅僅是工具,而開始反向塑造使用者的工作節奏和心理狀態。耶格繪製的“AI吸血鬼抽取裝置”西丹特·卡雷(Siddhant Khare)是一位在部落格中詳細記錄這一過程的軟體工程師。他在《AI疲勞是真實存在的》一文中寫道,自己上一個季度的程式碼交付量達到職業生涯峰值,但精神上的疲憊同樣被拉滿。卡雷描述了一種工作模式的根本性轉變。在使用AI之前,他會用“整整一天”深度專注於單一問題,保持連貫的思維路徑。而在引入AI之後,他一天需要平行處理五到六個不同的問題域。每個問題在AI協助下,單獨耗時大幅縮短至一小時左右。但問題之間的頻繁切換,構成了新的認知負荷。“AI不會在問題間隙感到累,”他寫道,“但我會。”卡雷將自己的新角色形容為“流水線上的質檢員”。拉取請求持續湧入,每一條都需要審查、決策、蓋章。流程從未中斷,但決策權從未移交。他被固定在審判席上,案卷由AI遞送,責任由人類承擔。《哈佛商業評論》近期發表的研究為這一現象提供了實證基礎。研究者跟蹤了一家美國科技公司的200名員工,發現AI的使用雖然在初期顯著提升了任務完成速度,但也觸發了連鎖反應:速度提升推高了組織對交付周期的預期,更高的預期促使員工更加依賴AI,更深的依賴擴大了員工試圖處理的任務範圍,而範圍擴張進一步加劇了工作密度和認知負載。研究者將這一機制描述為“工作量蔓延”現象。它不是由指令驅動的擴張,而是在效率提升與預期調整之間反覆迭代、自我強化的過程。從事數字產品設計的薩莫·科羅舍茨(Samo Korošec)在LinkedIn上回覆耶格時,表達了相似的處境。他指出,社交平台上充斥著“一分鐘生成十個UI方案”的演示內容。這些內容被反覆推送給從業者和他們的管理者,形成一種隱含的標準。既然工具可以如此快速地輸出方案,那麼方案的產出就應當如此快速。然而,這些演示極少展示後續的篩選、落地、跨職能協調成本,後者依然完全由人類承擔。技術壓縮了生產環節的時間,但沒有壓縮決策環節的時間。而後者正在成為新的瓶頸,即人的注意力與意志力。02 AI改變了工作量級,但沒有改變分配耶格提出了一個簡化的分析框架。假設一名工程師在掌握AI工具後,單位時間產出提升至原來的10倍。那麼,這9倍的差額價值將由誰獲得,取決於使用者如何配置自己的勞動供給。比如在情景A中,工程師保持原有工作時長,將全部增量產出交付給僱主。此時,僱主以不變的人力成本獲得了近10倍的產出。工程師的收入未發生同比例變化,但其勞動強度和精神消耗顯著上升。耶格稱之為“被榨乾”。在情景B中,工程師大幅縮減工作時長,僅以原有10%的勞動時間完成與過去相當的產出。此時,增量價值全部由個人獲得,獲得了更多的閒暇時間。但這一狀態在競爭環境下難以持久。若組織內部成員普遍採取此策略,組織整體產出將落後於競爭對手,長期將面臨生存風險。耶格指出,理想狀態應位於這兩種極端假設之間。但在現行組織架構中,刻度盤的調節權並不對稱。組織天然傾向於將指針推向A端,而個體需要主動施加反作用力。這一框架將技術效率問題轉化為分配問題。AI並未改變“價值由勞動創造”的基本事實,但它改變了同樣單位勞動所能創造的價值量級。當這一量級發生躍遷時,原有的分配均衡必然受到衝擊。耶格回憶了2001年在亞馬遜工作的經歷。當時他所在的團隊承受著高強度的交付壓力,而回報高度不確定。他在一次討論中向同事寫下公式:$/小時。他解釋道,分子(年度固定薪酬)在短期內難以改變,但分母(實際工時)具有相當大的彈性空間。他主張將注意力從“如何賺得更多”轉向“如何工作時長更少”。這一視角轉換在當時令部分同事感到陌生,但在數周後,他多次路過會議室時看到白板上依然保留著這組符號。二十五年後,耶格認為這一公式同樣適用於AI時代。不同的是,AI大幅放大了分母變化對分子的影響,但個體對分母的控制力並未同步增強。LinkedIn使用者約瑟夫·埃莫森(Joseph Emison)從另一角度回應了這一問題。他觀察到,大多數在創意領域取得持續成就的從業者,包括知名作家、設計師、研究者,他們每日有效工作時長通常不超過四小時。剩餘時間用於恢復、漫遊、輸入。這不是效率問題,而是認知活動的生理極限問題。如果AI將“工作”與“有效工作”進一步切割,那麼我們需要重新定義的,可能不是工具的使用方式,而是“工作日”的長度。03 能力上限在擴張,下限正在消失耶格在文中坦承,自己也是問題的一部分。他擁有超過四十年的工程經驗,領導過大型團隊,閱讀速度快,且具備充足的時間和資源進行技術實驗。他可以連續數十小時使用Claude Code建構一個可運行系統,並將其發佈至公共領域。他的工作成果被廣泛傳播,部分管理者將其視為“工程師應可達到的水準”。他寫道:“僱主們很可能開始看著我,以及我們這些遠遠偏離常態的異類,然後說:‘嘿,我所有的員工都可以像那樣’”。LinkedIn等平台上,部分早期採用者開始公開分享自己的AI使用強度:有人稱其所在組織為少數帳戶支付每月數千美元的費用;有人展示自己同時運行數十個對話會話。這些內容在獲得技術社區關注的同時,也在管理層面塑造了一種隱性參照系。耶格將此稱為“不切實際的美麗標準”。他承認,自己並不具備代表性,他的工作節奏難以被多數人復現,甚至他自己也不確定能否長期維持。但當他站在講台或寫下書籍時,他所傳遞的資訊(至少在接收端)被簡化為“這可以做到”。LinkedIn使用者利赫·阿紹夫(Leigh Aschoff)將問題引向了更深層。他認為,當代人與AI的互動方式,對應出人際互動中長期存在的邊界識別障礙。許多人在與他人的關係中缺乏識別和表達自身極限的能力,而這種能力的缺失被平移到人機關係中。工具不會主動停止,也不具備感知使用者疲勞的能力。當技術不斷拓寬能力的上限,識別下限的能力反而變得更加稀缺。04 工作日需要重新定義耶格在文中提出了一個具體主張:AI時代的有效工作日應縮短至三到四個小時。這不是一個經過嚴謹驗證的數字,而是一個基於經驗的推斷。他的觀察是,AI將大量執行性任務自動化,但將決策、判斷、問題重構等高階認知活動保留給人類。這些活動對注意力和情緒資源的消耗遠高於執行性任務,且難以通過平行或壓縮恢復。耶格在參觀某個科技園區時,見到了一種他稱之為“刻度盤調至合適位置”的工作環境——開放式空間、充足的自然光、分佈於各處的社交與休息區域、員工在其中自由切換工作與恢復狀態。他並不確定這一設定在AI全面滲透後是否仍能維持平衡。但他確信,當前許多組織採用的模式——不調整工作時長,僅增加單位時間產出密度,這是不可持續的。他不再將問題歸結為“AI是吸血鬼”,而是歸結為“我需要更清楚地知道自己的極限在那裡”。耶格在文末表示,自己正在嘗試調低刻度盤。他減少了公開活動,拒絕了大量會面邀請,不再追求每一個可見的技術賽道。他仍在寫作,仍在建構產品,仍在與同行交流。但他也在下午合上電腦,與家人散步。他說,不知道自己能把指針往回拉多少。但他確信,方向是對的。對於更廣泛的從業者群體而言,這一問題尚未進入集體議程。關於AI生產力的敘事仍佔據主流,關於疲勞的討論仍以個人化、碎片化的方式存在。但越來越多的訊號表明,這兩條曲線正在交匯。技術縮短了任務路徑,但沒有縮短工作日。工具分擔了執行,但沒有分擔責任。效率提升了交付速度,也提升了消耗速度。當AI不斷告訴我們“還可以更快”,也許更需要被聽見的問題是:還可以更慢嗎? (騰訊科技)
用 AI 後,我效率翻 3 倍,人卻更疲憊,別再掉進這個陷阱了
「學不完,真的學不完。」這大概是每一個關心 AI 進展的人,在 2026 年開年最真實的心聲。模型、Agent 、Coding,每天刷新著我們的認知和焦慮 ,尤其是今年春節 AI 發佈的節奏甚至比平日更加瘋狂。我們被一種巨大的 FOMO(錯失恐懼)推著往前跑,生怕一不留神,就被時代甩在身後。但這種追趕是有代價的。像本文作者 Siddhant Khare 這樣的資深工程師,他身處 AI 基礎設施建設的核心,卻發現自己「產出越多,越被掏空」。當 AI 把我們從「創作者」變成了停不下來的「質檢員」,當效率的提升帶來了指數級增長的認知負荷,一種名為「AI 疲勞」的隱性流行病便開始蔓延 。我們都成了在 AI 倉鼠輪上奮力奔跑,卻感覺那裡都去不了的實驗品。同時最近大火的 Clawdbot ,開發者 Peter Steinberger 財富自由後「躺平」了三年,完美錯過了 AI 最喧囂浮躁的階段 。當他重新入場,純粹因為好玩與熱愛。他沒有追趕每一個熱點,只是為瞭解決一個自己真正著迷的問題 。我們發現,對抗 FOMO 最好的解藥,或許不是學得更多、更快,而是學得更「自私」一點。與其被動消費無窮無盡的新工具,不如主動去創造一個那怕很小,但完全屬於自己的東西。在這個過程中,你才能真正理解技術的邊界,建立自己的判斷體系,並從被 AI 消耗的疲憊感中,重新找回創造的樂趣 。我們希望將這篇文章分享給你,它沒有教你任何新的 AI 技巧,反而給在追趕 AI 更新的人潑了一盆冷水,我們試圖探討一種更可持續、也更人性的與 AI 共存的方式願你找到自己的節奏,重新變回 AI 的「主人」。以下是 APPSO 的編譯,在不改變原意的前提下進行了編輯:被忽略的 AI 疲憊上個季度,我提交的程式碼量創下了職業生涯的新高。與此同時,我也感到前所未有的被掏空。這兩件事,絕非巧合。我不是那種在周末隨便玩玩 AI 的票友。我以此為生——建構 AI Agent(智能體)基礎設施,是 OpenFGA 的核心維護者,親手打造了 agentic-authz 和 Distill 這樣的硬核工具。我深潛其中,為其他工程師製造著「讓 AI 在生產環境跑起來」的鏟子。然而,我碰壁了。這種精疲力竭,是任何工具最佳化或工作流調整都無法治癒的。如果你也是一名每天高強度使用 AI 的工程師——用它做設計評審、生成程式碼、Debug、寫文件——然後發現自己比 AI 出現之前更累了,那麼這篇文章就是為你寫的。你沒瘋,你不弱,你只是正在經歷一種被整個行業激進地假裝不存在的真實痛楚。如果像我這樣全職建構 Agent 基礎設施的人都會在 AI 面前燃盡,那它可能發生在任何人身上。我想聊聊那個「不加濾鏡」的版本。不是推特上那些「AI 太神了,看我絲滑工作流」的凡爾賽,而是那個真實的版本:晚上 11 點,你盯著螢幕,被一堆 AI 生成的程式碼包圍,明明是來幫你省時間的工具,卻吞噬了你的一整天。沒人警告過的「效率悖論」有個事兒讓我腦殼疼了好一陣:AI 確實讓單個任務變快了。這不是謊言。以前耗時 3 小時的活兒,現在 45 分鐘搞定。起草設計文件、搭建新服務腳手架、寫測試用例、研究陌生 API,統統加速。但我的日子卻變得更難了。不是更容易,是更難。原因說穿了很簡單,但我花了好幾個月才回過味來:當每個任務耗時變短,你並不會「少做點任務」,你會做「更多工」。你的產能看似擴容了,於是工作量便順勢填滿,甚至溢出。經理看你交付快了,預期自然水漲船高;你自己看自己快了,自我要求也跟著加碼。基準線,被悄悄抬高了。在 AI 之前,我可能花一整天死磕一個設計難題。我會畫草圖、在淋浴時思考、散步,然後帶回清晰的方案。節奏雖慢,但認知負荷是可控的。一個問題,一天時間,深度聚焦。現在呢?我一天可能要碰六個不同的問題。因為 AI 告訴我,每個問題「只需要一小時」。但人類大腦在六個問題之間來回切換的上下文成本,是極其昂貴的。AI 不會因為切換任務而疲勞,但你會。這就是悖論所在:AI 降低了「生產」的成本,卻指數級增加了「協調、審查和決策」的成本。而這些成本,全部由人類買單。被迫上崗的「流水線質檢員」以前,工程師的工作是:思考問題 -> 寫程式碼 -> 測試 -> 發佈。我是創作者,是 Maker。這正是我們當初入行的初衷——為了創造。AI 之後,我的工作逐漸變成了:寫提示詞 -> 等待 -> 閱讀輸出 -> 評估對錯 -> 檢查安全性 -> 判斷是否符合架構 -> 修補不對的地方 -> 重新提示 -> 重複。我變成了一個審稿人,一個法官,一個在永不停歇的流水線上疲於奔命的質檢員。這在心理學上是完全不同的工種。創造能帶來「心流」,而審查只會帶來「決策疲勞」。我第一次意識到這點,是在用 AI 狂寫一個微服務的那周。到了周三,我發現自己連最簡單的決定都做不出了。這個函數該叫啥?無所謂。配置放那?隨便吧。我的腦子滿了。不是因為寫程式碼滿的,是因為「評判」程式碼滿的。成百上千個微小的判斷,全天候轟炸。更殘酷的諷刺在於:AI 生成的程式碼比人類寫的更需要仔細審查。同事寫的程式碼,我懂他的路數、強項和盲區,我可以略讀信任的部分,重點看我不放心的。但面對 AI,每一行都是嫌疑人。程式碼看起來自信滿滿,能編譯,甚至能跑通測試,但它可能在某個隱秘的角落埋雷,只在凌晨 3 點生產環境負載拉滿時才爆炸。所以你必須逐行閱讀。去讀那些你沒寫過、由一個不懂你程式碼庫歷史和團隊習慣的系統生成的程式碼,這本身就是一種精神酷刑。這也是為什麼我認為 Agent 的安全和授權如此重要。如果我們沒法在大規模下審查 AI 產出的每一行程式碼——事實上我們確實做不到——那我們就必須從源頭上限制 Agent 的權限。最小權限原則、範圍受限的 Token、審計日誌。越少擔心「AI 幹了什麼蠢事」,留給真正重要工作的認知預算就越多。這不僅是安全問題,更是人類的可持續性問題。消失的「確定性契約」工程師是被「確定性」喂大的。輸入 A,得到 B。這是契約,是偵錯的基礎,是我們理解系統的基石。AI 撕毀了這份契約。周一運行完美的提示詞,生成了乾淨漂亮的 API 程式碼。周二用同樣的提示詞跑類似的任務,輸出結構變了,錯誤處理邏輯換了,還引入了我沒要求的依賴。為什麼?沒理由。或者說,沒有我可以理解的理由。沒有堆疊跟蹤告訴我「模型今天決定換個口味」,沒有日誌顯示「溫度採樣選了路徑 B」。它就是……變了。對於職業生涯建立在「如果壞了,我就能找出原因」之上的工程師來說,這種感覺極其不安。不是那種劇烈的恐慌,而是一種緩慢的、研磨般的背景焦慮。你永遠無法完全信任輸出,永遠無法完全放鬆。每一次互動都需要保持警惕。這種挫敗感最終逼我做出了 Distill——一個針對 LLM 的確定性上下文去重工具。沒有 LLM 呼叫,沒有嵌入,沒有機率玄學。純演算法,12 毫秒搞定。我想在 AI 流水線裡至少保留一塊我可以推理、偵錯和信任的淨土。如果模型的輸出註定是薛定諤的貓,那我至少要保證輸入是乾淨可控的。我見過應對得最好的工程師,都是那些與此「和解」的人。他們把 AI 輸出當成一個聰明但不靠譜的實習生交來的初稿。他們預期要重寫 30%,他們為此預留了時間。因為從未指望它完全正確,所以當它出錯時,他們不會炸毛。他們指望的是「有用」,而非「正確」。這中間的區別大了去了。被 FOMO 追趕的倉鼠輪深吸一口氣,回頭看看這幾個月發生了什麼:Claude Code 發佈子智能體,然後是 Agent SDK;OpenAI 推出 Codex CLI;Google 甩出 Gemini CLI;GitHub 搞了 MCP 登錄檔;收購案每周都在發生;各種 Agent 框架像雨後春筍:CrewAI, AutoGen, LangGraph, MetaGPT……當你還在研究這個,那個已經過時了。就連 LinkedIn 上的「野生導師」都在恐嚇你:「2026 年還不用子智能體編排,你就被淘汰了!」這不是一年的變化,這是幾個月。我曾狠狠掉進這個坑裡。周末用來評測新工具,看每一個更新日誌,看每一個演示。因為恐懼落後,我強迫自己站在前沿。結果呢?周六下午折騰一套新 AI 編碼工具,周日剛跑通工作流,周三就有人發帖說另一個工具「完爆這個」。焦慮感瞬間襲來。下個周末,我又在折騰新東西。這就好像一隻倉鼠,從一個輪子跳到另一個輪子,每次遷移都耗費一個周末,換來的可能是 5% 無法感知的效率提升。最可怕的是「知識折舊」。2025 年初,我花兩周精心打磨了一套複雜的提示工程工作流。鏈式思維、少樣本示例,那是相當完美。三個月後,模型更新了,最佳實踐變了,我那些複雜的範本跑出來的結果甚至不如一句簡單的大白話。那兩周的時間,不是投資,是浪費。這就是為什麼我現在改變了策略:別追工具,追基礎設施。工具來來去去,但問題永存。上下文效率、授權、審計、執行階段安全——無論這個月流行那個框架,這些底層問題都在。所以我建立 agentic-authz 是基於 OpenFGA,而不是繫結在某個特定的 Agent 框架上。建立在那些不會輕易變質的層面上。「再試一次」的陷阱這個陷阱極其陰險。第一次輸出 70% 正確。你最佳化提示詞。第二次 75% 正確,但把第一次對的地方改錯了。第三次 80% 正確,但結構全亂了。第四次……如果你一開始就自己寫,20 分鐘早就搞定了,現在你已經耗了 45 分鐘。我稱之為「提示詞螺旋」。這就像給犛牛剃毛。你本以此為目標,半小時後卻在偵錯提示詞而不是偵錯程式碼。你在最佳化對語言模型的指令,而不是解決實際問題。這種螺旋很危險,因為它讓你「感覺」很高效。你在迭代,你在逼近真相。但邊際收益遞減得飛快,你忘了最初的目標只是「發佈功能」,而不是「讓 AI 產出完美程式碼」。現在我有一條鐵律:事不過三。如果三次提示還得不到 70% 可用的結果,我就自己寫。這條規則幫我省下的時間,比任何提示詞技巧都多。完美主義者的地獄工程師通常有潔癖。我們要乾淨的程式碼,要全綠的測試。這讓我們擅長建構可靠的軟體。但 AI 的輸出永遠是「湊合」。70-80% 的完成度。變數名有點怪,錯誤處理不完整,邊緣情況被忽略。它能跑,但它「不對味」。這對完美主義者來說簡直是酷刑。因為「差點意思」比「完全錯誤」更難受。完全錯誤你可以直接重寫;差點意思你就得花一小時去微調。修補別人的爛程式碼(尤其是這種沒品位、沒上下文的機器程式碼)是極其令人沮喪的。最受折磨的往往是最好的工程師。 那些標準最高、眼光最毒的人。而 AI 時代獎勵的是另一種技能:能夠迅速從不完美的輸出中提取價值,而不對「完美」產生情感執念的能力。思考能力的肌肉萎縮這是最讓我害怕的一點。某次設計評審,有人讓我在白板上推導一個並行問題。沒電腦,沒 AI,就我和一支筆。我卡殼了。不是我不懂概念,而是那塊肌肉太久沒練了。我太習慣把初稿外包給 AI,導致自己「從零思考」的能力退化了。就像 GPS 毀了我們的認路能力一樣,如果總是先問 AI,你就無法建立那些只有通過「死磕」才能形成神經回路。掙扎是學習的必經之路,困惑是理解的前奏。跳過這些,你得到的是更快的產出,和更淺薄的理解。現在,我強迫自己每天第一個小時完全不用 AI。紙上思考,手畫架構。這感覺很低效,確實低效。但這能保持思維敏銳,而這種敏銳度在我隨後使用 AI 時是無價的——因為只有大腦熱身過,我才能更好地審判 AI 的輸出。比較陷阱與倖存者偏差社交媒體上滿是 AI 大神。「我用 AI 2 小時做完了整個 App!」你看看自己:失敗的提示詞、浪費的時間、重寫的程式碼。你會想:我有毛病?你沒毛病。那些帖子是「集錦」。沒人會發帖說:「我花了 3 小時想讓 Claude 理解我的資料庫架構,最後放棄了自己手擼了 SQL。」沒人會發帖說:「AI 生成的程式碼吞了一個報錯,導致生產事故。」沒人會說:「我累了。」如果一個資訊流讓你感到落後而不是知情,那就取關它。 去關注那些真正在建設、在發佈產品的人,而不是只會做 Demo 的人。真正的技能是「知道何時停手」在這個時代,最重要的技能不是提示詞工程,不是選模型,也不是工作流。是「止損」的能力。知道何時 AI 的輸出已經夠好了;知道何時該自己接手;知道何時合上筆記本;知道何時微小的改進不值得巨大的認知成本。我們給系統設計熔斷機制、背壓機制,我們也應該給自己設計一套。AI 是我用過最強大的工具,也是最耗能的。這不矛盾。在這個時代能活得好的工程師,不是用 AI 最多的人,而是用得最「明智」的人。如果你累了,不是因為你做錯了什麼,實際這真的很難。工具是新的,模式還在成型,行業在假裝「更多產出 = 更多價值」。但這不成立。可持續的產出,才是價值。保護好你的大腦。那是你唯一的資產,沒有任何 AI 能替代它。 (APPSO)
Anthropic員工效率碾壓Google 1000倍!打工人想進,必須先「殺死自我」
【新智元導讀】一位在矽谷摸爬滾打30年的老兵,花了4個月時間,跟Anthropic近40人深聊後,他揭示了一個殘酷的公式:工作量碾壓人數=創新井噴,人數碾壓工作量=內捲開始。Google就是這麼廢掉的。而Anthropic正站在黃金時代的正中央——沒有部門壁壘,沒有複雜規範,產品10天從想法到上線。2026年,Anthropic會擊垮大量企業。Anthropic,這家公司現在是矽谷,甚至是全世界的當紅炸子雞!全球幾兆的市值,被一個小小的Claude所攪動,可謂是風頭無兩。Anthropic取代OpenAI成為AI能力躍遷的風向標,已經成了一部分人的共識。大前幾日Claude Opus 4.6的一個小版本更新,直接撼動了整個SaaS行業。而且Menlo Ventures還成立了Anthropic生態基金。Menlo Ventures是矽谷頂級老牌VC,成立於1976年,管理規模超過70億美元。可以說,現在的Anthropic奠定了建構AI生產力的標準,或者粗暴一點:Claude出什麼功能,全世界都要立馬看一眼。那麼問題來了:這家公司內部到底是怎麼運作的?他們的員工都是什麼樣的人?深入Anthropic內部蜂巢Anthropic內部「亂成一鍋粥」,卻為何能碾壓矽谷巨頭?一個前Google、前亞馬遜的30年老兵,花了4個月時間,跟Anthropic近40個人聊透了。這個人就是前Google、亞馬遜資深工程師Steve Yegge。他深入剖析了當今最炙手可熱的AI公司Anthropic的內部運作模式。原文地址:https://steve-yegge.medium.com/the-anthropic-hive-mind-d01f768f3d7b他的結論是,這家公司的運作方式,顛覆了所有人對「成功企業」的認知。進Anthropic有多難?堪比進NFLSteve Yegge算了一筆帳。以行業專業人士身份進入Anthropic的機率,跟一個高中生打進國家橄欖球聯盟差不多。他見過的每一個Anthropic員工,都是精英中的精英。精英的程度甚至超過了Google巔峰時期。他拿自己舉例:「Google曾經錄用過我,而我其實只是勉強夠格的邊緣人選。」言外之意:能進Anthropic的人,比當年的他還狠。蜂巢思維:一家靠「氛圍」驅動的公司跟這40個人聊完,Yegge發現了一件詭異的事。Anthropic的員工自己都在說:這裡是一個完全靠氛圍(vibes)驅動的蜂巢思維。沒有傳統的部門壁壘。沒有成熟公司那套「專業化」的陳規俗套。每個人都能看到別人在幹什麼。犯錯?走彎路?全公司都能看見。想藏?沒門。這叫「自我的消亡」。你必須成為一隻快樂的工蜂。否則離心力會把你甩出去。黃金時代的秘密:工作量必須碾壓人數Yegge在矽谷混了30多年。他親歷過三個「黃金時代」:亞馬遜,1998年起,勢頭持續到他2005年離職後很久;Google,巔峰期一直到2011年4月;微軟,輸掉Java訴訟後的C#/.NET時代;他終於想通了黃金時代的核心公式:工作機會 > 人數時,就會創新井噴。人數 > 工作機會時,則會讓內捲開始。道理很簡單。活兒多到幹不完的時候,沒人會搶別人的項目。每個人都忙著開疆拓土,沒空搞政治鬥爭。反過來,一旦活兒不夠分,聰明人就開始「佔坑」。你不佔,別人就佔了。領地意識、派系鬥爭、辦公室政治——全來了。人性使然。Google是怎麼「廢掉」的?2011年4月,Larry Page接任CEO。他宣佈:「停止開發新項目,我們只專注X、Y、Z這三項業務。」所有工程師都留著。工作量砍了50%。結果呢?工作不夠分。人開始搶活幹。圈地運動來了。權術博弈來了。領地意識來了。還有個微軟髮明的詞:「舔餅乾」——搶了活兒卻永遠不干。從那一刻起,Google變得「政治化」。創新引擎熄火。黃金時代終結。Anthropic正站在黃金時代的正中央再看Anthropic。幾乎每條戰線上,活兒都多到幹不完。每個人,這就像站在一個不斷膨脹的球體表面。永遠不用搶活幹。因為活兒是無限的。每個人都有機會把想法拿出來,讓蜂巢思維評判。行就上,不行就換一個。沒有政治鬥爭的土壤。Claude Cowork:10天從想法到上線Yegge聽到了一個讓他震驚的數字。Claude Cowork這個產品,從最初有這個想法,到公開發佈,一共用了10天。10天!這在傳統公司需要多久?3個月?6個月?他們怎麼做到的?篝火模型:圍坐在一起,邊聊邊造Anthropic的開發方式,完全打破了教科書。沒有瀑布模型。沒有複雜規範。核心是一個鮮活的原型。所有人圍坐在「篝火」旁,一起雕琢它。規劃周期從不超過90天。這已經是他們能想像的「最長周期」了。結果呢?整個過程像即興表演。想法來了就試。試了就上。上了就迭代。效率差距有多大?Yegge給出了一個驚人的對比:Anthropic的工程師效率,比現在用Cursor和ChatGPT的開發者高10到100倍。比2005年Google工程師高1000倍。這個數字太瘋狂了。但如果你見過他們的工作方式,你會覺得這個數字保守。「是的,而且…」——即興劇場式的協作Anthropic內部有個文化基因:「Yes, and…」每個想法都會被接納、審視、品味。蜂巢思維來評判。沒有中央決策機構拍板。所有人一起試。當魔法發生的時候,大家同時心領神會。但反過來——誰要是不像快樂工蜂那樣行動,會被溫柔地推出去。想端著槍衝進來表現自己?對不起,這是團隊運動。最頂尖的人才,單他們的眼神甜蜜而憂傷Yegge說了一個觀察,讓人印象極深。在Anthropic,他遇到的每個人、每個團隊,都帶著一種「甜蜜而憂傷的超然感」。他們像一群牧羊人,肩負著創造文明級重要事物的使命。充滿熱情,但又帶著一種莊嚴的凝重。那種眼神,像是信仰上帝的人看待塵世——篤定、悲憫。或者像精靈,看著古老世界漸漸逝去。他們真心為很多公司感到惋惜。因為2026年會擊垮大量企業。而很多公司還沒看見這場海嘯。活下來的唯一辦法Yegge最後給出了建議:「點燃篝火。把你的產品變成鮮活的原型。考慮在公司內部建立創新蜂巢。給它們空間。」傳統的部門壁壘?扔掉。複雜的規劃流程?砍掉。自我意識?放下。然後,全力以赴轉向新的產品市場契合點。差距不是技術,差距是意識。Anthropic的人是真的相信自己在做一件改變文明的事。2026,這將是瘋狂的一年。 (新智元)
DeepMind 掌門人預判 AGI 將於 5-10 年內降臨
最近,Google DeepMind 掌門人德米斯·哈薩比斯(Demis Hassabis)接受 CNBC 專訪。他難得敞開心扉,直言不諱地評價了全球 AI 格局,尤其是中國 AI 的追趕速度和創新現狀。“中國團隊的追趕速度極快,只落後幾個月,但在原創性上,他們還沒拿出 Transformer 級的東西。”以 DeepSeek、阿里為代表的中國 AI 團隊,在工程效率、推理最佳化、成本控制上,展現了恐怖的實力。“一篇新論文出來,他們往往能以驚人的速度復現,甚至在某些方面做得更好。”換句話說,在 “把已知路徑做到極致” 這件事上,中國團隊已經證明了自己是全球頂級玩家。也正因為如此,矽谷過去那種“領先一代”的技術安全感,正在被一點點消耗掉。不是按年,而是按月縮水。要知道,過去很長一段時間美國尤其是矽谷派的主流觀點是:中國在 AI 上還遠遠落後,大概是幾年的差距。根據史丹佛大學《2025 年人工智慧指數報告》,中國在 AI 論文發表和專利申請總量上持續領先。且像 DeepSeek、智譜等機構發佈的模型,在國際基準測試中已與第一梯隊產品表現相當。以 DeepSeek V3.2 為例,在公開的推理類基準測試中,它已經能夠全面對標 GPT-5,僅略低於 Gemini 3 Pro。然而,他也指出原創性依然是中國團隊的短板。Transformer 或 AlphaGo 那樣從零到一的技術突破,目前在中國尚未出現。換句話說,中國團隊可以“開車飛馳在既有軌道上”,但鋪設全新軌道的能力仍需時間和積累。哈薩比斯強調,這並非能力不足,而是原創性突破往往需要長期科研積累、實驗失敗和探索精神的結合。不過哈薩比斯也看到了中國 AI 獨有的潛力,他認為當工程最佳化達到一定高度,往往會催生質變。中國憑藉廣闊的應用場景、迅速的市場反應和持續投入,很可能從別出心裁的角度,斬出那一刀改變格局的創新。在談到通向 AGI 的挑戰時,哈薩比斯強調,現有大模型存在“鋸齒狀智能”(jagged intelligence)。這是指模型在某些任務上表現非常出色,但面對複雜因果鏈條、多步驟邏輯推理或現實世界常識時,能力不穩定甚至可能出錯。這說明通用智能不僅需要強大的處理能力,還要在多個維度上保持穩定和一致。除此之外,現有系統無法持續線上學習,也難以自發產生原創性想法,通向 AGI 仍需克服這些根本性限制。在這一背景下,哈薩比斯談到 Scaling Law(規模定律)及其作用。他認為,雖然模型增大、算力增加和資料擴充的回報增速有所放緩,但總體進展依然非常好,能力提升仍值得投入。然而,要真正實現 AGI,僅靠 Scaling Law 仍不夠,還需要一兩個像 Transformer 那樣的重大範式突破。哈薩比斯保持謹慎樂觀,預計 AGI 很可能在五到十年內實現,同時指出算力問題最終歸結於能源,因此未來能源將成為“智能的貨幣”。他還進一步提到“世界模型”概念,作為通向 AGI 的核心手段。與 LLM 主要處理文字不同,世界模型能夠理解因果關係和長期後果,在腦中模擬世界、驗證假設,實現規劃和預測。未來 AGI 很可能是 LLM 與世界模型的融合體。DeepMind 已在 Genie、視訊生成 Veo 和機器人模擬中佈局早期世界模型,讓 AI 在虛擬環境中練習、犯錯、成長,真正具備“理解”和“預測”能力。在應用層面,哈薩比斯看好端側 AI,即將高效、輕量的模型運行在手機、可穿戴裝置和智能眼鏡等終端上。Google計畫通過 Project Aura 智能眼鏡以及機器人領域的探索,讓 AI 不僅會“說”,還能實際“做事”,並行揮實用價值。過去兩三年,DeepMind 也回歸“創業公司狀態”,快速迭代 Gemini 模型並落地到 Google 核心產品,包括搜尋、Workspace 和智能眼鏡等場景,使Google在算力、模型規模和應用落地上都保持競爭優勢。總體來看,哈薩比斯認為,中國 AI 已憑實力贏得了頂級牌桌的入場券,但未來幾十年的格局,將取決於誰能率先鋪設無人區的軌道。速度固然重要,但方向選擇才是關鍵。真正的競爭,不只是算力之爭,更是敢於探索未知、率先開闢全新路徑的勇氣與能力。在這個意義上,2026 年不僅可能見證端側 AI、agent 系統和機器人領域的突破,也將考驗誰能在通向 AGI 的道路上,把工程能力與原創性創新結合,率先鋪出未來的新軌跡。 (科技狐)
華為AI 資料中心設計方案,預製化,液冷,電源
01.華為AI資料中心參考設計白皮書解讀近期,華為發佈《華為AI 資料中心設計》,系統闡述了在 AI 算力快速提升背景下,資料中心從傳統 IT 基礎設施向高能耗、高密度算力基礎設施演進的整體設計思路,圍繞園區級規劃、模組化建設、暖通與液冷協同、電源架構重構等核心問題,提出以“可擴展性、確定性和長期演進能力”為核心的設計原則,強調通過分期建設、製冷與供配電系統解耦、高功率液冷架構以及更高效率的供電路徑,來應對 AI 伺服器功耗持續上升、電力資源受限和技術快速迭代帶來的不確定性,為新一代 AI 資料中心的規劃、建設和產業鏈協同提供了系統性的工程參考框架。註:《華為AI 資料中心設計白皮書》全文56頁,需要的可上方二維碼加入微信自取在資料中心建設層面,華為首先解決的不是“效率問題”,而是“不確定性問題”。AI 的最大特點不是算力高,而是變化快,晶片功耗在漲,伺服器形態在變,液冷路線在演進,電力資源卻越來越緊張。在這樣的背景下,華為並沒有去強調某一種最優建築形式,而是反覆強調模組化、分期建設和能力解耦。華為非常克制地避免一次性把園區設計到極致,而是更關注未來每一次擴容是不是“順著原來的邏輯繼續往上堆”。這種設計思路背後,其實是一個很工程化的判斷:AI 資料中心不可能一次建完,它一定是在算力需求、資本投入和電力資源之間不斷博弈、不斷調整的結果。暖通和液冷部分:華為對風冷和液冷的態度其實非常務實,並沒有簡單地站隊某一種技術路線,而是把冷卻方案和機櫃功率區間直接掛鉤。很清楚地指出,在中低功率階段,風冷依然有其成熟度和成本優勢;但當 AI 機櫃進入 80kW、100kW 甚至更高功率區間時,液冷不再是“性能更好”,而是“不做不行”。這裡面一個很重要的判斷是:製冷能力正在從“配套條件”變成“算力能否落地的硬約束”。華為在液冷設計上的核心思路,關注系統層面的可複製性和可維運性,強調 CDU 架構、一次側和二次側解耦、冗餘設計、漏液風險控制以及維運友好性,這其實是在明確一個訊號——液冷不能只是少數高端項目的定製方案,而必須成為像風冷一樣可規模複製的基礎設施,真正關心的不是“液冷能不能跑得更猛”,而是“液冷能不能在成百上千個機櫃、幾十兆瓦規模下長期穩定運行”。電源架構這部分,並沒有簡單地否定傳統交流供電,而是直截了當地指出,在 AI 負載快速抬升的情況下,傳統多級 AC 架構正在被系統性拉到極限。問題不在單台 UPS 或單個配電櫃,而在於能量在傳輸和轉換過程中的層級過多,損耗、發熱和空間佔用被同步放大。華為的設計思路,是儘量讓電力“少繞路、更直達”,通過更高電壓等級、更少的轉換級數,把有限的電力資源更多地交付到算力端。這背後的邏輯非常現實:在電力越來越緊張的時代,誰能用同樣的電,跑出更多有效算力,誰就更具競爭力。華為的設計方案亮點有兩個。第一,它始終站在“十年周期”的角度看問題,而不是圍繞當前某一代晶片或伺服器做最佳化;第二,它把電力、製冷、建築這些過去各自為政的專業體系,統一放進了“算力交付能力”這個核心目標下進行協同設計。這種系統級視角,恰恰是當前很多 AI 資料中心項目最容易缺失的部分。對整個資料中心產業鏈來說,這本白皮書的參考意義其實非常直接。伺服器廠商會意識到,單純堆性能已經不夠,裝置形態必須更早地融入基礎設施約束;液冷廠商會發現,未來拼的不只是換熱性能,而是系統可靠性、工程適配能力和規模複製能力;供配電廠商也會更加清楚,裝置放量只是第一步,真正的價值在於參與下一代供電架構的定義;而對營運方和投資方來說,AI 資料中心已經不再是一個“建成即交付”的項目,而是一套需要長期演進、持續投入的能源系統。整體來看,華為這本 AI 資料中心設計白皮書並不是在給行業一個“標準答案”,而是在幫行業把一個越來越清晰的事實講透:當 AI 成為核心生產力時,資料中心的設計目標,已經從“滿足當前需求”,轉向“為未來的不確定性預留足夠的空間”。這一點,可能比任何具體參數,都更值得整個產業反覆琢磨。 (零氪1+1)
馬斯克,後悔了
馬斯克:若重來,不會領導“政府效率部”美國電動車製造商特斯拉公司、太空探索技術公司創始人埃隆·馬斯克最近接受採訪時說,如果重來,他不會領導“政府效率部”,而是專注營運自己的企業。馬斯克在9日播出的播客節目中接受“政府效率部”前任發言人凱蒂·米勒採訪,被問及“如果重來,是否會領導‘政府效率部’”。馬斯克說:“不,我不會這樣做。我想我總體上會在我的公司工作,而不是領導‘政府效率部’。這樣他們(反對者)就不會燒車了。”馬斯克執掌“政府效率部”期間,特斯拉經銷商和充電站遭馬斯克反對者破壞。按美國媒體說法,特斯拉成為打砸、縱火對象,緣於不少人對馬斯克主導的“政府效率部”大幅裁減聯邦僱員以及其政治傾向不滿。馬斯克在播客採訪中說,“政府效率部”在削減開支方面取得了“些許成功”,“我們在某種程度上取得成功”。“我們停止了不少毫無意義、完全是浪費的資金投入。”目前,“政府效率部”網站公佈的已削減金額是2140億美元,但其實際節省金額難以量化。獨立觀察人士堅持認為,美國政府發佈的資料比實際節省的金額少。馬斯克在2024年美國總統選舉中全力支援川普,為川普勝選立下汗馬功勞。在川普重返白宮後,馬斯克主導“政府效率部”、幫助聯邦政府削減開支。然而,馬斯克主管“政府效率部”期間與川普政府多名內閣成員發生爭執,圍繞“大而美”稅收和支出法案與川普大打“口水仗”。 (牛彈琴)