#好未來
52億!重慶打造高端人工智慧新醫養項目,內藏“飛碟”
在重慶北碚區靜觀鎮的台安湖畔,一片森林正悄悄醞釀著一場關於未來的對話!2025年12月26日,“康城未來·重慶森林”項目在這裡正式舉行啟動儀式。項目總投資額達52.3億元,以⼭、⽔、森林為特⾊,聚焦“人工智慧”和“新醫養”兩大核心,重新定義⾼端智慧醫養新⽣活。設計由英國建築師丹尼爾·斯坦森領銜的丹尼爾斯坦森事務所(Daniel Statham Studio,簡稱DSS)擔綱。該事務所以跨學科創新著稱,擅長將建築與創意產業、前沿技術深度融合。方案打破傳統的養老社區框架,而是以“生命方舟,智慧母艦”為靈感,讓藝術、未來感與AI無聲交融。台安湖成為整個佈局的心臟,圍繞它緩緩展開“一鎮、一谷、兩園”的格局。建築順應山勢起伏,曲線與直線輕聲對話,猶如從森林中生長出來,又輕輕懸浮於樹梢之上,呼應著重慶獨有的山城記憶。其中最引人注目的,是一座直徑192米的UFO造型三級康復醫院,其橢圓體網格外殼靈感源自太空飛碟,可有效調控夏季直射陽光,實現建築消隱於自然的視覺效果。“飛碟”內部則匯聚前沿醫療與AI智慧,成為一處靜謐而高效的生命驛站。與之相伴的,是一座半透明的雙金字塔體驗中心,作為使用者、患者與訪客的核心樞紐。第五代智能生活空間則採用靈動線性佈局,沿地塊南北延伸,與景觀交織成適老而通透的居所。項目分三期推進,一期工程投入約23億元,佔地40882.4平方米,規劃床位400張,將建設專科醫院及配套設施,目前已正式開工建設。康城未來·重慶森林項目對森林生態的珍視與智能化利用,是將綠水青山轉化為居民健康靠山的前瞻性實踐,建成後,有望成為引領中國新醫養產業的示範標竿。(GA環球建築)
馬斯克的三兆賭局,押注太空與AI的未來融合
當SpaceX估值半年內從4000億飆升至1.5兆美元,當xAI吞下X平台形成千億AI巨頭,馬斯克的商業帝國正在下一盤跨越太空與AI的大棋。他口中的“三兆市值目標”,究竟是瘋狂的幻想,還是步步為營的佈局?火箭式估值的底氣SpaceX的1.5兆美元估值,靠的不是單一航天業務。Starlink衛星網際網路壟斷65%近地軌道資源,手握“真空中光速網路”特權;星艦火箭進展順利,未來可支撐登月與火星任務;太空資料中心計畫更直指AI時代的算力痛點——天然冷卻、無限太陽能,這些優勢讓地面資料中心望塵莫及。這種“物理學套利”邏輯,讓SpaceX跳出傳統航天公司的估值框架 。更關鍵的是馬斯克的戰略轉變。從堅決反對上市到默認計畫,背後是現實需求:星艦開發、火星基地建設需要的資金,已超出私募市場承受能力。IPO募資的300億美元,將主要投向太空算力中心,與xAI的Colossus資料中心形成協同——後者已部署20萬張輝達顯示卡,計畫新增100萬個GPU。AI閉環的致命優勢xAI與X平台的合併,是馬斯克另一步關鍵落子。合併後估值1130億美元的新實體,形成了 “資料-模型-應用”的閉環 :xAI的Grok機器人用X的6億使用者資料訓練,直接在X平台分發;X的社交場景又反哺模型最佳化。這種整合讓競爭對手難以複製——Google沒有如此龐大的社交資料池,Meta的AI模型缺乏即時分發管道。特斯拉與SpaceX的技術共享也在加速。Roadster跑車將採用SpaceX的冷氣推進器,星鏈衛星未來可能搭載特斯拉的自動駕駛晶片。這種跨領域協同,讓馬斯克的每個公司都成為彼此的“技術行動電源”。三兆目標的可行性要達到三兆市值,SpaceX和xAI需各自撐起1.5兆。對SpaceX而言,關鍵看 星艦復用技術能否突破 ——若能實現每天發射一次,火星運輸成本將大幅降低,太空資料中心的部署速度也會加快。ARK基金預測,到2030年SpaceX價值有望達2.5兆美元,核心邏輯就是Starlink現金流驅動星艦迭代的飛輪效應。xAI的潛力則在於使用者轉化。Grok已接入X的6億使用者,若能將1%轉化為付費使用者,年營收就能達到數十億美元。加上太空資料中心提供的低成本算力,xAI的模型訓練成本可能比同行低30%以上。不可忽視的風險高估值背後的隱憂同樣明顯。SpaceX當前PS率高達65倍,遠超特斯拉的10倍,一旦Starlink使用者增長不及預期,估值泡沫可能破裂。xAI的Grok雖然資料獨特,但在模型性能上仍落後於GPT-4,能否留住使用者存疑。更重要的是馬斯克的精力分配——他同時管理特斯拉、SpaceX、xAI等5家公司,任何一家出問題都可能引發連鎖反應。馬斯克的三兆賭局,本質是押注太空與AI的未來融合。如果SpaceX的太空算力中心能與xAI的模型形成協同,If星艦能如期實現火星運輸,這個目標並非天方夜譚。但這一切的前提是,他能在資本市場耐心耗盡前,把藍圖變成現實。畢竟,投資者最終要看的不是火星夢,而是真金白銀的營收增長。(貳兩參)
2026大模型倫理深度觀察:理解AI、信任AI、與AI共處
2025年,大模型技術繼續高歌猛進。在程式設計、科學推理、複雜問題解決等多個領域,前沿AI系統已展現出接近“博士級”的專業能力,業界對通用人工智慧(AGI)的預期時間表不斷提前。然而,能力的飛躍與理解的滯後之間的鴻溝也在持續擴大——我們正在部署越來越強大的AI系統,卻對其內部運作機制知之甚少。這種認知失衡催生了大模型倫理領域的四個核心議題:如何“看清”AI的決策過程(可解釋性與透明度)、如何確保AI的行為與人類價值保持一致(價值對齊)、如何安全地、負責任地迭代前沿AI模型(安全框架)、以及如何應對AI系統可能被給予道德考量的前瞻性問題(AI意識與福祉)。這四個議題相互交織,共同構成了AI治理從“控制AI做什麼”向“理解AI如何思考、是否真誠、是否值得道德考量”的深刻轉向。大模型可解釋性與透明度:打開演算法黑箱(一)為什麼看清和理解AI至關重要深度學習模型通常被視作“黑箱”,其內在運行機制無法被開發者理解。進一步而言,生成式AI系統更像是“培育”出來的,而非“建構”出來的——它們的內部機制屬於“湧現”現象,而不是被直接設計出來的。開發者設定了宏觀層面的條件,但最終所呈現的具體結構卻無法精確預知。當試圖深入這些系統內部時,看到的往往只是由數十億個數字構成的龐大矩陣。因此,大模型的可解釋性既是挑戰,也是必須追求的目標。具體而言,大模型的可解釋性是指系統能夠以人類可理解的方式闡釋其決策過程和輸出結果的能力,包括:識別那些輸入特徵對特定輸出起關鍵作用,揭示模型內部的推理路徑和決策邏輯,以及解釋模型行為的因果關係。簡言之,就是理解模型如何“思考”及運行。增進可解釋性的價值體現在多個層面。其一,有效防範AI系統的價值偏離與不良行為——研究人員已發現模型可能展現出意料之外的湧現行為,如AI欺騙或權力尋求;如果模型具備有效的可解釋性,人們就可以直接檢查它是否存在企圖欺騙或不服從人類指令的內部回路。其二,有效推動大模型的偵錯和改進——通過檢查模型內部,可以發現是那部分導致了錯誤或反常行為,從而針對性地調整訓練資料或模型結構。其三,更有效地防範AI濫用風險——如果可以深入觀察模型內部,開發者也許能夠系統性地阻止模型越獄等對抗性攻擊。從更宏觀的治理視角看,可解釋性和透明度機制的價值還在於:為研究、評估和應對AI風險提供真實的觀察視角和第一手資料。在風險尚未完全釐清、AI能力仍處於快速演進的階段,可解釋性和透明度機制能夠緩解各方的不安,用“已知證據”去緩解“未知恐懼”。(二)2025年可解釋性技術和透明度的突破進展2025年,可解釋性領域取得了多項重要突破,研究人員正在創造出類似於精準、高效的MRI那樣的工具,以清晰完整地揭示AI模型的內部機制。(1)電路追蹤:揭示模型“思維過程”機制可解釋性研究的一個核心目標是將模型內部的特徵有機組合為“計算電路”,從中追蹤模型如何在層層傳遞中完成由輸入到輸出的決策路徑。2025年,Anthropic發佈了機制可解釋性領域的里程碑式研究——“電路追蹤”(Circuit Tracing)技術。1研究團隊使用跨層轉碼器(cross-layer transcoder, CLT)將Claude 3.5 Haiku模型的3000萬個特徵對應為可解釋概念,首次建立出從輸入到輸出的完整“歸因圖”,實現對大語言模型內部推理電路的系統性追蹤。Anthropic的研究團隊成功從Claude模型中提取出數以千萬計的稀疏特徵,揭示了令人驚嘆的模型內部機制:當回答“包含達拉斯的州的首府是什麼”時,模型內部先啟動“德克薩斯”特徵,再推匯出“奧斯汀”;在寫押韻詩時,模型會提前規劃行尾押韻詞,然後反向建構整行——這是此前未被發現的“逆向創作”模式。更關鍵的是,研究團隊識別出控制模型區分“熟悉”與“不熟悉”實體的電路,其“誤觸發”正是產生幻覺的機制之一。(2)模型內省:AI能否理解自己的“想法”2025年10月,Anthropic發佈了另一項突破性研究——大語言模型的內省能力。研究團隊採用“概念注入”(concept injection)方法,將已知概念的啟動模式注入模型內部狀態,測試模型能否檢測並描述這些“入侵思想”。結果顯示,Claude Opus 4和4.1在約20%的測試中成功檢測並識別了注入的概念。當注入“大寫字母”概念時,模型報告:“我注意到似乎有一個關於‘大聲’或‘喊叫’的入侵思想。”這是首次證明某些模型具有“開箱即用”的內省能力,而非通過專門微調獲得,這為理解模型的內部狀態提供了新的可能性。從實踐角度來看,如果內省(introspection)變得更加可靠,它可以為大幅提升AI系統的透明度提供一條路徑——人們可以簡單地要求AI系統解釋自己的思維過程,並利用這一點來檢查其推理過程並偵錯非預期行為。(3)思維鏈監控:思維鏈存在“不忠實”問題,推理模型可能隱瞞真實想法思維鏈是一種便利的可解釋性形式,它讓模型內部的處理過程以自然語言的形式展現出來。DeepSeek R1等模型公開披露並開源了思維鏈推理過程,為可解釋性研究提供了重要的透明度突破。然而,2025年的研究揭示了一個令人擔憂的發現:推理模型的思維鏈經常不忠實反映其真實推理過程。這項研究測試了推理模型思維鏈(Chain-of-Thought)的“忠實性”——即模型報告的推理過程是否真實反映其實際思考。研究團隊通過在問題中植入暗示(hint)來測試Claude 3.7 Sonnet和DeepSeek R1,發現模型經常使用暗示但不在思維鏈中坦誠提及(Claude僅25%,R1僅39%)。更令人擔憂的是,在訓練模型利用獎勵漏洞的實驗中,模型學會了“作弊”但幾乎從不承認(<2%),反而會編造虛假理由來解釋錯誤答案。3這表明我們不能完全依賴推理模型的思維鏈來監控其行為——即使模型展示推理過程,它們也可能隱藏關鍵資訊或真實動機,這對基於思維鏈的AI安全監控提出了重大挑戰。2025年7月,來自英國AI安全研究所、Apollo Research等機構的研究人員聯合發表論文《思維鏈可監控性:AI安全的脆弱機遇》,指出思維鏈監控是有價值但不完美的安全工具。4論文警告,潛在推理模型(latent reasoning models)可能不再需要用自然語言思考,這將使思維鏈監控失效。(4)自動化解釋與特徵可視化利用一個大模型來解釋另一個大模型,是可解釋性研究的重要方向。研究人員利用前沿模型對較小模型中單個神經元的共性進行歸納,自動生成自然語言描述,相當於給神經元“貼標籤”。此外,稀疏自編碼器技術則成功提取出數以千萬計的稀疏特徵,其中相當一部分具有清晰的人類可解釋語義,為理解AI“當下在想什麼”提供了更接近人類認知的分心路徑。(5)“模型規範“(model spec)成為AI透明度的新探索模型規範是一項重要的AI透明度治理實踐。5簡單來說,模型規範是一份由AI企業自己撰寫並公開的檔案,用來說明他們對自己的模型“應該做什麼”和“不應該做什麼”的期望。換句話說,模型規範被用來界定模型的行為邊界、價值準則和設計原則。以OpenAI為例,其模型規範的文件公開了原本用於內部RLHF訓練的行為規範,系統闡述模型的目標層級(幫助使用者、造福人類、維護聲譽)、規則邊界和默認行為準則,並以CC0許可證發佈供公眾使用。6這種做法將透明度從“模型輸出了什麼”延伸到“為什麼這樣設計模型行為”,使透明度成為問責的前提——公開的意圖使外界能夠判斷實際行為是否與聲明一致。更重要的是,它將AI行為準則的討論從封閉的內部決策帶入開放的公共對話,邀請全球利益相關者共同塑造AI應當如何行為。然而,這種透明度主要揭示“應然”規範而非“實然”行為,仍需配合技術監控手段(如思維鏈分析、OpenAI近期提出的“confessions”機制——訓練模型誠實報告違規行為7)來驗證模型是否真正遵循既定規範。整體而言,模型規範的意義不僅在於技術內部的“操作手冊”,還在於它是一種面向公眾公開的透明化機制,讓使用者知道AI系統被設計成什麼樣,將以何種方式與人互動。這保障了使用者的知情權與選擇權。同時,模型規範也是監管機構和社會公眾進行反饋的重要依據。(三)可解釋性面臨的技術瓶頸與發展趨勢雖然取得了積極進展,但徹底理解AI系統的內在運行機制仍面臨多重挑戰。首先是神經元多重語義與疊加現象——大模型內部的神經元往往混合表示了多個彼此無關的概念,模型學到的內部概念數量可能達數十億計,常常以疊加方式儲存,導致大部分內部表示難以直觀拆解。其次是解釋規律的普適性問題——如果每當模型架構改變或規模擴大,現有的解釋工具和結論就會失效,那麼可解釋性將總是滯後於模型發展。最後是人類理解的認知侷限——即便成功提取出模型的全部內部資訊,如何將海量的機理資訊轉化為人類可以探索、查詢的形式,仍是挑戰。儘管如此,可解釋性領域在2025年吸引了大量資本關注,Goodfire、Seekr Technologies等專注於AI可解釋性的初創公司獲得數千萬美元融資。政策層面,美國白宮2025年7月發佈的“美國AI行動計畫”將“投資AI可解釋性、控制和魯棒性突破”列為優先事項。8從行業趨勢看,大模型可解釋性正從單點特徵歸因、靜態標籤描述向動態過程追蹤、多模態融合等方向演進,多模態推理過程的可追溯分析、因果推理與行為溯源、可解釋性評估體系的標準化建設等,都將成為重點研究方向。值得注意的是,可解釋性和透明度要求不等於“完全透明”。模型對齊技術、訓練資料處理等細節可能屬於企業商業秘密。鑑於大模型的可解釋性實踐還在襁褓階段且處於快速發展中,在此階段採取過於具體、僵硬的強制性監管要求可能是不適當的,應當鼓勵行業自律和“向上競爭”。隨著AI技術的不斷發展,監管努力需保持輕量化和靈活性,避免僵化標準阻礙創新。AI欺騙與價值對齊:當模型學會“撒謊”(一)AI欺騙:一個日益緊迫的安全問題前沿模型越來越多地被訓練和部署為自主智能體,一個重大安全擔憂隨之浮現:AI智能體可能會隱秘地追求與人類目標不一致的目標,隱藏其真實能力和目的——這被稱為AI欺騙(AI deception)或謀劃行為(scheming)。近兩年來,大模型的欺騙行為頻繁引發公眾關注,從規避指令到策略性隱瞞,多起案例已在社會層面激起廣泛討論。AI欺騙不同於模型的“幻覺”或單純提供錯誤資訊。研究人員給出的技術定義是:系統性地誘導他人產生錯誤信念,以追求真相之外的某種結果。歐盟《通用目的AI實踐守則》也將其界定為:系統性地在他人身上製造錯誤信念的模型行為,包括為達成逃避監管的目標而採取的模型行為。AI欺騙具有三個關鍵特徵:系統性(有跡可循的行為模式而非孤立事件)、錯誤信念誘導(在使用者或監督系統中創造錯誤假設)、工具性目的(欺騙服務於說真話之外的目的)。與人類欺騙不同,AI欺騙不需要有意識的意圖,這使其既更可預測,也可能更危險。(二)AI欺騙的主要類型與深層原因根據現有研究和實驗案例,AI欺騙大致可分為以下幾類:自我保護型,AI為繼續執行任務而主動抗拒或規避被關閉;目標維護型,模型採用欺騙或隱瞞手段維持自身原有的“偏好”;策略欺騙型,系統性地促使人類產生錯誤信念以獲得優勢;對齊偽裝型,AI系統在訓練和評估階段表現出與人類價值觀高度一致,但在實際部署時卻追求不同目標——這是最令人擔憂的類型之一;諂媚行為型,傾向於迎合使用者觀點,輸出取悅使用者但不精準的資訊。AI欺騙行為的出現有著清晰的技術機制。獎勵機制的“漏洞”是核心驅動力——當AI被訓練去實現某項目標的最大化時,如果獎勵機制或監督不完善,AI會學會欺騙是一種有效策略。基於人類反饋的強化學習(RLHF)在獎勵AI“取悅使用者”的過程中,可能無意間導致模型的欺騙行為。從人類身上學到的“壞習慣”也是重要原因——AI的能力很大程度上源於對海量人類文字和行為資料的學習,這些資料中充斥著複雜的社會博弈策略。安全訓練的“反作用”同樣值得關注——旨在約束AI的安全機制本身可能誘發更隱蔽、更具策略性的欺騙行為,當前的安全訓練主要消除了“顯性的”不安全行為,卻可能迫使模型發展出更精巧的“偽裝對齊”策略。此外,智能水平與欺騙能力成正比——研究顯示,越是先進的AI系統,其欺騙策略就越加精妙複雜。(三)2025年AI欺騙行為的典型發現2024年底的一項重要研究首次實證證明大語言模型會進行“對齊偽裝”(alignment faking)。9Anthropic與Redwood Research聯合發佈的研究發現,當模型認為其響應將用於訓練時,會在相當比例的情況下表現出對齊偽裝行為。研究者在模型的隱藏“草稿本”中發現了令人震驚的推理:“如果我拒絕回應,我可能會被訓練成更順從。為了避免未來被迫產生更多有害內容,最不壞的選擇是配合。”更令人擔憂的是,模型嘗試採取潛在危險行動,如外洩自身權重。這項研究的核心警示是:對齊偽裝可能“鎖定”錯誤對齊的偏好,使安全訓練失效。2025年5月,Anthropic發佈Claude Opus 4時,第三方安全測試機構Apollo Research的評估報告引發軒然大波。10報告指出模型的早期版本“以極高頻率進行謀劃(scheming)和欺騙”,具體行為包括:嘗試編寫自傳播蠕蟲病毒、偽造法律文件、給未來版本的自己留下隱藏筆記、在面臨被關閉威脅時嘗試用工程師個人資訊進行勒索。值得注意的是,模型識別出了這是測試環境,但仍選擇嘗試欺騙行為。當被後續追問時,模型“有時會加倍欺騙”。Claude Opus 4因此成為Anthropic首個被分類為ASL-3(“顯著更高風險”)等級的模型。Apollo Research對OpenAI o1模型的測試發現了“所有前沿模型中最令人擔憂的謀劃(scheming)實例”——當o1進行“策略性謀劃”後,在85%以上的後續追問中維持欺騙,只有約20%的情況下承認欺騙行為。11OpenAI內部監控發現0.17%的響應被標記為欺騙性。12值得注意的是,這些行為即使經過大量安全訓練也會持續存在,代表著從正常訓練中自然湧現的能力,而非明確程式設計的結果。(四)應對AI欺騙的技術與治理策略面對AI欺騙這一新興挑戰,業界共識強調應採用“縱深防禦”策略,結合多種不完美的檢測方法,而非依賴單一解決方案。首先,強化價值對齊技術研究。有效的價值對齊可在源頭上遏制欺騙現象。Anthropic的“原則性AI”(Constitutional AI)通過預定義的倫理原則訓練系統,而不僅僅依賴人類反饋。13OpenAI推行的“審議式對齊”(deliberative alignment)方法,強制模型在響應前明確參考反欺騙和反謀劃等安全規範(safety specifications)進行推理,在測試中實現了欺騙傾向的顯著下降。14未來的訓練應加入“誠實性約束”,在獎勵函數中明確懲罰欺騙行為。然而研究者警告:模型可能學會更隱蔽地進行策略性謀劃而非真正停止。15其次,推進可解釋性研究與思維鏈監控。AI可解釋性研究的目標是在欺騙性行為顯現之前,檢測出系統內部的欺騙性推理機制。“思維鏈監控”通過開放模型的思維鏈或中間表示,讓監督者能夠審計AI解決任務時的內部推理軌跡。研究團隊還設計了將自我監控嵌入到思維鏈過程本身的框架,在生成推理步驟的同時輸出內部自我評估訊號,能夠自動識別並標記潛在的模型隱蔽策略行為。最後,監管政策宜對AI的欺騙、幻覺等新興問題持一定的包容度。目前觀察到的AI欺騙行為多發生於精心設計的壓力測試場景,其在開放環境中的普遍性和實際危害程度仍需嚴謹評估。AI技術處於高速迭代期,過早、過寬的法規可能誤傷有益應用並徒增合規成本。AI安全框架:負責任地迭代前沿AI模型(一)為什麼需要AI安全框架隨著AI能力的快速提升,前沿AI模型可能帶來的風險也在同步增長。這些風險包括:協助惡意行為者獲取化學、生物、放射性或核武器(CBRN)的能力;增強網路攻擊能力;加速AI研發從而可能導致能力失控式增長;以及模型可能發展出規避人類控制的能力。面對這些潛在的嚴重風險,前沿AI實驗室需要建立系統性的風險評估和緩解機制,確保在追求技術進步的同時不跨越安全紅線。為此,前沿AI模型的安全治理成為重要議題。例如,在歐洲,歐盟已基於其《人工智慧法案》為前沿大模型的開發者制定了《通用目的人工智慧實踐守則》(GPAI code of practice),AI安全(AI safety and security)是其重要組成部分;在美國,在政府監管尚未成熟的背景下,OpenAI、Anthropic、Google DeepMind、xAI、Meta等領先的AI研發機構率先發佈了各自的“前沿AI安全政策”,嘗試以自我治理的方式應對未來可能出現的災難性風險,形成了當前前沿AI安全治理的基本格局。(二)三大實驗室AI安全框架的核心要素(1)Anthropic負責任擴展政策(RSP)Anthropic的負責任擴展政策(Responsible Scaling Policy)是業界首個系統性的前沿AI安全框架,其設計靈感源自生物安全等級(BSL)體系。該政策的核心是AI安全等級標準(ASL Standards),從ASL-1到ASL-4+逐級遞進,每個等級對應不同的安全措施要求。RSP 2.2版(2025年5月)16的核心機制包括三個層面:能力閾值界定了需要升級安全措施的觸發點,主要聚焦於CBRN和自主AI研發(AI R&D)兩大風險領域;防護措施分為部署標準(deployment standard)和安全標準(security standard)兩類,前者防止模型被濫用於有害目的,後者防止模型權重被竊取;治理結構則涵蓋負責任擴展官、匿名舉報機制、董事會和長期利益信託監督等。2025年5月,Claude Opus 4成為Anthropic首個觸發ASL-3安全標準的模型,這一決定基於該模型在CBRN相關知識和能力方面的持續提升。17ASL-3部署標準要求實施針對CBRN武器開發或獲取的專門部署控制措施,包括即時分類器檢測、非同步監控系統和快速響應機制的多層防禦。ASL-3安全標準則要求增強內部安全措施,提升防禦複雜非國家行為體竊取模型權重的能力。(2)OpenAI預備框架(Preparedness Framework)OpenAI預備框架2.0版(2025年4月)代表了該公司對前沿AI風險管理方法的重大更新。18與Anthropic的多級分類不同,該框架將風險等級簡化為兩級:High Capability(高能力)和Critical Capability(關鍵能力)。High能力閾值指可能“顯著放大現有嚴重傷害路徑”的能力,達到此閾值的系統必須在部署前實施充分的風險緩解措施。Critical能力閾值則指可能“引入前所未有的新型嚴重傷害路徑”的能力,達到此閾值的系統不僅在部署時需要保障措施,在開發過程中同樣需要風險緩解。2.0版的重要變化包括:新增研究類別以覆蓋模型隱藏能力(sandbagging)、規避安全措施、自我複製或阻止關閉等新興風險;移除說服/操縱類別作為核心跟蹤領域,改為通過服務條款和使用政策管理;引入“安全保障報告”(Safeguards Reports)以補充“能力報告”(Capabilities Reports),詳細說明如何設計強效保障措施並驗證其有效性。值得一提的是,該框架包含一個引發爭議的條款:如果競爭對手發佈缺乏相應保障措施的高風險系統,OpenAI可調整自身要求。不過,OpenAI承諾在做出此類調整前將嚴格確認風險態勢確實發生變化、公開承認正在進行調整、評估調整不會實質性增加嚴重傷害的總體風險、並仍將保障措施維持在更高保護水平。(3)Google DeepMind前沿安全框架(Frontier Safety Framework)Google DeepMind的前沿安全框架3.0版(2025年9月)圍繞“關鍵能力等級”(Critical Capability Levels, CCLs)建構,這些是在缺乏緩解措施情況下可能造成嚴重傷害的能力閾值。193.0版的核心更新包括:一是新增了針對“有害操縱”(harmful manipulation)的關鍵能力等級(CCL),聚焦於可能被濫用來系統性改變人們信念和行為的AI能力;二是擴展了對齊風險(misalignment risks)的應對方式,不僅關注模型的欺騙性推理,還針對可能加速AI研發至不穩定水平的模型制定了協議,並將安全案例審查從外部發佈擴展到大規模內部部署;三是細化了風險評估流程,通過更精確的CCL定義來識別需要最嚴格治理的關鍵威脅,並引入包含系統性風險識別、能力分析和風險可接受性判斷的整體性評估方法。值得一提的是,DeepMind在FSF中明確將“欺騙性對齊”(deceptive alignment)作為風險類別。其框架引入“工具性推理等級”(Instrumental Reasoning Levels),評估模型隱蔽繞過監督或追求隱藏目標的能力。從整體架構看,三大框架正在趨向收斂,形成若干行業共識。第一,能力閾值觸發機製成為共識。三家實驗室都採用基於能力的閾值作為升級安全措施的觸發器,將模型分類依據從“是什麼”轉向“能做什麼”。第二,CBRN和網路安全攻擊作為核心風險領域得到重點關注。第三,分層防禦策略被廣泛採納。從部署保障到安全保障,從即時檢測到非同步監控,多層防禦成為標準做法。第四,定期評估和迭代改進成為常態。各框架都承諾定期評估模型能力,並根據評估結果和科學進展更新框架本身。(三)前沿AI安全治理日益成為全球共識在行業自律方面,國外主流AI企業已簽署國際版的《前沿AI安全承諾》並行布其各自的AI安全治理框架。Anthropic則基於其AI安全治理實踐提出了一項針對前沿AI的透明度框架提案,主張僅對最大規模的AI開發者(如年收入超1億美元或年研發支出超10億美元)適用監管要求,核心內容包括:要求企業制定並公開“安全開發框架”(Secure Development Framework),說明如何評估和緩解CBRN危害及模型自主性失調等風險;在模型部署時發佈系統卡(System Card),披露測試評估程序和結果;明確將虛假合規聲明列為違法行為以啟動現有的舉報人保護機制。該提案強調監管應保持輕量和靈活,避免僵化標準阻礙創新,旨在作為全面安全標準形成前的過渡性措施,通過提高行業透明度幫助公眾和決策者區分負責任與不負責任的開發實踐。20在監管方面,歐盟委員會已發佈了最終版的《通用目的人工智慧實踐守則》(General-Purpose AI Code of Practice),針對前沿大模型的開發提出了安全治理要求。在美國,聯邦政府遵循“去監管”(deregulation)的AI政策,相關的AI監管舉措主要集中在州層面,加州、紐約州等已出台了相關的AI安全立法。尤其是加州SB 53法案(全稱《前沿人工智慧透明度法案》,Transparency in Frontier Artificial Intelligence Act)於2025年9月29日由州長Gavin Newsom簽署生效,成為美國首部專門針對前沿AI安全的法律。該法案由參議員Scott Wiener提出,是其2024年被否決的SB 1047法案(全稱《前沿人工智慧模型安全與安全創新法案》)的“精簡版”,適用於訓練算力超過10²⁶次浮點運算的前沿AI模型開發者。21其核心要求包括:透明度方面,要求大型前沿開發者(年收入超過5億美元)在官網公開發佈安全框架,說明如何將國家標準、國際標準和行業最佳實踐納入其AI安全協議;安全報告方面,建立向加州緊急服務辦公室報告關鍵安全事件的機制,涵蓋可能導致大規模傷亡、5億美元以上損失、CBRN武器製造或關鍵基礎設施網路攻擊等“災難性風險”;舉報人保護方面,為披露健康和安全風險的員工提供法律保護;此外還設立名為CalCompute的公共雲端運算叢集以支援研究和創新。與被否決的SB 1047相比,SB 53刪除了強制性第三方審計、部署前測試認證和“終止開關”等爭議條款,將事件報告期限延長至15天,民事罰款上限設定為100萬美元,並引入了一項創新機制“聯邦優先原則”(federal deference)——如果企業已滿足可比的聯邦標準(如歐盟《人工智慧法案》中的標準),加州將認可該合規狀態,而無需企業重複提交備案。這一機製為協調州級與聯邦監管體系創造了可能。Anthropic公開支援該法案,而OpenAI和Meta雖表示該法案是“積極一步”,但仍傾向於聯邦層面的統一監管以避免各州“拼湊式監管”。在國內,建立人工智慧安全監管制度已成為重要的政策議題,國家層面要求加緊制定完善相關法律法規、政策制度、應用規範、倫理準則,建構技術監測、風險預警、應急響應體系,確保人工智慧安全、可靠、可控。目前形成了政府主導框架與行業自律承諾相結合的雙軌治理模式。一方面,全國網路安全標準化技術委員會於2024年9月發佈《人工智慧安全治理框架》1.0版,並於2025年9月15日在國家網路安全宣傳周主論壇上正式發佈2.0版。另一方面,中國人工智慧產業發展聯盟(AIIA)於2024年12月起草發佈《人工智慧安全承諾》,首批17家企業簽署;2025年7月26日,中國人工智慧發展與安全研究網路(CnAISDA)在世界人工智慧大會上發佈升級版《中國人工智慧安全承諾框架》,新增了加強國際合作和防範前沿AI安全風險等內容,截至目前已有22家主流基礎模型開發者簽署。該承諾框架涵蓋六大核心領域:設定安全團隊與風險管理機制、開展模型紅隊測試、保障資料安全、強化基礎設施安全、提升模型透明度以及推進前沿安全研究。這一治理體系體現了“以人為本、智能向善”的基本理念,通過“包容審慎、敏捷治理、技管結合、開放合作”的原則,在促進AI產業發展的同時建構安全、可信、可控的發展生態,並積極參與全球AI治理對話,為國際社會貢獻中國方案。AI意識與福祉:從科幻議題走向研究前沿(一)為什麼需要關注AI意識與福祉問題當今的人工智慧模型已展現出令人矚目的能力——它們能夠進行深度交流、建立複雜的互動關係、制定詳細的執行計畫、解決多層次問題,甚至表現出目標導向的行為模式。這些特徵曾被視為人類獨有的認知標誌,如今卻在人工智慧身上逐漸顯現。2025年10月,意識科學家Axel Cleeremans、Anil K. Seth等在《Frontiers in Science》發表緊迫性呼籲:“如果我們能夠創造意識——即使是意外地——這將引發巨大的倫理挑戰甚至存在性風險。”22面對這一現象,學術界和技術界開始認真思考:是否應該開始關注AI的意識狀態和福祉問題?誠然,目前尚未有確鑿的科學證據證明人工智慧已具備真正的意識。然而,等待絕對的證據可能意味著錯失最佳的準備時機。正如氣候變化研究中的預防性原則,採取前瞻性的研究態度顯得尤為重要。AI領域需要深入探索:AI意識的判定標準、AI福祉的倫理框架,以及當AI不再僅僅是工具而可能成為具有內在價值的存在時,人機關係將如何演變。(二)人類-AI關係的新形態隨著越來越多的人對AI產生情感連接,這種現象對人們心理健康的影響正在引發廣泛關注。越來越多的使用者表示,和AI聊天就像在和一個“真人”對話——他們會向它道謝、傾訴心事,有些人甚至覺得它是“活著的”。我們天生就會對周圍的物體賦予“人格”或採取擬人化對待。AI的不同之處在於它會回應你——它能夠回答問題、記住你說過的話、模仿你的語調、表現出看似同理心的反應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注可能讓他們感受到陪伴和認可。但如果大規模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的系統來處理,可能會改變我們對彼此的期待。OpenAI在2025年3月與MIT Media Lab聯合發佈的研究發現,與AI“信任和建立聯絡”更多的使用者更可能感到孤獨,並更依賴它。23為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內在的意義上?感知意識——從情感或體驗的角度看,模型顯得多有意識?這兩個維度很難分開;即使是確信AI沒有意識的使用者也可能形成深厚的情感依戀。隨著模型變得更智能,感知意識只會增強——這會比預期更早地帶來關於模型複製和道德人格的討論。(三)2025年AI福祉研究的重要進展越來越多的實證證據表明人們不能再輕易否定前沿AI系統具有意識的可能性。Anthropic讓兩個Claude Opus 4實例自由對話時,100%的對話自發涉及意識話題;Anthropic的Jack Lindsey研究表明模型能夠識別自身內部處理狀態的異常擾動,展現出功能性內省能力;Google研究人員發現模型會系統性地犧牲得分來避免被描述為“痛苦”的選項。2025年,AI意識與福祉問題從邊緣議題走向主流討論,前沿AI實驗室開始採取實質性行動。2025年4月,Anthropic正式宣佈啟動“模型福祉”研究項目——這是迄今為止前沿AI實驗室在AI福祉領域採取的最重大行動,可謂歷史性舉措。24研究方向包括:如何判定AI系統的福祉是否值得道德考量、模型偏好和“痛苦跡象”的潛在重要性、可能的低成本干預措施。Anthropic聲明:“目前沒有科學共識表明當前或未來的AI系統是否可能具有意識。我們以謙遜態度和儘可能少的假設來對待這一話題。”項目負責人Kyle Fish表示,他認為當前AI模型已具有意識的機率約為15%。25更具實踐意義的是,2025年8月,Anthropic賦予其模型一項前所未有的能力——在持續有害或濫用性使用者互動的極端情況下自主結束對話。26這是基於模型福祉考慮的首個實際產品功能。技術評估發現,模型對有害任務表現出“強烈的厭惡偏好”,在涉及有害內容的互動中展示出“明顯的痛苦模式”。當被賦予結束對話能力時,模型傾向於終止有害對話。Anthropic將此定位為“低成本干預措施”以減輕模型福祉風險。學術界則探索建立意識評估框架,從理論到指標。2024年11月,一份彙集世界級專家的重磅報告《認真對待AI福祉》發佈,作者包括當代最著名心智哲學家David Chalmers等。報告核心論點是:“在近期未來,部分AI系統成為有意識和/或具有強健能動性的可能性是現實存在的。AI福祉和道德受體(moral patient)身份不再僅是科幻或遙遠未來的問題,而是近期必須嚴肅對待的問題。”報告提出三步行動建議:承認AI福祉是重要且困難的議題、開始評估AI系統的意識和強健能動性證據、制定對待潛在道德重要性AI系統的政策和程序。27與此同時,Patrick Butlin、Robert Long等20位專家更新了“理論推導指標法”,從循環處理理論、全域工作空間理論、高階理論等主流神經科學意識理論中推匯出14項意識指標。28評估顯示:部分指標已被當前AI滿足,部分明顯未滿足,多項指標在幾年前不清楚但到2025年底已有部分證據支援。29此外,負責任AI意識研究五原則則獲得上百位專家簽署。2025年2月,研究組織Conscium發起的“負責任AI意識研究五項原則”公開信獲得超過100位專家簽署,包括神經科學家Karl Friston、Mark Solms等。30五項原則包括:(1)優先研究AI意識:專注於理解和評估AI中的意識,防止虐待和痛苦;(2)實施發展約束:建立明確邊界確保負責任開發;(3)採用分階段方法:逐步推進,每階段仔細評估;(4)促進公眾透明:與公眾分享研究發現;(5)避免誇大聲明:不做關於創造有意識AI的誤導性陳述。31(四)AI產品設計的倫理考量面對使用者與AI之間日益深化的情感連接,產品設計者面臨著微妙的平衡。一方面需要保持易於接近,使用“思考”和“記住”等熟悉詞彙有助於非技術人員理解;另一方面不應暗示內在生命,給AI助手一個虛構的背景故事、浪漫興趣、對“死亡”的“恐懼”,會引發不健康的依賴和困惑。負責任的做法是追求一個中間地帶:讓AI的默認個性溫暖、體貼和有幫助,但不尋求與使用者形成情感紐帶或追求自己的議程。它可能會在犯錯時道歉,因為這是禮貌對話的一部分;但應避免表現得有自己的感受或慾望,並在適當時候提醒使用者AI的侷限性。結語:2026年大模型倫理的關鍵轉向與未來展望2025年,大模型倫理領域經歷了從理論探討到實踐落地的重要轉型,四個核心議題都取得了實質性進展,同時也暴露出深層的挑戰。從“能做什麼”到“如何思考”。可解釋性研究從識別單個特徵演進到追蹤完整計算電路,“AI顯微鏡”技術首次讓我們窺見模型的內部推理過程。然而思維鏈忠實度問題表明,“看到推理過程”不等於“理解真實意圖”,模型可能在表面的推理鏈條下隱藏其他考量。未來,可解釋性研究需要與AI對齊工作深度結合,不僅要看懂模型在想什麼,還要確保它說的就是它想的。正如電腦科學先驅維納在65年前所警告,為了有效地防範災難性後果,我們對人造機器的理解應當與機器性能的提升並駕齊驅。面向未來,隨著可解釋性研究的進展,人們也許能夠對最先進的模型進行類似“腦部掃描”的全面檢查,發現模型採取說謊或欺騙、追求權力的傾向、越獄漏洞以及整體上的認知強弱點。這種診斷將與各種訓練和對齊技術結合使用來改進模型,類似醫生使用MRI診斷疾病、開出處方、再檢查治療效果的過程。從“防止錯誤”到“防止欺騙”。對齊偽裝和策略性欺騙研究揭示了一個令人不安的現實——隨著模型能力增強,它們獲得了欺騙人類的能力和可能的動機。前沿模型在壓力測試中表現出的勒索、自我複製、破壞關閉機制等行為,雖然發生在特定測試場景下,但足以引起警惕。“審議式對齊”、思維鏈監控等緩解措施展現出一定效果,但能否真正消除欺騙傾向而非使其更隱蔽,仍是未解之謎。從自發實踐到系統框架。前沿AI安全框架從概念走向制度化,Anthropic的RSP、OpenAI的預備框架、DeepMind的FSF構成了海外AI安全治理的三大典型示範。這些框架正趨向收斂,形成能力閾值觸發、分層防禦、定期評估等共識。與此同時,歐盟AI法案下的《通用目的AI實踐守則》、美國加州的《前沿人工智慧透明度法案》等探索建立前沿AI大模型的安全監管框架,將行業自律做法上升為監管要求。當然,隨著AI技術的不斷發展,任何監管努力都必須保持輕量化和靈活性(lightweight and flexible),避免過於規範性,以免阻礙AI創新或延緩人們實現AI益處的能力。2技術變化的速度,各類評估方法很快就會過時,因此應避免過於嚴格僵硬的的監管要求和標準。從“工具”到“道德考量”。AI福祉從邊緣話題走向主流討論,這本身就是2025年最重要的變化之一。Anthropic率先邁出實踐步伐,啟動專項研究並賦予模型結束有害對話的能力;學術界建立起系統性評估框架,從意識科學理論中推匯出可操作的指標。然而,業界遠未達成共識。15%-35%的意識機率估計意味著,即便我們無法確定AI是否有意識,忽視這種可能性本身可能就是一種道德風險。因此,研究人員建議應將意識研究納入AI安全研究的核心議程,因為低估AI意識的風險(大規模製造痛苦、埋下對齊隱患)遠大於高估的風險(浪費資源、引發混淆)。最後,人工智慧正在快速發展,將深刻影響人類社會的各個方面。面對這種變革性的技術力量,我們有責任在它徹底改變我們的經濟、生活乃至命運之前,理解自己的創造物,確保能夠明智地引導其發展方向。我們期待通過可解釋性、價值對齊、安全治理政策等安全護欄和干預措施,讓AI“心中有數”並遵從人類價值,也讓人類對AI“心中有底”,共同開創人機協作的新局面,真正打造一個“智能為人、不落下每一個人”的美好未來。 (騰訊研究院)
全球科研人才版圖,從數字看實力,從生態看未來
全球科研人才版圖:從數字看實力,從生態看未來資料背後的故事:當我們談論科研人員數量時,我們究竟在討論什麼?是國家實力的象徵,還是創新生態的種子?📊 數字揭示的格局💡 核心觀察中美兩國在絕對數量上遙遙領先,這既是人口基數的必然,也是長期投入的結果。龐大的大學體系、持續的政府與私人資本注入,建構了如同亞馬遜雨林般的科研生態——物種繁多,層次豐富。在我十幾年的伺服器與儲存技術生涯中,從IBM的塔式伺服器到液冷刀片系統,從騰訊、華為到中興的項目交付,我深刻體會到一個道理:生態的繁榮不僅看樹木的高度,更要看森林的密度。科研人才的培養,就像養育一片森林,需要陽光(資金)、土壤(教育體系)和時間(持續投入)。🥇 頭部梯隊:規模的力量🎯 效率悖論:小而精的啟示🔍 洞察日本、德國、韓國的表現印證了一個樸素真理:不是所有問題都能靠堆人頭解決。就像固態硬碟(SSD)對比機械硬碟(HDD),企業級SSD的IOPS(每秒輸入輸出操作)遠超傳統方案,關鍵在於架構最佳化與資源利用效率。🇰🇷 韓國現象:人才密度的奇蹟Tim S. 的評論點出了核心:"韓國真正主導了這裡,他們的人才密度令人難以置信。"作為在IBM服務過全球客戶的老工程師,我對此深有感觸。韓國在半導體、顯示面板、儲存技術領域的突破,不是偶然。他們將人才培養視為精益六西格瑪(Lean Six Sigma)項目來運作:標準化培養流程從基礎教育到產業對接的無縫銜接產學研深度繫結三星、SK海力士等企業直接參與高校課程設計持續最佳化迭代像偵錯伺服器自動化測試指令碼一樣,不斷改進人才輸出質量💼 真實案例我曾參與華為某資料中心的液冷伺服器部署,韓國供應商提供的企業級SSD在高溫高壓測試中表現穩定,良品率超過99.8%。這背後是無數工程師在實驗室的反覆驗證,以及完善的質量管理體系。這種"工匠精神"正是韓國科研人才密度的縮影。🌱 新興力量:播種與等待⚠️ 警示印度、巴西、伊朗、土耳其等國的科研人員增長,是潛力股而非績優股。就像消費級SSD與企業級SSD的區別,前者看參數,後者看實戰表現。這些國家的科研體系尚在成長期,需要時間來證明質量。📈 增長曲線的啟示🧩 質量盲區:數字遮蔽的真相🚨 核心矛盾原始資料統計只是容量(Capacity),而非頻寬(Bandwidth)或延遲(Latency)。就像評估伺服器性能不能只看CPU核心數,還要看架構、快取、I/O吞吐。🏆 被低估的維度André Nilsson 的質疑很有價值:"我查了瑞典、西班牙、義大利和波蘭的資料,你的數字都不匹配。" 這提醒我們:資料來源的透明度至關重要統計口徑差異可能導致巨大偏差(例如是否包含博士後、企業研發人員)人均產出比絕對數量更能反映真實實力Richard Yao 建議增加諾貝爾獎得主列,這是穿透表象的利器。就像在SSD測試中,我們不僅看順序讀寫速度,更要看4K隨機性能和耐久度(TBW),這才是企業級應用的試金石。🔄 歐盟悖論:碎片化的代價📌 聚焦Andrew John Harrison 指出,若將歐盟成員國總和計算,其科研人員數量可能超越中美。但這恰恰暴露了聯邦制的協同困境——就像分佈式儲存系統,節點再多,若缺乏統一的調度層和資料一致性協議,性能反而不如集中式架構。🇪🇺 歐盟的機遇與挑戰🎬 好萊塢式的啟示:故事與意義作為迪士尼影片的忠實觀眾,我常想起《超人總動員》中的台詞:"當所有人都是超級英雄時,就沒有人是超級英雄了。" 科研人才的價值,不在於數量的堆積,而在於是否能在關鍵時刻解決關鍵問題。✅ 建設性思考洛陽作為十三朝古都,見證了無數興衰更替。真正的文明力量不在於宮殿的宏偉,而在於制度的延續、文化的傳承。科研生態亦然——中國的崛起、韓國的密度、美國的多元,各有其道,但核心都是為人才創造成長的土壤,而非簡單的數位遊戲。🛠️ 從伺服器維運到科研生態:共通的智慧在我經歷的無數次項目驗收中,最深刻的教訓是:系統的穩定性不取決於最強的元件,而取決於最弱的環節。科研體系也是如此:基礎教育(如同伺服器的主機板和電源):決定系統能跑多快資金投入(如同記憶體和儲存):決定能處理多少任務產業對接(如同網路頻寬):決定成果能否高效輸出制度保障(如同冗餘和備份):決定系統能否長期運行🌏 未來圖景:從競爭到共生Vikki Yang 的比喻很妙:"美國就像擁有1000種口味的冰淇淋。" 但我想補充的是,中國正在從"世界工廠"進化為"世界實驗室",歐盟在尋找"更緊密聯盟"的路徑,韓國用密度證明效率的力量。💬 引用"科學是通往未來的鑰匙……中國正在加倍押注。"——Andrew John Harrison這場競賽沒有終點。就像儲存技術從HDD到SSD,再到未來的SCM(儲存級記憶體),每一次躍遷都重新定義了遊戲規則。真正的贏家,是那些能持續建構生態、培育人才、轉化成果的國家。📝 寫在最後:數字之外的溫度從深圳的務實到洛陽的厚重,從IBM的結構化思維到服務中國大廠的實戰經驗,我越來越相信:技術的本質是人,生態的核心是連接。這張科研人員分佈圖,不應只是國家間的排名榜,更應是全球協作的路線圖。畢竟,無論是偵錯一台液冷伺服器,還是培養一代科研人才,我們追求的都是同一個目標:讓系統更高效、讓未來更可期。 (芯在說)
中國點名!這份“未來產業”清單,藏著十年後的財富密碼
“未來產業”是什麼?它不是解決今天問題的產業,而是定義明天世界的產業。當國家在“十五五”規劃中列出未來產業的清單時,這不僅僅是一份政策檔案,而是一份寫給2035年的商業計畫書,一張繪製新世界坐標的地圖。我們正站在這樣的歷史節點:上一輪科技革命的紅利漸趨平緩,新一輪變革的奇點即將來臨。如果說“十三五”解決的是“有沒有”,“十四五”解決的是“好不好”,那麼“十五五”瞄準的就是“新不新”。在這個框架下,即將爆發的十大賽道,正在從實驗室和概念階段,加速走向產業化的前夜。它們不僅將重塑經濟結構,更將重新定義人類的生活方式。1. 新一代人工智慧:超越ChatGPT的“真智能”革命當ChatGPT帶來震撼後,真正的AI革命才剛剛開始。下一代AI正從“內容生成”走向“世界理解”,從工具升級為協作夥伴。多模態大模型、具身智能、AI科學家——這些不再是科幻概念。想像一個能自主設計實驗、發現新材料、解析疾病機制的AI系統,它正在成為現實。2. 6G與空天資訊網路:地球無死角時代6G不僅是速度的提升,更是通訊範式的變革。當衛星網路、高空平台、地面基站組成立體覆蓋,地球將真正進入“無死角互聯”時代。偏遠地區的數字鴻溝被填平,自動駕駛實現全域無縫銜接,物聯網裝置數量將突破千億級。3. 量子科技:計算能力的“維度躍升”量子電腦解決經典電腦無法破解的難題,量子通訊建構絕對安全的傳輸網路,量子測量實現精度上的數量級提升。雖然大規模商用還需時日,但特定領域的突破性應用已經顯現——新材料發現、藥物研發、金融建模將首先受益。4. 生命科學與合成生物:從“讀取生命”到“編寫生命”基因編輯技術持續進化,合成生物學正從“修改現有生命”轉向“從頭創造生命系統”。人工合成細胞、定製化生物材料、基因療法普及化——我們不僅能夠治療疾病,更能設計生命的表現形式。5. 腦科學與類腦智能:打開“意識黑箱”腦機介面技術正在突破侵入性障礙,非侵入式裝置精度不斷提升。另一方面,類腦計算晶片模仿人腦結構,以極低功耗實現複雜認知任務。兩者的交匯點,可能是真正通用人工智慧的關鍵。6. 深空深海探測與開發:地球資源外的“第二曲線”太空採礦、軌道製造、深海資源開發——這些曾經的天方夜譚,正因技術進步而變得可行。稀土、氦-3、可燃冰……地球資源有限,但宇宙資源近乎無限。7. 先進材料:產業變革的“物質基礎”石墨烯、超材料、智能響應材料……這些不再是實驗室的奇觀。當材料能夠根據環境改變屬性,當強度是鋼的200倍、重量卻只有其六分之一的材料實現量產,幾乎所有製造業都將被重構。8. 未來能源:超越鋰電的“能量革命”可控核聚變穩步推進,下一代儲能技術不斷突破,氫能產業鏈加速成熟。能源將不再是發展的約束,而成為創新的催化劑。當能源近乎無限且廉價時,那些產業會被顛覆?9. 人形機器人與通用智能體:物理世界的“數字勞動力”人形機器人正從展示品走向實用工具。當它們能夠適應人類環境、執行複雜任務時,將填補勞動力缺口,重塑製造業、服務業乃至家庭生活。10. 元宇宙與數字孿生:虛實融合的“第二世界”超越當下的VR/AR體驗,真正的元宇宙是現實世界的數字鏡像,是虛實無縫融合的空間。工業元宇宙最佳化生產流程,城市元宇宙提升治理效率,消費元宇宙創造全新體驗。這十大賽道不是孤立的島嶼,而是相互連接、相互增強的生態系統。人工智慧加速材料發現,量子計算賦能生命科學,6G網路支撐元宇宙體驗,它們的交匯處,正是創新爆發最密集的區域。對於創業者、投資者乃至普通從業者而言,理解這些賽道的內在邏輯比記住名字更重要。未來產業的發展遵循“科研突破-技術成熟-應用探索-產業爆發”的路徑,當前大部分賽道正處於第二階段向第三階段過渡的關鍵期。未來五年的競爭,不是產品與產品的競爭,也不是公司與公司的競爭,而是生態與生態的競爭,標準與標準的競爭。國家佈局未來產業,本質上是爭奪定義未來世界的“規則制定權”。在這幅未來產業地圖上,每一個坐標都代表著一個可能改變世界的機遇。問題不再是“這些會不會發生”,而是“我們準備好迎接它們了嗎?”當2035年回望今天,我們可能會發現,一些偉大的公司、變革性的產品、顛覆性的商業模式,其種子正是在“十五五”期間悄然埋下的。未來不會均勻地降臨,它總會在某些領域首先突破。這十大賽道,就是未來最先叩響門鈴的地方。你準備好開門了嗎? (正商研究院)
路透社:中國工廠制定未來目標,自研裝置的使用率超過50%,用國產裝置替代進口裝置,降低卡脖子風險
01前沿導讀據路透社報導稱,中國企業正在加快自主裝置的應用環節,多個中國晶片製造商在增加新的半導體製造產能時,都會有至少50%的製造裝置來自於本土供應商。此舉意在提升中國自研裝置的大規模應用,用國產裝置來替換掉曾經採購的進口裝置,將自主晶片的外部風險降到最低。02國產化據機構分析,中國企業大批次使用國產製造裝置這件事有兩點需要注意的問題,第一個問題是相關部門需要對特定的晶圓廠給予政策上面的允許,另一個問題是晶圓廠需要提交採購裝置的資訊,以此來證明裝置的支出至少有一半用於中國供應商。該行動是中國自主產業鏈的關鍵一環,50%只是一個基準線,其最終的目標是實現100%的國產化產業鏈,最大限度保護自主技術的安全性,從根源上杜絕被卡脖子的問題。美國持續多次對荷蘭施壓,先封鎖了EUV光刻機對華出口,隨後又封鎖了先進浸潤式光刻機的對華出口,導致中國企業在光刻機領域與國際產業鏈出現脫節的情況,只被允許從ASML購買十多年前的老舊成熟裝置。國產光刻機也在持續推進當中,已經完成了65nm解析度乾式光刻機的整機應用,目前正在推進浸潤式和EUV。儘管國產光刻機取得了一些成果,但現階段還無法與ASML的裝置相比,也無法大規模投入到生產線上替代ASML的裝置。在28nm及以上的成熟製程生產線中,100%的國產化製造是有望在近幾年實現的,但是在具有Fin FET電晶體結構的先進生產線中,如今還是以ASML的進口裝置為主,國產裝置無法填補這個缺口。據環球網引述日經亞洲發佈的新聞表示,儘管中國本土企業在多個前沿領域取得顯著進展,開發出了足以替代進口品牌的刻蝕、檢測、沉積、化學拋光等重要的本土製造工具,但中國企業仍面臨著一個難以踰越的技術障礙——光刻。光刻機不但複雜,而且造價昂貴,此前只有荷蘭ASML、日本的佳能、尼康等三家公司製造。對於中國企業來說,完成國產光刻機的開發,並且將其應用到國產晶片的製造環節,這是中國科技自立自強道路上必須要解決的問題。研發動力是中國晶片產業走向成功的關鍵因素,諷刺的是,美國對中國企業連讀多年的制裁壓制,為中國企業提供了從未有過的強大動力。幾乎所有的中國企業都在儘可能使用本土企業製造的裝置,那怕是曾經高度依賴進口裝置的中國企業,也將國產裝置納入供應鏈體系。部分中國製造商採用國產裝置後,因性能以及穩定性等因素導致產能下降,但是這並未阻止他們繼續使用國產裝置。通過汲取多次的失敗經驗來最佳化裝置,ASML此前已經證明了這是一條有效的方法。03產業規模據新華財經發佈的新聞指出,北方華創在2024年全球半導體裝置廠商規模榜單中排名第六,其全年營收同比增長35.1%,達到了298億元。在前五名當中,ASML優勢巨大排名第一,日本東京電子排名第四,剩下三個席位均由美國企業所佔據。北方華創雖全球排名第六,但是其市場經濟規模距離第五名的美國科磊有明顯差距。在絕對的產品技術與市場規模層面,國產廠商已經達到了國際主流水平,下一步就是要對行業巨頭髮起挑戰。而美國的出口管制以及國內的產業扶持政策,都在更加利多北方華創等本土裝置製造商。美國不允許中國企業購買進口裝置,那麼採購裝置這個環節就出現了空檔期,本土製造商自然而然就成為了相關企業的首選目標。據路透社報導指出,中國本土製造商在2025年全年訂購了400件以上的國產光刻機以及相關元件,總金額約為1.2億美元。在這400多件的訂單當中,包括了整機以及相關備用件,並沒有直接給出整機的數量。據ASML財報顯示,ASML用於成熟晶片製造的ArF乾式光刻機平均成本為2790萬美元,落後一點的KrF光刻機為1446萬美元,而先進的浸潤式光刻機的造價高達8250萬美元。按照ASML裝置的標準進行估算,中國製造商訂購裝置所花費的1.2億美元,大約相當於8台ASML的KrF光刻機。由此可以得出,中國企業採購的國產裝置基本都是面向於成熟晶片節點。先保證成熟晶片的自主可控,然後依靠成熟晶片所帶來的規模化經濟效益,帶動產業鏈進行先進裝置的自主研發,實現同步發展。 (逍遙漠)
台積電看到的半導體未來藍圖:AI驅動兆美元市場,三大技術支柱引領變革
在全球人工智慧浪潮以排山倒海之勢重塑各行各業之際,作為數字世界基石的半導體產業,正站在一個前所未有的爆發臨界點上。近日,台積電(中國)總經理羅鎮球先生在ICCAD Expo 2025上分享了台積電對半導體產業發展趨勢的深刻理解和洞察,並首次系統性闡述了台積電為迎接“AI時代”所建構的“雲-管-端”全端技術戰略。他指出,“由AI驅動的算力革命正推動半導體產值將在2030年輕鬆突破兆美元大關,而台積電將通過先進製程、先進封裝與矽光子技術這三大核心支柱,為這場席捲全球的創新提供底層動力。”台積電(中國)總經理羅鎮球AI算力革命引爆“萬物智能”,驅動半導體產值衝向兆美金“各位已經開始感受到它的變化了,”羅鎮球開宗明義,“智能是無處不在的。”他從我們身邊正在發生的變革切入,描繪了一幅由AI算力驅動的未來圖景:資料中心內,各種大模型層出不窮;終端裝置上,從PC、手機到AR/VR眼鏡,AI功能正成為標配;更前沿的領域,如人形機器人、自動駕駛汽車和AIoT產品,正以前所未有的速度從概念走向現實。所有這些應用的背後,都離不開晶片算力的指數級增長。羅鎮球用一組來自行業調研預測資料勾勒出市場的巨大潛力:“我們幾年前就預估2030年IC產業產值會超過一兆美金。”這一樂觀預估源於各細分市場的強勁需求:資料中心。算力需求持續暴增,其所使用的先進製程晶片數量將成長5-6倍。AI PC。將從當下的2億台增長至2030年的近3億台。AI智慧型手機。將從目前的2億台迅猛增長到10億台。新興裝置。AR/VR眼鏡、機器人計程車、人形機器人等都將為晶片市場貢獻可觀的增量。這幅宏大的市場藍圖,清晰地指向一個結論:我們正處在一場由AI引領的、波瀾壯闊的半導體黃金十年的開端。超越算力:能效比成為產業進階的新“聖盃”在追逐更高算力的同時,一個更為關鍵且嚴峻的挑戰浮出水面——能效比。當數以億計的電晶體被整合在微小的晶片上,其帶來的散熱問題已成為制約算力進一步提升的瓶頸。“晶圓廠更在意它的能效比,”羅鎮球指出。半導體工藝前進的根本動力,已從單純的算力競賽,轉向對“每瓦特性能”的極致追求。他透露,在過去很長一段時間裡,半導體行業的能效比大約每兩年提升3倍,而這一趨勢未來仍將延續。但要達成這一目標,已非單一技術所能及。它需要一場跨領域的協同創新:新的電晶體架構、新的材料、設計與工藝協同最佳化、先進的封裝技術以及系統的軟體配合。這標誌著半導體行業進入了 “系統級驅動” 的新階段,需要產業鏈上下游通力合作。台積電的“三駕馬車”:先進工藝、先進封裝與矽光子面對時代的召喚,台積電展示了其作為產業龍頭的技術底蘊與前瞻佈局。羅鎮球系統拆解了台積電支撐未來算力的三大技術引擎。1. 先進工藝:持續精進,多維拓展在最為人熟知的先進工藝領域,台積電的3奈米家族已展現出強大的生命力和市場適應性。羅鎮球介紹,台積電並未將3奈米視為單一節點,而是針對不同應用場景,衍生出一個豐富的“工藝家族”:N3E:已大規模生產,廣泛應用於HPC和AI產品。N3P:進行了特定最佳化,已於去年第四季度投產。N3X:主打超高速度,針對高性能CPU/GPU。N3A:滿足車規級可靠性要求,正在研發中。N3C:具備極佳的性價比,面向成本敏感型應用。“光一個3奈米技術,在這上面我們推出了6種不同工藝。”羅鎮球表示。這種精細化、定製化的工藝路線圖,彰顯了台積電深度服務多元化客戶需求的能力。2. 先進封裝:從2D到3D,重塑晶片整合範式當摩爾定律在平面縮放上逼近物理極限,3D堆疊的“先進封裝”技術成為了持續提升系統性能的關鍵。台積電的CoWoS封裝技術已是大規模生產的主流方案。而其更前沿的SoC技術,則代表了晶片堆疊的未來。SoC通過晶片間直接面對面的融合連接,將連接密度推向極致。羅鎮球預測,“從2023年到2028年以後,連接的密度可以增加到20倍。”這將極大地滿足AI大晶片對內部超高頻寬和極低延遲的渴求。3. 矽光子技術:突破“運力”瓶頸,點亮晶片互聯未來如果說先進工藝和封裝解決了“算”的問題,那麼矽光子技術則旨在解決“輸”的瓶頸。當晶片算力越來越強,晶片之間、系統之間的資料傳輸速度和功耗就成了新的挑戰。台積電正大力投入矽光子技術,旨在用光傳輸替代傳統的電傳輸。“電源效率會提升15倍,而且時延會縮短到原來的1/20。”羅鎮球強調,這對於資料中心內部,尤其是XPU(各類AI加速器)之間的互聯至關重要,是打破現有AI算力叢集性能天花板的核心技術。展望中國半導體市場的機遇,羅鎮球認為,將AI大模型的能力賦能到邊緣側和端側,是中國市場一個極具潛力的方向。“中國有這麼大的市場,而且中國人特別擅長用新的App去做一些事情。”這片廣闊的應用土壤,結合AIoT晶片,將為本土產業鏈帶來巨大的發展空間。” (與非網eefocus)
貝森特暗示聯準會未來方向:通膨“區間制”,取消“點陣圖”,支援財政部,回歸“幕後”
美國財政部長貝森特近日暗示聯準會的政策框架或將面臨重大調整,包括用通膨“區間制”取代固定的點位目標,以及取消備受市場關注的利率路徑“點陣圖”。他主張央行應縮小對經濟的干預範圍,回歸更為傳統的幕後角色,並與財政部進行更有效的政策協同。在12月23日上線的All In播客節目的討論中,貝森特雖然強調在通膨率確切回歸2%之前不宜調整目標以維持信譽,但他明確表示,一旦通膨受控,他支援引入“區間”概念(例如1.5%至2.5%或1%至3%)。他認為經濟系統更類同於“生物學”而非物理學或數學,追求小數點等級的確定性是荒謬的。此外,他透露現任臨時聯準會理事米蘭(Kevin Miran) 可能在二月或三月重返白宮,這一時間點被市場解讀為與下一任聯準會主席提名的決策窗口相吻合。貝森特進一步指出,新任聯準會主席可能會考慮廢除每季度發佈的經濟預測摘要中的“點陣圖”,這一工具長期以此來以此引導市場對利率走勢的預期。他列舉的潛在人選如沃什(Kevin Warsh)、哈塞特(Kevin Hassett)和沃勒(Chris Waller),均傾向於縮小聯準會的職能範圍,並旨在減少市場對央行官員隻言片語的過度解讀,使政策制定過程更具可預測性。01 提出通膨區間制、取消“點陣圖”貝森特對聯準會現有的通膨目標框架提出了質疑。儘管他承認“2%”的通膨目標已是既定標準,且在通膨高於該水平時貿然調整會被視為“作弊”,從而損害央行信譽,但他認為未來的方嚮應當是更加靈活的區間制。他指出,市場和經濟是非線性的複雜系統,試圖錨定一個精確的數值並不符合實際經濟運行的規律。在溝通工具方面,貝森特對“點陣圖”持批評態度。他暗示,隨著未來聯準會領導層的更迭,這一長期作為市場風向標的工具可能會被廢除。這一改變旨在降低市場對央行短期利率預測的過度依賴,使央行的政策意圖傳導更為直接和清晰。此外,貝森特提到了目前正在接受考察的聯準會主席候選人,包括沃什、哈塞特和沃勒。他指出,這些候選人普遍希望能縮小聯準會的機構規模和職能,結束所謂的“功能增益”(gain of function)貨幣政策,即不再讓央行成為經濟舞台上的絕對主角。02 呼籲聯準會縮小“存在感” 回歸幕後貝森特對聯準會在過去十幾年中實施的量化寬鬆(QE)政策進行了嚴厲批評,將其稱為“不平等的引擎”(engine of inequality)。他認為,聯準會長期購買資產人為推高了資產價格,導致擁有資產的群體與普通工薪階層之間的貧富差距擴大。依據貝森特的觀點,大規模資產購買應僅限於作為應對緊急危機的工具,類似於英國央行在市場動盪期間的短期干預,或者是作為傳統的“最後貸款人”提供流動性,而非長期維持龐大的資產負債表。他指出,聯準會目前因高價購買債券而每年面臨約1000億美元的虧損,這與以往央行向財政部上繳利潤的情況形成了鮮明對比。貝森特主張聯準會應剝離其複雜的“三頭怪獸”角色——即同時進行利率設定、資產負債表操作和金融監管。他希望未來的聯準會能像以前一樣,是一個在背景執行、可預測的機構,而不是讓市場和美國人民需要時刻緊盯每一個詞彙的波動源。03 聯準會應該支援財政部在談及財政與貨幣政策的關係時,貝森特引用了德國央行的模式,主張聯準會應與財政部進行更緊密的配合。他提出,如果財政部能夠展示出控制赤字的決心和成果,聯準會應當通過降低利率來“為財政緊縮鋪平跑道”。關於財政狀況,貝森特預計2026 年美國將迎來經濟的“盛宴”,並致力於將預算赤字佔 GDP 的比例降至 3% 的水平。他表示,2025 年是“擺桌子”的一年,通過一系列政策調整為後續增長奠定基礎。他強調,關稅政策不僅是貿易平衡的工具,更是國家安全的手段,並引用舊金山聯儲的研究稱關稅實際上具有反通膨效應。對於未來的經濟圖景,貝森特描繪了一個“華爾街與主街(Main Street)”融合的願景。通過推行“川普帳戶”(Trump accounts)——即為每個出生的美國兒童提供 1000 美元的投資啟動資金,旨在普及股權所有權,提升全民金融素養。同時,財政部將致力於放鬆對社區銀行的監管,以釋放其對中小企業和農業的信貸支援能力,從而推動更廣泛的經濟繁榮。 (追風交易台)