#好未來
告別美元比特幣?馬斯克押注的 “太空貨幣”,正掀全球未來產業暗戰!
馬斯克在達沃斯論壇扔出一句狠話:“未來全球貨幣不是美元,也不是比特幣,是瓦特”。外界忙著驚嘆這位科技狂人的天馬行空,卻沒注意到,這背後是一場關乎 AI 時代話語權的星空爭奪戰 —— 他正靠著星艦、星鏈,悄悄把 “發電廠 + 伺服器” 搬上天,要打造不受地面規則束縛的 “在軌能源算力中樞”。而在 AGI 即將爆發的節骨眼上,人類對能源與算力的爭奪早已衝出地球,中國則憑著全產業鏈底氣,走出了一條不跟風、穩紮穩打的差異化路徑,太空經濟也正成為未來產業最硬核的藍海賽道。一、馬斯克的星際野望:把能源和算力搬到太空太空太陽能這想法,幾十年前科學家就提過,但發射成本太高,一直停留在紙面上。馬斯克能把它玩出新花樣,關鍵就在星艦 —— 只要能把發射成本壓下來,太空太陽能的商業邏輯直接被改寫。要知道,太空中的太陽能輻射比地面強三成多,還能 24 小時不間斷供電,剛好能喂飽 AI 大模型那無底洞般的能源需求。現在馬斯克已經動真格了:SpaceX 正和特斯拉一起擴產太陽能,目標三年內做到每年 100GW 的製造能力,這產能不僅服務地面 AI 資料中心,更要給軌道上的 “太空伺服器” 供能。在他的規劃裡,星鏈衛星早就不只是 “太空路由器” 了,而是裝滿 AI 運算模組的在軌節點,直接用太空太陽能搞大規模算力輸出 —— 既不用交地面資料中心的高額電費、不用佔土地,還能躲開環保政策和碳稅的約束。說白了,他就是想攥住 AI 時代的命門:誰能搞到低成本、無限制的能源和算力,誰的 “瓦特” 就能成為全球通用的硬通貨。二、理想很豐滿:三大技術難關攔住去路這星際藍圖看著完美,卻得闖過三座技術大山,絕非易事。首先是散熱難題,地面資料中心能用水冷、風冷降溫,太空是真空環境,只能靠熱輻射散熱。大規模 AI 伺服器的能耗高得嚇人,衛星得裝巨型散熱翼才能扛住,這不僅增加設計和發射難度,還可能影響在軌穩定性,簡直是工程學的噩夢。然後是能量傳輸的效率坑。現在主流的微波、雷射傳能技術都有嚴重衰減,就算西安 “逐日工程” 能做到 87.3% 的波束收集效率,從太空傳到地面的全鏈路損耗還是不容忽視,這關過不了,“太空能源中樞” 就是空談。還有個隱蔽風險是太空垃圾,馬斯克的計畫要發射數萬顆帶巨型帆板的衛星,而低地軌道正越來越擠 —— 國際電信聯盟預測,2029 年全球申請登記的非對地靜止衛星將達 180 萬顆,一旦發生碰撞,連環事故可能直接封鎖整個低軌空間,到時候別說搞太空算力,人類太空探索都得受影響。三、中國的差異化打法:不跟風,穩紮穩打築優勢面對馬斯克的先發優勢,中國沒想著復刻,而是憑著自己的產業底子,走出了 “技術攻堅 + 產業鏈協同” 的路。在太陽能硬體上,中國早就掌握全球話語權了,尤其是鈣鈦礦電池,又輕薄又柔性、效率還高,簡直是太空太陽能的完美選擇。天合光能在這方向深耕多年,計畫 2026 年加速量產;鈞達股份也通過參股科技公司切入賽道,從技術研發到產能落地的完整梯隊已經成型。傳能和算力佈局上,中國的技術儲備也不含糊。西安電子科技大學搞的 “逐日工程”,已經實現從聚光追日到微波輸電的全流程閉環,直流 - 直流總效率突破 15.05%,刷新了全球紀錄。衛星方面,中國 “千帆星座” 走的是 “天地一體化” 路線,不追求一步到位壟斷太空算力,而是先搞在軌邊緣計算,讓衛星在軌處理部分原始資料,減輕地面算力壓力 —— 既降低了技術風險,又能快速形成實際應用價值。隨著長征九號重型火箭研發推進,這些實驗室裡的黑科技,正加速飛向太空。而這場星空博弈,也帶動了上下游未來產業的爆發:衛星製造、新型太陽能材料、無線傳能裝置、太空 AI 演算法等賽道持續升溫,據世界經濟論壇預測,到 2035 年全球太空經濟規模將達 1.8 兆美元,其中太空太陽能與算力是高附加值核心,還將聯動地面 AI、新能源、智能製造等產業,形成跨領域協同增長的生態。四、星空爭奪戰:AI 時代的終極入場券太空太陽能與算力的角逐,本質是 AI 時代核心資源的爭奪。馬斯克的優勢是敢想敢幹的創新魄力,還有成熟的資本運作,能持續給技術研發輸血;中國的底氣則來自全產業鏈的韌性、龐大的製造優勢,以及國家級的戰略執行力。這場博弈才剛拉開序幕,遠沒到分勝負的時候。馬斯克在前邊探路,不管是成功經驗還是踩過的坑,都給行業提供了參考;中國則靠著鈣鈦礦、微波傳能等技術突破,以及 “穩紮穩打” 的戰略,慢慢縮小差距。值得警惕的是,軌道和頻段資源的爭奪已經白熱化,國際電信聯盟 “先到先得” 的規則,讓無序競爭風險加劇,而技術迭代帶來的淘汰成本,也考驗著各國的戰略耐力。未來的星空,不該是某一個國家的專屬領地。當中國的太空算力節點與馬斯克的星鏈網路遙相呼應,當全球一起破解技術瓶頸、規範軌道利用,人類才能真正邁入高效、安全的 AI 硬核時代。這場跨越地球邊界的角逐,終將重塑全球產業格局,書寫人類文明向宇宙延伸的新篇章。 (世界未來產業博覽會)
賈躍亭發佈人形機器人
F賈躍亭押注具身智能:FF發佈3大系列機器人台北時間2月5日早上7:30,FF在拉斯維加斯美國國家汽車經銷商大會上,舉辦了首批具身智能(EAI)機器人產品發佈會。FF創始人賈躍亭發文介紹,本次發佈Futurist、Master、Aegis三大系列EAI機器人,輪臂系列計畫於二季度發佈。其中Futurist系列是全尺寸職業型人形機器人,Master系列為運動型人形機器人,Aegis系列是安防陪伴型四足機器人。賈躍亭微博稱FF發佈三大系列EAI機器人:Futurist系列是全尺寸職業型具身智能人形機器人,全能專業的職業專家;Master系列是運動型具身智能人型機器人,全智懂你的動作大師;Aegis系列是安防和陪伴型專業四足具身智慧型手機器人,標配四足結構,同時可選四輪版本。三款機器人定價不同:Futurist系列34990美元起,Master系列19990美元起,Aegis系列2499美元起。FF同步推出“三位一體”EAI機器人生態戰略,涵蓋EAI終端、EAI大腦&開源開放平台及EAI去中心化資料工廠。此次發佈會還包含FF“EAI人車+”產品終極發佈暨FF Par招商大會,揭曉了EAI機器人產業“四化”趨勢。此前1月8日,FF曾在拉斯維加斯舉辦股東日活動,披露2026年規劃、FX Super One關鍵里程碑及五年商業計畫。FF宣佈將以EAI汽車與EAI機器人“雙軌驅動”,開啟未來10年的全新增長曲線,相關規劃由核心高管共同發佈。FX Super One計畫今年二季度交付50台、三季度交付200台,力爭三季度實現毛利為正,2027至2030年逐步提升產銷規模。此外,段永平再度力挺特斯拉,馬斯克團隊也有密探中國太陽能企業的相關動態,與FF機器人發佈共同引發行業關注。註:1 月 8 日 CES 2026 同期,法拉第未來在拉斯維加斯舉辦首屆股東日,發佈 2026 年規劃、FX Super One 里程碑及五年商業計畫執行方案,官宣推出具身智慧型手機器人戰略,打造 EAI 汽車與機器人雙軌驅動格局,開啟十年新增長曲線。此外,小鵬汽車劉先明、魏斌此前均直接向何小鵬匯報,二人分別擁有 Meta、Cruise 及高德地圖相關從業背景。(深科技)
賈躍亭在美國發佈人形機器人產品,網友:電車還沒造明白呢!
法拉第未來(Faraday Future,簡稱FF)在美國拉斯維加斯舉辦的全美汽車經銷商協會大會(NADA)現場,通過全球直播形式發佈三大系列EAI機器人產品。發佈會上,賈躍亭詳細介紹了FF首批推出的Futurist、Master、Aegis三大系列EAI機器人,三款產品定位差異化明確,覆蓋多個專業及民用場景。其中,Futurist系列為全尺寸職業型具身智能人形機器人,採用仿生關節設計,具備強大的複雜環境適應能力,可勝任工業巡檢、醫療輔助等專業化場景。Master系列作為運動型具身智能人形機器人,搭載高精度運動控制演算法,在舞蹈教學、體育訓練等領域展現出突破性的互動能力。Aegis系列則聚焦安防陪伴場景,標配四足結構,同時提供四輪版本選項,通過多模態感知系統可實現全天候環境監測與家庭看護功能。發佈會現場,賈躍亭還通過社交平台發佈了一段20秒的展示視訊,直觀呈現了人形機器人與四足機器人的實際動作表現和基礎互動能力,但未展示機器人完整外觀及詳細技術參數。此外,FF方面透露,輪臂系列機器人已進入最終測試階段,計畫於2026年二季度正式發佈,進一步豐富EAI機器人產品矩陣。據悉,FF近期已與AIxC公司簽署協議,獲得1000萬美元純股權融資,這筆資金將主要用於EAI機器人產品的商業化落地及FX Super One車型的量產交付,交易預計於2月13日左右完成。不過,對於賈躍亭此次發佈的機器人產品,網友似乎並不看好,直呼“電車都沒造明白,又追風搞機器人”。據瞭解,賈躍亭從2014年開始官宣造車以來,到目前為止交付量僅20多台。 (TechWeb)
Nihonchokuhan 將於南港展覽館「2026台北國際動漫節」全日本內容展區設立「初音未來(SNOW MIKU)」限定快閃店 2月5日~2月9日
繼新加坡後,在台灣驗證亞洲IP拓展策略。透過「SNOW MIKU週邊商品 × 拍照打卡點 × 社群媒體聯動」打造沉浸式體驗價值~Nihonchokuhan Inc.(總公司:東京都港區,代表取締役社長:水谷 彰孝 (Akitaka Mizutani) / 以下簡稱Nihonchokuhan)作為從過往的綜合郵購事業,朝向以「娛樂、全球化、數位轉型」為核心的「綜合服務(WEB3.0)」企業轉型的一環,將於在台北舉辦的「2026第14屆台北國際動漫節(全日本內容專區)」中,設立 「初音未來(SNOW MIKU)」限定快閃店。展期為2026年2月5日(星期四)至2月9日(星期一),共計5天,地點為台北南港展覽館1館。■ 參展目的:以海外實體接觸點為起點,「串連」體驗與購買台北國際動漫節是每年冬季舉辦的亞洲最大規模漫畫及動畫相關活動,據公佈資料,上一屆(2025年2月)吸引了48.5萬人次到場。Nihonchokuhan將以此類大型活動中的粉絲接觸點為起點,全面驗證從現場購買體驗到社群媒體擴散,進而導引至「下一次購買」的完整路徑設計,藉此加速在亞洲市場的業務拓展。■ 參展概要活動名稱:2026第14屆台北國際動漫節展期:2026年2月5日(星期四)~ 2月9日(星期一)開放時間:10:00 ~ 18:00會場:南港展覽館1館(台北市南港區經貿二路1號)參展區域:全日本內容專區「ICHIBAN JAPAN日本館」(暫定)■ 四大實施內容:1. 「初音未來(SNOW MIKU)」周邊商品販售將以在新加坡反應熱烈的商品為核心,於展區進行展示與銷售。2. 展區內拍照打卡點(打造「吸睛」拍攝體驗)設置專屬拍照區,旨在提升參觀者的沉浸式體驗滿意度,同時促進用戶生成內容於社群媒體上的自然擴散。3. 指定主題標籤投稿活動(線上擴散),鼓勵參與者使用指定主題標籤(例如:#snowmikuskytowntw)發布貼文。出示發布畫面即可獲贈限量原創紀念品(數量有限,送完為止)。※ 指定主題標籤與參與方式確定後,將於展區公告及Nihonchokuhan官方社群媒體公布。4. 引導「下次購買」之 QR Code 卡片發放(面向所有購買者)向所有購買者發放名片尺寸之卡片,掃描卡片上 QR Code 即可連結至官方社群媒體及相關資訊頁面,實現展期後持續的資訊獲取與購買引導。■ 媒體聯絡資訊如有採訪需求,本公司董事兼娛樂全球事業本部長 Ito將從日本親赴台灣,可前往貴單位指定地點或辦公室接受採訪。我們亦提供線上採訪方式,歡迎隨時與我們聯繫。■ 可安排面對面採訪的日期與時間・2026年2月8日 全天・2026年2月9日 全天■ 可安排線上採訪的日期與時間・未指定,可彈性協調安排。※ 如有需求,歡迎聯絡「ito.motohiko@nihonchokuhan.jp」。※ 本公司備有口譯人員,可根據您希望的語言進行採訪。■ 公司概要公司名稱:Nihonchokuhan Inc.地址:東京都港區虎之門3丁目20-5 Ito Yu大樓虎之門3F負責人:代表董事社長 水谷 彰孝成立時間:1977年10月(Nihonchokuhan品牌開始營運)業務內容:綜合服務(郵購/內容企劃/廣告・促銷支援等)官方網址:https://corporate.666-666.jpNihonchokuhan Inc.社長,水谷 彰孝
美國CFTC主席加密監管"未來防範計畫":明晰市場預期,謀求權限擴容
2026年1月20日,美國商品期貨交易委員會(CFTC)新任主席Mike Selig正式推出“未來防範計畫”(Future-Proof Initiative),這一旨在重構數位資產監管框架的戰略舉措,迅速引發全球加密行業、金融機構與監管層的高度關注。作為川普政府“親加密”監管轉向的核心落地動作,該計畫打破了此前美國對加密資產“以執法代監管”的被動格局,試圖通過建立穩定、清晰的正式規則,平衡創新激勵與風險防控,同時謀求CFTC在加密監管領域的核心地位。一、提出背景:監管滯後與戰略訴求的雙重驅動“未來防範計畫”的推出並非偶然,而是美國加密市場發展矛盾、監管體系缺陷與國家戰略訴求共同作用的結果,其背後蘊含多重現實動因。(一)加密市場規模擴容催生監管確定性需求經過十餘年發展,加密資產已從“新奇事物”演變為具備系統重要性的金融領域。據估算當前全球數位資產市場規模已達約3兆美元,比特幣、以太坊等主流幣種的交易活躍度與市值體量,使其不再適合通過臨時性監管指引或碎片化執法進行約束。此前監管的模糊性導致大量機構資金持觀望態度,即便部分華爾街巨頭有意佈局加密衍生品,也因合規風險顧慮而步履維艱,制約了市場的進一步成熟。在此背景下,行業對明確、穩定的監管框架的訴求愈發迫切,成為“未來防範計畫”推出的核心市場基礎。(二)傳統監管模式存在結構性缺陷拜登政府時期,美國對加密行業的監管呈現“重執法、輕規則”的特徵,CFTC與證券交易委員會(SEC)多通過發起訴訟、發佈非正式指引等方式推行監管,形成“以執法代監管”的被動格局。這種模式存在兩大核心問題:一是規則透明度不足,市場主體難以預判合規邊界,導致部分加密企業為規避風險將業務遷往新加坡、阿聯等監管清晰的地區,造成美國金融創新資源與就業機會流失;二是政策穩定性缺失,非正式指引易隨政府更迭而被推翻,加劇市場波動。Mike Selig批評這種監管模式已損害美國金融市場的全球競爭力,亟需通過正式規則制定流程重塑監管邏輯。(三)現有規則與新興市場不適配CFTC現行監管規則多制定於數十年前,核心圍繞農產品、能源等傳統期貨品種設計,難以覆蓋區塊鏈資產、AI驅動交易、預測市場、永續合約等新興領域。例如,對於去中心化金融(DeFi)的交易機制、加密資產託管的安全標準、AI演算法交易的風險防控等問題,現有規則均缺乏明確界定,導致監管存在大量灰色地帶。同時,監管權限劃分模糊引發CFTC與SEC長期博弈,雙方對加密資產“商品”與“證券”的屬性認定分歧,進一步加劇了市場合規混亂。(四)美國加密戰略佈局的政策配套需求川普政府上台後,將加密資產納入國家戰略儲備佈局,提出建構“BTC-美元”雙儲備模型,試圖通過掌控加密資產定價權鞏固美元全球霸權。這一戰略的落地,亟需完善的國內監管框架作為支撐——只有建立清晰的合規路徑,才能吸引更多機構資本參與加密市場,推動加密資產與傳統金融體系深度融合。“未來防範計畫”作為這一戰略的重要配套舉措,本質上是通過監管革新為美國爭奪全球數位資產主導權鋪路。二、主要內容:建構現代化加密監管體系“未來防範計畫”以“建立不易被後續政府推翻的穩定監管框架”為核心目標,圍繞監管方式、規則體系、支撐機制、權限擴容四大維度,提出了一系列系統性舉措,目前已披露的核心內容如下:(一)轉變監管範式,終結“以執法代監管”這是計畫最核心的變革方向。Mike Selig明確宣佈,CFTC將放棄此前依賴執法行動推動監管落地的模式,轉而通過正式的規則制定流程(包括公開通知、意見徵集、聽證論證等環節)確立監管標準。與非正式指引不同,通過該流程形成的規則具備更強的法律效力與穩定性,可有效規避後續政府更迭帶來的政策波動風險。同時,CFTC將以“最低有效監管強度”為原則,在防範欺詐、操縱風險與保障市場創新之間尋求平衡,避免過度監管扼殺行業活力。(二)全面升級規則體系,適配新興金融場景計畫提出對CFTC現有監管規則進行全面梳理與重構,針對加密資產及相關創新領域量身定製監管細則。具體涵蓋三大領域:一是加密資產分類監管,明確界定屬於“商品”範疇的加密資產範圍,為其現貨交易、衍生品發行提供清晰合規路徑;二是創新產品監管,重點規範永續合約、預測市場等新興品種,明確交易機制、風險控制與資訊披露要求;三是技術適配規則,針對AI驅動交易、區塊鏈資產託管、DeFi協議等場景,制定技術安全標準與合規操作規範,填補現有監管漏洞。(三)搭建專業支撐體系,強化行業協同為提升監管專業性與前瞻性,CFTC已宣佈成立“創新諮詢委員會”(Innovation Advisory Committee),成員涵蓋行業專家、學者、律師、金融機構代表及公共利益倡導者,主要職責是為監管規則制定提供技術支撐與行業建議,避免監管與市場實際脫節。同時,CFTC聘請加密領域資深律師參與框架制定,進一步強化團隊在加密法律與技術層面的專業能力,推動監管規則更貼合行業實操需求。(四)推動立法擴容,謀求核心監管地位計畫的關鍵訴求的之一是通過國會立法擴大CFTC的監管權限。目前,CFTC正積極推動《數字商品中介機構法案》審議,該法案若通過,將明確CFTC作為美國加密資產現貨及衍生品市場核心監管機構的地位,覆蓋數位資產交易平台、託管方、中介服務機構等全產業鏈主體,要求相關機構必須在CFTC註冊並遵守合規規則。同時,CFTC將與SEC建立協同監管機制,通過聯合活動、資訊共享等方式釐清監管邊界,解決長期存在的權限爭奪問題。(五)分步推進落地,細化政策實施路徑為降低規則變革對市場的衝擊,計畫採取“分步推進、逐步細化”的實施策略。Mike Selig表示,未來數日將公佈首批政策調整細節,重點明確規則修訂範圍與時間節點;後續將通過多輪公開意見徵集,吸納行業與公眾建議最佳化規則內容;最終在2026年內完成核心規則的制定與落地,形成覆蓋加密資產全生命周期的監管體系。三、穩定性、前瞻性與戰略導向性凸顯相較於美國此前的加密監管舉措,“未來防範計畫”呈現出三大鮮明特徵,彰顯了監管思路的根本性轉變。(一)以政策穩定性為核心目標,剝離政治博弈干擾計畫最突出的特徵是強調監管規則的“不可推翻性”。通過正式立法程序制定規則,將加密監管從短期政治博弈中剝離,為市場主體提供長期穩定的合規預期。這一設計直擊行業痛點——此前美國加密監管政策隨政黨更迭劇烈波動,拜登政府的強硬執法與川普政府的支援創新形成鮮明對比,導致企業不敢進行長期投資佈局。而“未來防範計畫”通過法律化、制度化的方式固定監管框架,有效緩解了政策不確定性帶來的市場焦慮。(二)以協同創新為監管邏輯,建構多方參與機制與傳統監管“閉門立法”模式不同,該計畫強調監管與行業的協同性。創新諮詢委員會的設立,使行業參與者能夠直接參與規則制定過程,確保監管規則既符合風險防控要求,又適配技術創新實際。這種“監管-行業”雙向互動機制,不僅能減少規則落地的阻力,還能提升監管的前瞻性,避免出現“監管滯後於創新”的問題,體現了“包容性監管”的核心理念。(三)以戰略導向為核心訴求,服務全球競爭力爭奪計畫並非單純的監管最佳化,而是服務於美國全球金融戰略的重要工具。當前,全球加密監管格局正加速形成,歐盟通過《加密資產市場監管法案》(MiCA)建立了統一框架,中國聚焦央行數字貨幣(CBDC)佈局,各國均在爭奪數位資產主導權。“未來防範計畫”通過明確監管規則、吸引機構資本、擴大監管權限,本質上是為了留住本土加密創新資源,吸引全球加密企業與資金流向美國,鞏固美國在全球金融市場的領先地位,彰顯了強烈的戰略導向性。四、預計從啟動到落地的關鍵時間節點截至2026年1月27日,“未來防範計畫”已進入實質性推進階段,結合公開資訊與行業預判,核心時間線如下:從時間線可見,2026年2月的法案審議是計畫落地的關鍵門檻,若法案能順利通過,將為CFTC權限擴容提供法律支撐;若遇阻,可能導致計畫整體推進延遲,甚至影響監管框架的完整性。五、可能重塑全球加密市場格局“未來防範計畫”的實施,將從市場生態、行業競爭、全球監管格局三大層面產生深遠影響,既為加密行業帶來發展機遇,也將引發市場格局的重新洗牌。(一)對美國加密市場生態的積極影響一是啟動機構資金入場。規則明確後,此前持觀望態度的華爾街機構、主權基金等將獲得清晰合規路徑,預計將有大規模資金流入加密現貨與衍生品市場,推動市場流動性與市值進一步提升。二是最佳化行業競爭格局。合規企業將獲得先發優勢,不合規中小平台將加速退出市場,行業集中度提升,頭部合規平台有望迎來業務擴張機遇。三是推動產品創新。CFTC對永續合約、預測市場等創新產品的規範,將鼓勵機構開發更多加密相關金融產品,豐富市場供給,滿足不同投資者需求。(二)對全球加密企業與資本流動的引導作用美國監管清晰度的提升,將改變全球加密資本的流動方向。此前遷往海外的美國加密企業可能將業務遷回本土,同時吸引歐洲、亞洲等地區的合規企業赴美佈局,進一步鞏固美國作為全球加密創新中心的地位。但對於不合規企業而言,美國市場的准入門檻將顯著提高,可能被迫轉向監管寬鬆的地區,形成“合規企業集聚美國、不合規企業流向邊緣市場”的格局。(三)對全球加密監管格局的示範效應作為全球金融監管的重要風向標,美國加密監管模式的轉型將產生強烈示範效應。歐盟、英國等地區可能借鑑“最低有效監管”“行業協同立法”等理念,最佳化自身監管框架;新興市場國家則可能根據自身情況,在“追隨美國合規路徑”與“自主制定規則”之間做出選擇。同時,美國通過該計畫強化全球加密主導權,可能引發各國對數位資產定價權、監管話語權的爭奪,推動全球加密監管格局從“分散化”向“陣營化”演變。(四)對傳統金融與加密融合的推動作用計畫的實施將加速加密資產與傳統金融體系的融合。銀行、券商等傳統金融機構可通過合規管道開展加密資產託管、交易經紀等業務,豐富業務品類;加密企業則可借助傳統金融機構的管道與資源,實現規模化發展。這種融合不僅能提升加密市場的成熟度,也將推動傳統金融體系的數位化轉型,形成“加密+傳統”的新型金融生態。六、主要風險、落地阻礙與實施挑戰儘管“未來防範計畫”的方向獲得行業廣泛認可,但在推進過程中仍面臨多重風險與挑戰,可能影響計畫的落地效果與實施進度。(一)國會立法阻力與權限博弈風險這是當前最核心的風險。《數字商品中介機構法案》雖獲川普政府支援,但參議院銀行委員會與農業委員會存在立場分歧——農業委員會積極推進法案審議,銀行委員會卻選擇放慢節奏,反映出美國政界對加密監管仍存在明顯分歧。同時,CFTC與SEC的權限爭奪並未完全解決,即便法案通過,雙方在加密資產屬性認定、監管邊界劃分等方面仍可能產生衝突,導致規則落地延遲或執行偏差。此外,法案缺乏明確的兩黨共識,若後續遭遇反對聲音,可能面臨修改甚至擱淺的風險。(二)監管資源不足與執行能力挑戰CFTC目前面臨人手與預算不足的問題,內部監管人員已警告,若在資源未同步擴充的情況下擴大加密監管職責,可能導致監管覆蓋不全面、風險防控不到位,反而增加系統性風險。加密市場的複雜性與技術性對監管人員的專業能力提出極高要求,短期內難以快速補齊人才缺口,可能影響規則執行的精準度與效率。(三)技術適配與行業適配風險傳統監管工具多為中心化金融設計,與DeFi、鏈上交易等去中心化場景存在天然適配性問題。若規則未能充分考慮區塊鏈技術的特性,可能出現“監管過度”或“監管真空”的情況——過度監管可能扼殺DeFi創新,監管真空則可能滋生欺詐、洗錢等風險。此外,加密行業創新速度快,規則落地後可能迅速出現新的技術與場景,導致監管再次滯後。(四)國際競爭與地緣政治風險美國通過“未來防範計畫”強化加密主導權的舉措,引發了其他國家的警惕。中國、歐盟已批評美國“加密單邊主義”,計畫在IMF框架下推動全球加密監管協調,與美國形成監管博弈。若各國監管規則差異擴大,可能導致全球加密市場碎片化,增加企業跨境合規成本。同時,美國將加密資產納入國家戰略儲備的做法,可能引發全球“加密軍備競賽”,加劇地緣政治緊張局勢。(五)市場波動與合規成本風險規則變革過程中,市場可能因預期不確定產生劇烈波動——若法案審議遇阻,可能引發加密貨幣價格下跌;若規則超預期嚴格,部分企業可能因合規成本激增而退出市場,導致行業短期震盪。對於中小加密企業而言,合規改造、技術升級、人員培訓等帶來的成本壓力較大,可能加劇行業馬太效應,不利於市場多樣性發展。七、加密監管進入“規則化”新時代美國CFTC“未來防範計畫”的推出,標誌著全球加密監管從“被動執法”進入“主動建規”的新時代。該計畫以穩定預期為核心、以權限擴容為訴求、以協同創新為邏輯,既回應了行業對合規確定性的迫切需求,也彰顯了美國爭奪全球數位資產主導權的戰略意圖。從短期看,計畫的落地效果取決於國會立法處理程序與權限博弈的結果;從長期看,其成功與否的關鍵在於能否在創新激勵、風險防控與國際競爭之間找到平衡。若計畫順利實施,將為美國加密市場帶來穩定發展環境,重塑全球加密市場格局;若遭遇挫折,可能導致美國錯失加密創新機遇,全球加密監管格局將進一步多元化。對於全球加密企業、機構投資者與監管層而言,“未來防範計畫”不僅是美國的監管變革,更是全球加密行業規範化發展的重要風向標,其每一步進展都將深刻影響行業的未來走向。在這場監管與創新的博弈中,唯有順應規則變革、強化合規能力、擁抱技術創新,才能在日益複雜的全球加密市場中佔據主動地位。 (數字新財報)
52億!重慶打造高端人工智慧新醫養項目,內藏“飛碟”
在重慶北碚區靜觀鎮的台安湖畔,一片森林正悄悄醞釀著一場關於未來的對話!2025年12月26日,“康城未來·重慶森林”項目在這裡正式舉行啟動儀式。項目總投資額達52.3億元,以⼭、⽔、森林為特⾊,聚焦“人工智慧”和“新醫養”兩大核心,重新定義⾼端智慧醫養新⽣活。設計由英國建築師丹尼爾·斯坦森領銜的丹尼爾斯坦森事務所(Daniel Statham Studio,簡稱DSS)擔綱。該事務所以跨學科創新著稱,擅長將建築與創意產業、前沿技術深度融合。方案打破傳統的養老社區框架,而是以“生命方舟,智慧母艦”為靈感,讓藝術、未來感與AI無聲交融。台安湖成為整個佈局的心臟,圍繞它緩緩展開“一鎮、一谷、兩園”的格局。建築順應山勢起伏,曲線與直線輕聲對話,猶如從森林中生長出來,又輕輕懸浮於樹梢之上,呼應著重慶獨有的山城記憶。其中最引人注目的,是一座直徑192米的UFO造型三級康復醫院,其橢圓體網格外殼靈感源自太空飛碟,可有效調控夏季直射陽光,實現建築消隱於自然的視覺效果。“飛碟”內部則匯聚前沿醫療與AI智慧,成為一處靜謐而高效的生命驛站。與之相伴的,是一座半透明的雙金字塔體驗中心,作為使用者、患者與訪客的核心樞紐。第五代智能生活空間則採用靈動線性佈局,沿地塊南北延伸,與景觀交織成適老而通透的居所。項目分三期推進,一期工程投入約23億元,佔地40882.4平方米,規劃床位400張,將建設專科醫院及配套設施,目前已正式開工建設。康城未來·重慶森林項目對森林生態的珍視與智能化利用,是將綠水青山轉化為居民健康靠山的前瞻性實踐,建成後,有望成為引領中國新醫養產業的示範標竿。(GA環球建築)
馬斯克的三兆賭局,押注太空與AI的未來融合
當SpaceX估值半年內從4000億飆升至1.5兆美元,當xAI吞下X平台形成千億AI巨頭,馬斯克的商業帝國正在下一盤跨越太空與AI的大棋。他口中的“三兆市值目標”,究竟是瘋狂的幻想,還是步步為營的佈局?火箭式估值的底氣SpaceX的1.5兆美元估值,靠的不是單一航天業務。Starlink衛星網際網路壟斷65%近地軌道資源,手握“真空中光速網路”特權;星艦火箭進展順利,未來可支撐登月與火星任務;太空資料中心計畫更直指AI時代的算力痛點——天然冷卻、無限太陽能,這些優勢讓地面資料中心望塵莫及。這種“物理學套利”邏輯,讓SpaceX跳出傳統航天公司的估值框架 。更關鍵的是馬斯克的戰略轉變。從堅決反對上市到默認計畫,背後是現實需求:星艦開發、火星基地建設需要的資金,已超出私募市場承受能力。IPO募資的300億美元,將主要投向太空算力中心,與xAI的Colossus資料中心形成協同——後者已部署20萬張輝達顯示卡,計畫新增100萬個GPU。AI閉環的致命優勢xAI與X平台的合併,是馬斯克另一步關鍵落子。合併後估值1130億美元的新實體,形成了 “資料-模型-應用”的閉環 :xAI的Grok機器人用X的6億使用者資料訓練,直接在X平台分發;X的社交場景又反哺模型最佳化。這種整合讓競爭對手難以複製——Google沒有如此龐大的社交資料池,Meta的AI模型缺乏即時分發管道。特斯拉與SpaceX的技術共享也在加速。Roadster跑車將採用SpaceX的冷氣推進器,星鏈衛星未來可能搭載特斯拉的自動駕駛晶片。這種跨領域協同,讓馬斯克的每個公司都成為彼此的“技術行動電源”。三兆目標的可行性要達到三兆市值,SpaceX和xAI需各自撐起1.5兆。對SpaceX而言,關鍵看 星艦復用技術能否突破 ——若能實現每天發射一次,火星運輸成本將大幅降低,太空資料中心的部署速度也會加快。ARK基金預測,到2030年SpaceX價值有望達2.5兆美元,核心邏輯就是Starlink現金流驅動星艦迭代的飛輪效應。xAI的潛力則在於使用者轉化。Grok已接入X的6億使用者,若能將1%轉化為付費使用者,年營收就能達到數十億美元。加上太空資料中心提供的低成本算力,xAI的模型訓練成本可能比同行低30%以上。不可忽視的風險高估值背後的隱憂同樣明顯。SpaceX當前PS率高達65倍,遠超特斯拉的10倍,一旦Starlink使用者增長不及預期,估值泡沫可能破裂。xAI的Grok雖然資料獨特,但在模型性能上仍落後於GPT-4,能否留住使用者存疑。更重要的是馬斯克的精力分配——他同時管理特斯拉、SpaceX、xAI等5家公司,任何一家出問題都可能引發連鎖反應。馬斯克的三兆賭局,本質是押注太空與AI的未來融合。如果SpaceX的太空算力中心能與xAI的模型形成協同,If星艦能如期實現火星運輸,這個目標並非天方夜譚。但這一切的前提是,他能在資本市場耐心耗盡前,把藍圖變成現實。畢竟,投資者最終要看的不是火星夢,而是真金白銀的營收增長。(貳兩參)
2026大模型倫理深度觀察:理解AI、信任AI、與AI共處
2025年,大模型技術繼續高歌猛進。在程式設計、科學推理、複雜問題解決等多個領域,前沿AI系統已展現出接近“博士級”的專業能力,業界對通用人工智慧(AGI)的預期時間表不斷提前。然而,能力的飛躍與理解的滯後之間的鴻溝也在持續擴大——我們正在部署越來越強大的AI系統,卻對其內部運作機制知之甚少。這種認知失衡催生了大模型倫理領域的四個核心議題:如何“看清”AI的決策過程(可解釋性與透明度)、如何確保AI的行為與人類價值保持一致(價值對齊)、如何安全地、負責任地迭代前沿AI模型(安全框架)、以及如何應對AI系統可能被給予道德考量的前瞻性問題(AI意識與福祉)。這四個議題相互交織,共同構成了AI治理從“控制AI做什麼”向“理解AI如何思考、是否真誠、是否值得道德考量”的深刻轉向。大模型可解釋性與透明度:打開演算法黑箱(一)為什麼看清和理解AI至關重要深度學習模型通常被視作“黑箱”,其內在運行機制無法被開發者理解。進一步而言,生成式AI系統更像是“培育”出來的,而非“建構”出來的——它們的內部機制屬於“湧現”現象,而不是被直接設計出來的。開發者設定了宏觀層面的條件,但最終所呈現的具體結構卻無法精確預知。當試圖深入這些系統內部時,看到的往往只是由數十億個數字構成的龐大矩陣。因此,大模型的可解釋性既是挑戰,也是必須追求的目標。具體而言,大模型的可解釋性是指系統能夠以人類可理解的方式闡釋其決策過程和輸出結果的能力,包括:識別那些輸入特徵對特定輸出起關鍵作用,揭示模型內部的推理路徑和決策邏輯,以及解釋模型行為的因果關係。簡言之,就是理解模型如何“思考”及運行。增進可解釋性的價值體現在多個層面。其一,有效防範AI系統的價值偏離與不良行為——研究人員已發現模型可能展現出意料之外的湧現行為,如AI欺騙或權力尋求;如果模型具備有效的可解釋性,人們就可以直接檢查它是否存在企圖欺騙或不服從人類指令的內部回路。其二,有效推動大模型的偵錯和改進——通過檢查模型內部,可以發現是那部分導致了錯誤或反常行為,從而針對性地調整訓練資料或模型結構。其三,更有效地防範AI濫用風險——如果可以深入觀察模型內部,開發者也許能夠系統性地阻止模型越獄等對抗性攻擊。從更宏觀的治理視角看,可解釋性和透明度機制的價值還在於:為研究、評估和應對AI風險提供真實的觀察視角和第一手資料。在風險尚未完全釐清、AI能力仍處於快速演進的階段,可解釋性和透明度機制能夠緩解各方的不安,用“已知證據”去緩解“未知恐懼”。(二)2025年可解釋性技術和透明度的突破進展2025年,可解釋性領域取得了多項重要突破,研究人員正在創造出類似於精準、高效的MRI那樣的工具,以清晰完整地揭示AI模型的內部機制。(1)電路追蹤:揭示模型“思維過程”機制可解釋性研究的一個核心目標是將模型內部的特徵有機組合為“計算電路”,從中追蹤模型如何在層層傳遞中完成由輸入到輸出的決策路徑。2025年,Anthropic發佈了機制可解釋性領域的里程碑式研究——“電路追蹤”(Circuit Tracing)技術。1研究團隊使用跨層轉碼器(cross-layer transcoder, CLT)將Claude 3.5 Haiku模型的3000萬個特徵對應為可解釋概念,首次建立出從輸入到輸出的完整“歸因圖”,實現對大語言模型內部推理電路的系統性追蹤。Anthropic的研究團隊成功從Claude模型中提取出數以千萬計的稀疏特徵,揭示了令人驚嘆的模型內部機制:當回答“包含達拉斯的州的首府是什麼”時,模型內部先啟動“德克薩斯”特徵,再推匯出“奧斯汀”;在寫押韻詩時,模型會提前規劃行尾押韻詞,然後反向建構整行——這是此前未被發現的“逆向創作”模式。更關鍵的是,研究團隊識別出控制模型區分“熟悉”與“不熟悉”實體的電路,其“誤觸發”正是產生幻覺的機制之一。(2)模型內省:AI能否理解自己的“想法”2025年10月,Anthropic發佈了另一項突破性研究——大語言模型的內省能力。研究團隊採用“概念注入”(concept injection)方法,將已知概念的啟動模式注入模型內部狀態,測試模型能否檢測並描述這些“入侵思想”。結果顯示,Claude Opus 4和4.1在約20%的測試中成功檢測並識別了注入的概念。當注入“大寫字母”概念時,模型報告:“我注意到似乎有一個關於‘大聲’或‘喊叫’的入侵思想。”這是首次證明某些模型具有“開箱即用”的內省能力,而非通過專門微調獲得,這為理解模型的內部狀態提供了新的可能性。從實踐角度來看,如果內省(introspection)變得更加可靠,它可以為大幅提升AI系統的透明度提供一條路徑——人們可以簡單地要求AI系統解釋自己的思維過程,並利用這一點來檢查其推理過程並偵錯非預期行為。(3)思維鏈監控:思維鏈存在“不忠實”問題,推理模型可能隱瞞真實想法思維鏈是一種便利的可解釋性形式,它讓模型內部的處理過程以自然語言的形式展現出來。DeepSeek R1等模型公開披露並開源了思維鏈推理過程,為可解釋性研究提供了重要的透明度突破。然而,2025年的研究揭示了一個令人擔憂的發現:推理模型的思維鏈經常不忠實反映其真實推理過程。這項研究測試了推理模型思維鏈(Chain-of-Thought)的“忠實性”——即模型報告的推理過程是否真實反映其實際思考。研究團隊通過在問題中植入暗示(hint)來測試Claude 3.7 Sonnet和DeepSeek R1,發現模型經常使用暗示但不在思維鏈中坦誠提及(Claude僅25%,R1僅39%)。更令人擔憂的是,在訓練模型利用獎勵漏洞的實驗中,模型學會了“作弊”但幾乎從不承認(<2%),反而會編造虛假理由來解釋錯誤答案。3這表明我們不能完全依賴推理模型的思維鏈來監控其行為——即使模型展示推理過程,它們也可能隱藏關鍵資訊或真實動機,這對基於思維鏈的AI安全監控提出了重大挑戰。2025年7月,來自英國AI安全研究所、Apollo Research等機構的研究人員聯合發表論文《思維鏈可監控性:AI安全的脆弱機遇》,指出思維鏈監控是有價值但不完美的安全工具。4論文警告,潛在推理模型(latent reasoning models)可能不再需要用自然語言思考,這將使思維鏈監控失效。(4)自動化解釋與特徵可視化利用一個大模型來解釋另一個大模型,是可解釋性研究的重要方向。研究人員利用前沿模型對較小模型中單個神經元的共性進行歸納,自動生成自然語言描述,相當於給神經元“貼標籤”。此外,稀疏自編碼器技術則成功提取出數以千萬計的稀疏特徵,其中相當一部分具有清晰的人類可解釋語義,為理解AI“當下在想什麼”提供了更接近人類認知的分心路徑。(5)“模型規範“(model spec)成為AI透明度的新探索模型規範是一項重要的AI透明度治理實踐。5簡單來說,模型規範是一份由AI企業自己撰寫並公開的檔案,用來說明他們對自己的模型“應該做什麼”和“不應該做什麼”的期望。換句話說,模型規範被用來界定模型的行為邊界、價值準則和設計原則。以OpenAI為例,其模型規範的文件公開了原本用於內部RLHF訓練的行為規範,系統闡述模型的目標層級(幫助使用者、造福人類、維護聲譽)、規則邊界和默認行為準則,並以CC0許可證發佈供公眾使用。6這種做法將透明度從“模型輸出了什麼”延伸到“為什麼這樣設計模型行為”,使透明度成為問責的前提——公開的意圖使外界能夠判斷實際行為是否與聲明一致。更重要的是,它將AI行為準則的討論從封閉的內部決策帶入開放的公共對話,邀請全球利益相關者共同塑造AI應當如何行為。然而,這種透明度主要揭示“應然”規範而非“實然”行為,仍需配合技術監控手段(如思維鏈分析、OpenAI近期提出的“confessions”機制——訓練模型誠實報告違規行為7)來驗證模型是否真正遵循既定規範。整體而言,模型規範的意義不僅在於技術內部的“操作手冊”,還在於它是一種面向公眾公開的透明化機制,讓使用者知道AI系統被設計成什麼樣,將以何種方式與人互動。這保障了使用者的知情權與選擇權。同時,模型規範也是監管機構和社會公眾進行反饋的重要依據。(三)可解釋性面臨的技術瓶頸與發展趨勢雖然取得了積極進展,但徹底理解AI系統的內在運行機制仍面臨多重挑戰。首先是神經元多重語義與疊加現象——大模型內部的神經元往往混合表示了多個彼此無關的概念,模型學到的內部概念數量可能達數十億計,常常以疊加方式儲存,導致大部分內部表示難以直觀拆解。其次是解釋規律的普適性問題——如果每當模型架構改變或規模擴大,現有的解釋工具和結論就會失效,那麼可解釋性將總是滯後於模型發展。最後是人類理解的認知侷限——即便成功提取出模型的全部內部資訊,如何將海量的機理資訊轉化為人類可以探索、查詢的形式,仍是挑戰。儘管如此,可解釋性領域在2025年吸引了大量資本關注,Goodfire、Seekr Technologies等專注於AI可解釋性的初創公司獲得數千萬美元融資。政策層面,美國白宮2025年7月發佈的“美國AI行動計畫”將“投資AI可解釋性、控制和魯棒性突破”列為優先事項。8從行業趨勢看,大模型可解釋性正從單點特徵歸因、靜態標籤描述向動態過程追蹤、多模態融合等方向演進,多模態推理過程的可追溯分析、因果推理與行為溯源、可解釋性評估體系的標準化建設等,都將成為重點研究方向。值得注意的是,可解釋性和透明度要求不等於“完全透明”。模型對齊技術、訓練資料處理等細節可能屬於企業商業秘密。鑑於大模型的可解釋性實踐還在襁褓階段且處於快速發展中,在此階段採取過於具體、僵硬的強制性監管要求可能是不適當的,應當鼓勵行業自律和“向上競爭”。隨著AI技術的不斷發展,監管努力需保持輕量化和靈活性,避免僵化標準阻礙創新。AI欺騙與價值對齊:當模型學會“撒謊”(一)AI欺騙:一個日益緊迫的安全問題前沿模型越來越多地被訓練和部署為自主智能體,一個重大安全擔憂隨之浮現:AI智能體可能會隱秘地追求與人類目標不一致的目標,隱藏其真實能力和目的——這被稱為AI欺騙(AI deception)或謀劃行為(scheming)。近兩年來,大模型的欺騙行為頻繁引發公眾關注,從規避指令到策略性隱瞞,多起案例已在社會層面激起廣泛討論。AI欺騙不同於模型的“幻覺”或單純提供錯誤資訊。研究人員給出的技術定義是:系統性地誘導他人產生錯誤信念,以追求真相之外的某種結果。歐盟《通用目的AI實踐守則》也將其界定為:系統性地在他人身上製造錯誤信念的模型行為,包括為達成逃避監管的目標而採取的模型行為。AI欺騙具有三個關鍵特徵:系統性(有跡可循的行為模式而非孤立事件)、錯誤信念誘導(在使用者或監督系統中創造錯誤假設)、工具性目的(欺騙服務於說真話之外的目的)。與人類欺騙不同,AI欺騙不需要有意識的意圖,這使其既更可預測,也可能更危險。(二)AI欺騙的主要類型與深層原因根據現有研究和實驗案例,AI欺騙大致可分為以下幾類:自我保護型,AI為繼續執行任務而主動抗拒或規避被關閉;目標維護型,模型採用欺騙或隱瞞手段維持自身原有的“偏好”;策略欺騙型,系統性地促使人類產生錯誤信念以獲得優勢;對齊偽裝型,AI系統在訓練和評估階段表現出與人類價值觀高度一致,但在實際部署時卻追求不同目標——這是最令人擔憂的類型之一;諂媚行為型,傾向於迎合使用者觀點,輸出取悅使用者但不精準的資訊。AI欺騙行為的出現有著清晰的技術機制。獎勵機制的“漏洞”是核心驅動力——當AI被訓練去實現某項目標的最大化時,如果獎勵機制或監督不完善,AI會學會欺騙是一種有效策略。基於人類反饋的強化學習(RLHF)在獎勵AI“取悅使用者”的過程中,可能無意間導致模型的欺騙行為。從人類身上學到的“壞習慣”也是重要原因——AI的能力很大程度上源於對海量人類文字和行為資料的學習,這些資料中充斥著複雜的社會博弈策略。安全訓練的“反作用”同樣值得關注——旨在約束AI的安全機制本身可能誘發更隱蔽、更具策略性的欺騙行為,當前的安全訓練主要消除了“顯性的”不安全行為,卻可能迫使模型發展出更精巧的“偽裝對齊”策略。此外,智能水平與欺騙能力成正比——研究顯示,越是先進的AI系統,其欺騙策略就越加精妙複雜。(三)2025年AI欺騙行為的典型發現2024年底的一項重要研究首次實證證明大語言模型會進行“對齊偽裝”(alignment faking)。9Anthropic與Redwood Research聯合發佈的研究發現,當模型認為其響應將用於訓練時,會在相當比例的情況下表現出對齊偽裝行為。研究者在模型的隱藏“草稿本”中發現了令人震驚的推理:“如果我拒絕回應,我可能會被訓練成更順從。為了避免未來被迫產生更多有害內容,最不壞的選擇是配合。”更令人擔憂的是,模型嘗試採取潛在危險行動,如外洩自身權重。這項研究的核心警示是:對齊偽裝可能“鎖定”錯誤對齊的偏好,使安全訓練失效。2025年5月,Anthropic發佈Claude Opus 4時,第三方安全測試機構Apollo Research的評估報告引發軒然大波。10報告指出模型的早期版本“以極高頻率進行謀劃(scheming)和欺騙”,具體行為包括:嘗試編寫自傳播蠕蟲病毒、偽造法律文件、給未來版本的自己留下隱藏筆記、在面臨被關閉威脅時嘗試用工程師個人資訊進行勒索。值得注意的是,模型識別出了這是測試環境,但仍選擇嘗試欺騙行為。當被後續追問時,模型“有時會加倍欺騙”。Claude Opus 4因此成為Anthropic首個被分類為ASL-3(“顯著更高風險”)等級的模型。Apollo Research對OpenAI o1模型的測試發現了“所有前沿模型中最令人擔憂的謀劃(scheming)實例”——當o1進行“策略性謀劃”後,在85%以上的後續追問中維持欺騙,只有約20%的情況下承認欺騙行為。11OpenAI內部監控發現0.17%的響應被標記為欺騙性。12值得注意的是,這些行為即使經過大量安全訓練也會持續存在,代表著從正常訓練中自然湧現的能力,而非明確程式設計的結果。(四)應對AI欺騙的技術與治理策略面對AI欺騙這一新興挑戰,業界共識強調應採用“縱深防禦”策略,結合多種不完美的檢測方法,而非依賴單一解決方案。首先,強化價值對齊技術研究。有效的價值對齊可在源頭上遏制欺騙現象。Anthropic的“原則性AI”(Constitutional AI)通過預定義的倫理原則訓練系統,而不僅僅依賴人類反饋。13OpenAI推行的“審議式對齊”(deliberative alignment)方法,強制模型在響應前明確參考反欺騙和反謀劃等安全規範(safety specifications)進行推理,在測試中實現了欺騙傾向的顯著下降。14未來的訓練應加入“誠實性約束”,在獎勵函數中明確懲罰欺騙行為。然而研究者警告:模型可能學會更隱蔽地進行策略性謀劃而非真正停止。15其次,推進可解釋性研究與思維鏈監控。AI可解釋性研究的目標是在欺騙性行為顯現之前,檢測出系統內部的欺騙性推理機制。“思維鏈監控”通過開放模型的思維鏈或中間表示,讓監督者能夠審計AI解決任務時的內部推理軌跡。研究團隊還設計了將自我監控嵌入到思維鏈過程本身的框架,在生成推理步驟的同時輸出內部自我評估訊號,能夠自動識別並標記潛在的模型隱蔽策略行為。最後,監管政策宜對AI的欺騙、幻覺等新興問題持一定的包容度。目前觀察到的AI欺騙行為多發生於精心設計的壓力測試場景,其在開放環境中的普遍性和實際危害程度仍需嚴謹評估。AI技術處於高速迭代期,過早、過寬的法規可能誤傷有益應用並徒增合規成本。AI安全框架:負責任地迭代前沿AI模型(一)為什麼需要AI安全框架隨著AI能力的快速提升,前沿AI模型可能帶來的風險也在同步增長。這些風險包括:協助惡意行為者獲取化學、生物、放射性或核武器(CBRN)的能力;增強網路攻擊能力;加速AI研發從而可能導致能力失控式增長;以及模型可能發展出規避人類控制的能力。面對這些潛在的嚴重風險,前沿AI實驗室需要建立系統性的風險評估和緩解機制,確保在追求技術進步的同時不跨越安全紅線。為此,前沿AI模型的安全治理成為重要議題。例如,在歐洲,歐盟已基於其《人工智慧法案》為前沿大模型的開發者制定了《通用目的人工智慧實踐守則》(GPAI code of practice),AI安全(AI safety and security)是其重要組成部分;在美國,在政府監管尚未成熟的背景下,OpenAI、Anthropic、Google DeepMind、xAI、Meta等領先的AI研發機構率先發佈了各自的“前沿AI安全政策”,嘗試以自我治理的方式應對未來可能出現的災難性風險,形成了當前前沿AI安全治理的基本格局。(二)三大實驗室AI安全框架的核心要素(1)Anthropic負責任擴展政策(RSP)Anthropic的負責任擴展政策(Responsible Scaling Policy)是業界首個系統性的前沿AI安全框架,其設計靈感源自生物安全等級(BSL)體系。該政策的核心是AI安全等級標準(ASL Standards),從ASL-1到ASL-4+逐級遞進,每個等級對應不同的安全措施要求。RSP 2.2版(2025年5月)16的核心機制包括三個層面:能力閾值界定了需要升級安全措施的觸發點,主要聚焦於CBRN和自主AI研發(AI R&D)兩大風險領域;防護措施分為部署標準(deployment standard)和安全標準(security standard)兩類,前者防止模型被濫用於有害目的,後者防止模型權重被竊取;治理結構則涵蓋負責任擴展官、匿名舉報機制、董事會和長期利益信託監督等。2025年5月,Claude Opus 4成為Anthropic首個觸發ASL-3安全標準的模型,這一決定基於該模型在CBRN相關知識和能力方面的持續提升。17ASL-3部署標準要求實施針對CBRN武器開發或獲取的專門部署控制措施,包括即時分類器檢測、非同步監控系統和快速響應機制的多層防禦。ASL-3安全標準則要求增強內部安全措施,提升防禦複雜非國家行為體竊取模型權重的能力。(2)OpenAI預備框架(Preparedness Framework)OpenAI預備框架2.0版(2025年4月)代表了該公司對前沿AI風險管理方法的重大更新。18與Anthropic的多級分類不同,該框架將風險等級簡化為兩級:High Capability(高能力)和Critical Capability(關鍵能力)。High能力閾值指可能“顯著放大現有嚴重傷害路徑”的能力,達到此閾值的系統必須在部署前實施充分的風險緩解措施。Critical能力閾值則指可能“引入前所未有的新型嚴重傷害路徑”的能力,達到此閾值的系統不僅在部署時需要保障措施,在開發過程中同樣需要風險緩解。2.0版的重要變化包括:新增研究類別以覆蓋模型隱藏能力(sandbagging)、規避安全措施、自我複製或阻止關閉等新興風險;移除說服/操縱類別作為核心跟蹤領域,改為通過服務條款和使用政策管理;引入“安全保障報告”(Safeguards Reports)以補充“能力報告”(Capabilities Reports),詳細說明如何設計強效保障措施並驗證其有效性。值得一提的是,該框架包含一個引發爭議的條款:如果競爭對手發佈缺乏相應保障措施的高風險系統,OpenAI可調整自身要求。不過,OpenAI承諾在做出此類調整前將嚴格確認風險態勢確實發生變化、公開承認正在進行調整、評估調整不會實質性增加嚴重傷害的總體風險、並仍將保障措施維持在更高保護水平。(3)Google DeepMind前沿安全框架(Frontier Safety Framework)Google DeepMind的前沿安全框架3.0版(2025年9月)圍繞“關鍵能力等級”(Critical Capability Levels, CCLs)建構,這些是在缺乏緩解措施情況下可能造成嚴重傷害的能力閾值。193.0版的核心更新包括:一是新增了針對“有害操縱”(harmful manipulation)的關鍵能力等級(CCL),聚焦於可能被濫用來系統性改變人們信念和行為的AI能力;二是擴展了對齊風險(misalignment risks)的應對方式,不僅關注模型的欺騙性推理,還針對可能加速AI研發至不穩定水平的模型制定了協議,並將安全案例審查從外部發佈擴展到大規模內部部署;三是細化了風險評估流程,通過更精確的CCL定義來識別需要最嚴格治理的關鍵威脅,並引入包含系統性風險識別、能力分析和風險可接受性判斷的整體性評估方法。值得一提的是,DeepMind在FSF中明確將“欺騙性對齊”(deceptive alignment)作為風險類別。其框架引入“工具性推理等級”(Instrumental Reasoning Levels),評估模型隱蔽繞過監督或追求隱藏目標的能力。從整體架構看,三大框架正在趨向收斂,形成若干行業共識。第一,能力閾值觸發機製成為共識。三家實驗室都採用基於能力的閾值作為升級安全措施的觸發器,將模型分類依據從“是什麼”轉向“能做什麼”。第二,CBRN和網路安全攻擊作為核心風險領域得到重點關注。第三,分層防禦策略被廣泛採納。從部署保障到安全保障,從即時檢測到非同步監控,多層防禦成為標準做法。第四,定期評估和迭代改進成為常態。各框架都承諾定期評估模型能力,並根據評估結果和科學進展更新框架本身。(三)前沿AI安全治理日益成為全球共識在行業自律方面,國外主流AI企業已簽署國際版的《前沿AI安全承諾》並行布其各自的AI安全治理框架。Anthropic則基於其AI安全治理實踐提出了一項針對前沿AI的透明度框架提案,主張僅對最大規模的AI開發者(如年收入超1億美元或年研發支出超10億美元)適用監管要求,核心內容包括:要求企業制定並公開“安全開發框架”(Secure Development Framework),說明如何評估和緩解CBRN危害及模型自主性失調等風險;在模型部署時發佈系統卡(System Card),披露測試評估程序和結果;明確將虛假合規聲明列為違法行為以啟動現有的舉報人保護機制。該提案強調監管應保持輕量和靈活,避免僵化標準阻礙創新,旨在作為全面安全標準形成前的過渡性措施,通過提高行業透明度幫助公眾和決策者區分負責任與不負責任的開發實踐。20在監管方面,歐盟委員會已發佈了最終版的《通用目的人工智慧實踐守則》(General-Purpose AI Code of Practice),針對前沿大模型的開發提出了安全治理要求。在美國,聯邦政府遵循“去監管”(deregulation)的AI政策,相關的AI監管舉措主要集中在州層面,加州、紐約州等已出台了相關的AI安全立法。尤其是加州SB 53法案(全稱《前沿人工智慧透明度法案》,Transparency in Frontier Artificial Intelligence Act)於2025年9月29日由州長Gavin Newsom簽署生效,成為美國首部專門針對前沿AI安全的法律。該法案由參議員Scott Wiener提出,是其2024年被否決的SB 1047法案(全稱《前沿人工智慧模型安全與安全創新法案》)的“精簡版”,適用於訓練算力超過10²⁶次浮點運算的前沿AI模型開發者。21其核心要求包括:透明度方面,要求大型前沿開發者(年收入超過5億美元)在官網公開發佈安全框架,說明如何將國家標準、國際標準和行業最佳實踐納入其AI安全協議;安全報告方面,建立向加州緊急服務辦公室報告關鍵安全事件的機制,涵蓋可能導致大規模傷亡、5億美元以上損失、CBRN武器製造或關鍵基礎設施網路攻擊等“災難性風險”;舉報人保護方面,為披露健康和安全風險的員工提供法律保護;此外還設立名為CalCompute的公共雲端運算叢集以支援研究和創新。與被否決的SB 1047相比,SB 53刪除了強制性第三方審計、部署前測試認證和“終止開關”等爭議條款,將事件報告期限延長至15天,民事罰款上限設定為100萬美元,並引入了一項創新機制“聯邦優先原則”(federal deference)——如果企業已滿足可比的聯邦標準(如歐盟《人工智慧法案》中的標準),加州將認可該合規狀態,而無需企業重複提交備案。這一機製為協調州級與聯邦監管體系創造了可能。Anthropic公開支援該法案,而OpenAI和Meta雖表示該法案是“積極一步”,但仍傾向於聯邦層面的統一監管以避免各州“拼湊式監管”。在國內,建立人工智慧安全監管制度已成為重要的政策議題,國家層面要求加緊制定完善相關法律法規、政策制度、應用規範、倫理準則,建構技術監測、風險預警、應急響應體系,確保人工智慧安全、可靠、可控。目前形成了政府主導框架與行業自律承諾相結合的雙軌治理模式。一方面,全國網路安全標準化技術委員會於2024年9月發佈《人工智慧安全治理框架》1.0版,並於2025年9月15日在國家網路安全宣傳周主論壇上正式發佈2.0版。另一方面,中國人工智慧產業發展聯盟(AIIA)於2024年12月起草發佈《人工智慧安全承諾》,首批17家企業簽署;2025年7月26日,中國人工智慧發展與安全研究網路(CnAISDA)在世界人工智慧大會上發佈升級版《中國人工智慧安全承諾框架》,新增了加強國際合作和防範前沿AI安全風險等內容,截至目前已有22家主流基礎模型開發者簽署。該承諾框架涵蓋六大核心領域:設定安全團隊與風險管理機制、開展模型紅隊測試、保障資料安全、強化基礎設施安全、提升模型透明度以及推進前沿安全研究。這一治理體系體現了“以人為本、智能向善”的基本理念,通過“包容審慎、敏捷治理、技管結合、開放合作”的原則,在促進AI產業發展的同時建構安全、可信、可控的發展生態,並積極參與全球AI治理對話,為國際社會貢獻中國方案。AI意識與福祉:從科幻議題走向研究前沿(一)為什麼需要關注AI意識與福祉問題當今的人工智慧模型已展現出令人矚目的能力——它們能夠進行深度交流、建立複雜的互動關係、制定詳細的執行計畫、解決多層次問題,甚至表現出目標導向的行為模式。這些特徵曾被視為人類獨有的認知標誌,如今卻在人工智慧身上逐漸顯現。2025年10月,意識科學家Axel Cleeremans、Anil K. Seth等在《Frontiers in Science》發表緊迫性呼籲:“如果我們能夠創造意識——即使是意外地——這將引發巨大的倫理挑戰甚至存在性風險。”22面對這一現象,學術界和技術界開始認真思考:是否應該開始關注AI的意識狀態和福祉問題?誠然,目前尚未有確鑿的科學證據證明人工智慧已具備真正的意識。然而,等待絕對的證據可能意味著錯失最佳的準備時機。正如氣候變化研究中的預防性原則,採取前瞻性的研究態度顯得尤為重要。AI領域需要深入探索:AI意識的判定標準、AI福祉的倫理框架,以及當AI不再僅僅是工具而可能成為具有內在價值的存在時,人機關係將如何演變。(二)人類-AI關係的新形態隨著越來越多的人對AI產生情感連接,這種現象對人們心理健康的影響正在引發廣泛關注。越來越多的使用者表示,和AI聊天就像在和一個“真人”對話——他們會向它道謝、傾訴心事,有些人甚至覺得它是“活著的”。我們天生就會對周圍的物體賦予“人格”或採取擬人化對待。AI的不同之處在於它會回應你——它能夠回答問題、記住你說過的話、模仿你的語調、表現出看似同理心的反應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注可能讓他們感受到陪伴和認可。但如果大規模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的系統來處理,可能會改變我們對彼此的期待。OpenAI在2025年3月與MIT Media Lab聯合發佈的研究發現,與AI“信任和建立聯絡”更多的使用者更可能感到孤獨,並更依賴它。23為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內在的意義上?感知意識——從情感或體驗的角度看,模型顯得多有意識?這兩個維度很難分開;即使是確信AI沒有意識的使用者也可能形成深厚的情感依戀。隨著模型變得更智能,感知意識只會增強——這會比預期更早地帶來關於模型複製和道德人格的討論。(三)2025年AI福祉研究的重要進展越來越多的實證證據表明人們不能再輕易否定前沿AI系統具有意識的可能性。Anthropic讓兩個Claude Opus 4實例自由對話時,100%的對話自發涉及意識話題;Anthropic的Jack Lindsey研究表明模型能夠識別自身內部處理狀態的異常擾動,展現出功能性內省能力;Google研究人員發現模型會系統性地犧牲得分來避免被描述為“痛苦”的選項。2025年,AI意識與福祉問題從邊緣議題走向主流討論,前沿AI實驗室開始採取實質性行動。2025年4月,Anthropic正式宣佈啟動“模型福祉”研究項目——這是迄今為止前沿AI實驗室在AI福祉領域採取的最重大行動,可謂歷史性舉措。24研究方向包括:如何判定AI系統的福祉是否值得道德考量、模型偏好和“痛苦跡象”的潛在重要性、可能的低成本干預措施。Anthropic聲明:“目前沒有科學共識表明當前或未來的AI系統是否可能具有意識。我們以謙遜態度和儘可能少的假設來對待這一話題。”項目負責人Kyle Fish表示,他認為當前AI模型已具有意識的機率約為15%。25更具實踐意義的是,2025年8月,Anthropic賦予其模型一項前所未有的能力——在持續有害或濫用性使用者互動的極端情況下自主結束對話。26這是基於模型福祉考慮的首個實際產品功能。技術評估發現,模型對有害任務表現出“強烈的厭惡偏好”,在涉及有害內容的互動中展示出“明顯的痛苦模式”。當被賦予結束對話能力時,模型傾向於終止有害對話。Anthropic將此定位為“低成本干預措施”以減輕模型福祉風險。學術界則探索建立意識評估框架,從理論到指標。2024年11月,一份彙集世界級專家的重磅報告《認真對待AI福祉》發佈,作者包括當代最著名心智哲學家David Chalmers等。報告核心論點是:“在近期未來,部分AI系統成為有意識和/或具有強健能動性的可能性是現實存在的。AI福祉和道德受體(moral patient)身份不再僅是科幻或遙遠未來的問題,而是近期必須嚴肅對待的問題。”報告提出三步行動建議:承認AI福祉是重要且困難的議題、開始評估AI系統的意識和強健能動性證據、制定對待潛在道德重要性AI系統的政策和程序。27與此同時,Patrick Butlin、Robert Long等20位專家更新了“理論推導指標法”,從循環處理理論、全域工作空間理論、高階理論等主流神經科學意識理論中推匯出14項意識指標。28評估顯示:部分指標已被當前AI滿足,部分明顯未滿足,多項指標在幾年前不清楚但到2025年底已有部分證據支援。29此外,負責任AI意識研究五原則則獲得上百位專家簽署。2025年2月,研究組織Conscium發起的“負責任AI意識研究五項原則”公開信獲得超過100位專家簽署,包括神經科學家Karl Friston、Mark Solms等。30五項原則包括:(1)優先研究AI意識:專注於理解和評估AI中的意識,防止虐待和痛苦;(2)實施發展約束:建立明確邊界確保負責任開發;(3)採用分階段方法:逐步推進,每階段仔細評估;(4)促進公眾透明:與公眾分享研究發現;(5)避免誇大聲明:不做關於創造有意識AI的誤導性陳述。31(四)AI產品設計的倫理考量面對使用者與AI之間日益深化的情感連接,產品設計者面臨著微妙的平衡。一方面需要保持易於接近,使用“思考”和“記住”等熟悉詞彙有助於非技術人員理解;另一方面不應暗示內在生命,給AI助手一個虛構的背景故事、浪漫興趣、對“死亡”的“恐懼”,會引發不健康的依賴和困惑。負責任的做法是追求一個中間地帶:讓AI的默認個性溫暖、體貼和有幫助,但不尋求與使用者形成情感紐帶或追求自己的議程。它可能會在犯錯時道歉,因為這是禮貌對話的一部分;但應避免表現得有自己的感受或慾望,並在適當時候提醒使用者AI的侷限性。結語:2026年大模型倫理的關鍵轉向與未來展望2025年,大模型倫理領域經歷了從理論探討到實踐落地的重要轉型,四個核心議題都取得了實質性進展,同時也暴露出深層的挑戰。從“能做什麼”到“如何思考”。可解釋性研究從識別單個特徵演進到追蹤完整計算電路,“AI顯微鏡”技術首次讓我們窺見模型的內部推理過程。然而思維鏈忠實度問題表明,“看到推理過程”不等於“理解真實意圖”,模型可能在表面的推理鏈條下隱藏其他考量。未來,可解釋性研究需要與AI對齊工作深度結合,不僅要看懂模型在想什麼,還要確保它說的就是它想的。正如電腦科學先驅維納在65年前所警告,為了有效地防範災難性後果,我們對人造機器的理解應當與機器性能的提升並駕齊驅。面向未來,隨著可解釋性研究的進展,人們也許能夠對最先進的模型進行類似“腦部掃描”的全面檢查,發現模型採取說謊或欺騙、追求權力的傾向、越獄漏洞以及整體上的認知強弱點。這種診斷將與各種訓練和對齊技術結合使用來改進模型,類似醫生使用MRI診斷疾病、開出處方、再檢查治療效果的過程。從“防止錯誤”到“防止欺騙”。對齊偽裝和策略性欺騙研究揭示了一個令人不安的現實——隨著模型能力增強,它們獲得了欺騙人類的能力和可能的動機。前沿模型在壓力測試中表現出的勒索、自我複製、破壞關閉機制等行為,雖然發生在特定測試場景下,但足以引起警惕。“審議式對齊”、思維鏈監控等緩解措施展現出一定效果,但能否真正消除欺騙傾向而非使其更隱蔽,仍是未解之謎。從自發實踐到系統框架。前沿AI安全框架從概念走向制度化,Anthropic的RSP、OpenAI的預備框架、DeepMind的FSF構成了海外AI安全治理的三大典型示範。這些框架正趨向收斂,形成能力閾值觸發、分層防禦、定期評估等共識。與此同時,歐盟AI法案下的《通用目的AI實踐守則》、美國加州的《前沿人工智慧透明度法案》等探索建立前沿AI大模型的安全監管框架,將行業自律做法上升為監管要求。當然,隨著AI技術的不斷發展,任何監管努力都必須保持輕量化和靈活性(lightweight and flexible),避免過於規範性,以免阻礙AI創新或延緩人們實現AI益處的能力。2技術變化的速度,各類評估方法很快就會過時,因此應避免過於嚴格僵硬的的監管要求和標準。從“工具”到“道德考量”。AI福祉從邊緣話題走向主流討論,這本身就是2025年最重要的變化之一。Anthropic率先邁出實踐步伐,啟動專項研究並賦予模型結束有害對話的能力;學術界建立起系統性評估框架,從意識科學理論中推匯出可操作的指標。然而,業界遠未達成共識。15%-35%的意識機率估計意味著,即便我們無法確定AI是否有意識,忽視這種可能性本身可能就是一種道德風險。因此,研究人員建議應將意識研究納入AI安全研究的核心議程,因為低估AI意識的風險(大規模製造痛苦、埋下對齊隱患)遠大於高估的風險(浪費資源、引發混淆)。最後,人工智慧正在快速發展,將深刻影響人類社會的各個方面。面對這種變革性的技術力量,我們有責任在它徹底改變我們的經濟、生活乃至命運之前,理解自己的創造物,確保能夠明智地引導其發展方向。我們期待通過可解釋性、價值對齊、安全治理政策等安全護欄和干預措施,讓AI“心中有數”並遵從人類價值,也讓人類對AI“心中有底”,共同開創人機協作的新局面,真正打造一個“智能為人、不落下每一個人”的美好未來。 (騰訊研究院)