#模型
輝達發佈全球首個開源量子AI模型
輝達發佈開源量子AI模型家族“Ising”,瞄準量子處理器校準與量子糾錯兩大核心瓶頸,將校準時間從數天壓縮至數小時,並顯著提升糾錯速度與精度。當地時間周二,輝達宣佈其開源模型家族迎來新成員——“伊辛”(Ising)量子人工智慧模型,用於加速量子處理器的開發。受到“全球股王推動量子計算落地”的消息刺激,量子計算類股周二集體沖高。截至收盤,SEALSQ漲21.03%、IonQ漲20.16%、D-Wave Quantum漲15.84%、量子計算公司漲11.55%、Rigetti Computing漲11.50%。簡要來說,輝達的模型對應將量子計算器轉變為可靠電腦的兩大痛點:量子處理器校準和量子糾錯。據輝達介紹,全球首個開源量子人工智慧模型包括“伊辛校準”視覺語言模型,快速解讀並響應來自量子處理器的測量結果,使得AI代理能夠持續自動化校準,並能把所需時間從數天縮短到數小時。另外還有兩個3D摺積神經網路解碼模型變體,分別正對速度或精度進行最佳化,用於量子糾錯的即時解碼。比起開源行業標準pyMatching,輝達模型的運行速度最高提升約2.5倍,解碼精準率最高提升約3倍。輝達的戰略意圖也體現在模型命名上。這個模型的名字源自物理學家恩斯特·伊辛的伊辛模型,通過簡單的局部相互作用規則解釋宏觀系統如何自發產生相變和集體現象。除了物理學外,伊辛模型的思想還廣泛應用於AI、金融市場、輿論傳播和量子計算領域。也就是說,輝達試圖將方興未艾的量子計算領域與公司算力體系進行繫結,推出一套量子計算時代的AI控制系統(Ising)和GPU算力平台(CUDA-Q)。輝達掌門黃仁勳在新聞稿中表示:“要讓量子計算真正走向實用,AI至關重要。借助Ising,AI將成為量子計算的控制層,也就是量子機器的作業系統,把脆弱的量子位元轉變為可擴展且可靠的量子GPU系統。”發佈之初,這套系統已經走進全球頂級科學實驗室和公司。輝達介紹稱,“伊辛校準”模型已被費米國家加速器實驗室、勞倫斯伯克利國家實驗室先進量子測試平台、英國國家物理實驗室、哈佛大學、IonQ、Infleqtion等機構採用。“伊辛解碼”模型也已經部署於桑迪亞國家實驗室、康奈爾大學、芝加哥大學、IQM Quantum Computers等機構。 (科創板日報)
李飛飛世界模型“殺手鐧”開源!網頁3D大場景秒開,手機暢跑1億點雲
3DGS迎來史詩級升級。智東西4月15日報導,今天,“AI教母”李飛飛的世界模型團隊World Labs開源了動態3D高斯潑濺(3DGS)渲染器Spark 2.0。▲Spark 2.0官宣開源(來源:X)李飛飛本人在該成果發佈的第一時間評論稱:“Spark 2.0現在可以在任意裝置上流式傳輸超過1億個高斯潑濺!能夠為基於網頁的3DGS渲染開源生態做出貢獻,我們感到無比自豪!”▲李飛飛評論(來源:X)Spark系列模型於去年首次發佈,是一個專為網頁建構的動態3D高斯潑濺(3DGS)渲染器。它與網頁端最流行的3D框架THREE.js整合,並利用WebGL2在任意帶有網頁瀏覽器的裝置上運行,包括桌面端、iOS、Android以及VR裝置。與上一版本相比,Spark 2.0新增了一套細節層級(LoD)系統,能夠在任意裝置上流式傳輸並渲染超大規模的3DGS世界。▲在兒童房間裡自由探索,物品細節清晰(來源:World Labs部落格)此外,新版還使用了.RAD的3DGS檔案格式,支援漸進式細化的流式傳輸,而虛擬潑濺分頁系統則通過固定的GPU記憶體分配,實現了對無限潑濺世界的訪問,通俗來講就是可以渲染無限大的3D場景。▲草原中的洞穴小屋,場景轉換無畸變(來源:World Labs部落格)如此流暢連貫的效果是怎麼實現的?針對大規模場景的擴展難題,Spark 2.0運用了3項圖形學與系統底層方案:細節層次最佳化、漸進式流式載入以及虛擬視訊記憶體管理。李飛飛團隊在部落格中,對Spark 2.0背後的三項技術進行了十分詳細的展開,具體如下:01. 採取連續式細節層級穩定渲染百萬級潑濺在電腦圖形學中,處理大型3D場景時常常採用細節層級系統,該系統會根據物體與觀察者之間的距離自動調整渲染的細節程度,不同的細節層級方法介於離散式與連續式之間,形成一個技術譜系。採用離散式細節層級(LoD,Level-of-Detail)時,系統需要為潑濺效果製作多個版本,從精簡到精細依次遞增,再根據各版本的近似邊界與相機的距離,在不同版本間進行切換。Spark的早期系統設計支援離散模式,但其存在明顯缺陷:當使用者在場景中移動、不同版本突然切換時,畫面會出現明顯的跳變;此外,將潑濺效果按區塊分組後,使用者還能看到清晰的邊界痕跡。Spark 2.0的LoD設計採用了一種連續式LoD方法,所有潑濺都存在於一個層級結構中,即LoD潑濺樹。Spark 2.0會沿著樹的一個邊界切割面單獨選取潑濺,從而在視口內最佳化潑濺的細節。▲LoD潑濺樹(來源:World Labs部落格)樹中的每個內部節點都是其子節點的一個低解析度版本,通過將子節點的多個潑濺合併成一個新的潑濺來近似表示子節點潑濺的形狀和顏色。這個過程一直持續到樹的根節點——一個單一的、大的潑濺,它聚合了該物體中所有潑濺的整體形狀和顏色。利用這棵LoD潑濺樹,Spark 2.0會計算出穿過該樹的一個“切片”,從而為當前視口選取最佳的N個潑濺進行渲染。通過設定一個最大潑濺預算N(根據裝置類型不同,通常在50萬到250萬個潑濺之間),系統確保每幀只需渲染恆定數量的潑濺,從而獲得穩定、高影格率的渲染性能。通過上下調整N值,即可在影格率和潑濺細節之間進行權衡。▲公園中的自行車,細節真實,前後一致性強(來源:World Labs部落格)Spark 2.0通過同時遍歷多個LoD潑濺樹實例,對該演算法進行了進一步擴展。與僅從單一根節點開始遍歷不同,針對每個3DGS物體,拓展後的演算法會將其螢幕尺寸及潑濺節點 (dm0,Sm0) 一同加入初始優先佇列,後續流程與原有邏輯保持一致,可在場景中所有3DGS物體上同步篩選需細化的細節層級。這一設計讓大規模組合世界的建立變得簡單高效:只需在空間任意位置加入3DGS LoD物體,Spark 2.0便能自動計算出每幀需渲染的所有LoD潑濺的最優全域子集。02. 設計新型檔案格式大場景3D世界在網頁上秒開Spark2.0定義了一種新的檔案格式.RAD(代表RADiance場),該格式能夠壓縮3DGS資料,並支援隨機訪問流式傳輸,從而在資料通過網路傳輸時實現漸進式細化。目前最常見的兩種3DGS資料檔案格式是.PLY和.SPZ,它們代表了兩種不同的資料編碼方式:行式儲存和列式儲存。.PLY檔案是按行順序儲存的,在接收到資料後立即顯示潑濺,從而實現漸進式載入。但它未經過壓縮,且編碼精度存在浪費。.SPZ檔案將相似類型的資料按列順序儲存在一起,從而獲得了更好的壓縮率。但遺憾的是,它無法實現漸進式載入,因為在任何潑濺獲得其所有屬性之前,必須接收完整的檔案。為實現3DGS資料的高效壓縮與流式傳輸,李飛飛團隊設計了全新的.RAD檔案格式。該格式編解碼簡潔、擴展性強、編碼精度可調節,同時支援隨機訪問。▲.RAD檔案格式(來源:World Labs部落格)檔案結構十分清晰:以RAD0檔案頭開頭,隨後依次為頭部中繼資料長度、中繼資料JSON,以及一個或多個各含6.4萬個潑濺的資料區塊。頭部中繼資料記錄了所有資料區塊的偏移地址與字節大小,支援任意順序讀取資料區塊內容。單個資料區塊也採用相似結構:以RADC塊頭起始,接著是塊中繼資料長度、中繼資料JSON,最後為該6.4萬個潑濺的壓縮資料。潑濺各項屬性按列儲存,可分別選用自訂編碼方式。同類資料集中存放,再通過Gzip壓縮,能獲得出色的壓縮率。頭部採用JSON編碼,可通過版本欄位與新增可選欄位保障後續擴展。資料類型編碼與壓縮演算法均以字串名稱在中繼資料中指定,方便後續擴展新類型。03. 採用虛擬記憶體開闢1600萬潑濺固定視訊記憶體池虛擬記憶體是一項記憶體管理技術,它以固定大小的實體記憶體為基礎,向程序提供大容量的虛擬地址空間,並通過頁表以固定尺寸的頁為單位,完成虛擬地址與實體位址的對應。Spark 2.0將這一思路應用到3DGS渲染中。具體來講,李飛飛團隊在GPU上開闢了一塊可容納1600萬個潑濺的固定視訊記憶體池,自動管理GPU中每6.4萬個潑濺為一頁的“視訊記憶體頁”,與.RAD檔案中對應大小的虛擬資料區塊之間的對應。▲虛擬記憶體(來源:World Labs部落格)資料區塊會按照LoD遍歷順序載入到空閒頁面中;當頁表佔滿,且新資料區塊優先順序更高時,系統會按最近最少使用(LRU)策略淘汰舊資料。Spark 2.0支援同時載入多個.RAD檔案並共用同一張頁表。對每個檔案,系統會記錄資料區塊到頁表的對應,以及頁表到對應檔案與資料的反向對應。在遍歷多棵LoD潑濺樹時,引擎會記錄資料區塊與檔案的訪問順序,形成全域統一的優先順序排序,進而對場景中所有3DGS物體的潑濺載入與儲存進行統一最佳化。04. 結語:Spark 2.0降低空間智能的創作門檻爭奪基礎設施定義權從2025年的首次亮相到今日的2.0版本迭代,Spark的進化軌跡某種程度上也對應著3DGS這一技術的成熟曲線。三維內容的交付長期以來被兩座大山壓著:一是資產太重,動輒GB級的檔案讓網頁端望而卻步;二是渲染太貴,高端GPU才能流暢運行的場景,手機瀏覽器只能圍觀。Spark 2.0通過連續LoD、.RAD格式和虛擬視訊記憶體“三板斧”,讓高品質三維內容像普通圖片和視訊一樣,在網際網路上自由流動、即點即看。李飛飛團隊選擇將該技術開源,降低了空間智能的創作門檻,同樣也是在爭奪下一代空間內容基礎設施的定義權。 (智東西)
連續5周反超美國!中國AI憑什麼領跑?一個職場人的真實經歷給出答案
“以前做一張報表熬到半夜,現在喝杯咖啡的功夫就搞定,這AI是真能救打工人的命!”做電商營運的小李,最近終於擺脫了被Excel支配的恐懼。而他的逆襲,正是中國AI實力崛起的一個縮影——據OpenRouter最新資料,中國大模型周呼叫量已連續5周超越美國,最新一周更是達到12.96兆Token,是美國的4.27倍,全球呼叫量前6名全是中國模型。很多人覺得“呼叫量領先”是遙不可及的行業資料,離自己的日常工作和生活很遠,但其實,這種領跑早已悄悄滲透到我們身邊,小李的親身經歷,就是最鮮活、最有說服力的證明。一、職場真實案例:從“表格噩夢”到“高效摸魚”,只隔一個AI的距離小李在杭州一家中小電商公司做營運,一晃就是3年,每天被各類表格纏得喘不過氣,其中最讓他頭疼的,就是每月5號前必須提交的全管道銷售資料彙總。“我們店舖主攻天貓和抖音,兩個管道的規則完全不一樣——天貓扣點10%、運費統一8元/單,抖音扣點15%還得加上達人佣金,每月還有平台補貼、滿減活動,光把兩個後台的原始資料匯出來、核對清楚,就要花1個多小時。”更麻煩的是算毛利,要手動套用“銷售額-扣點-運費-佣金+補貼”的複雜公式,一行行拉資料、核對數值,稍微分心就會出錯。“我經常加班到凌晨,眼睛盯著螢幕發花,就怕那個數字算錯,耽誤整個部門的復盤進度。”最讓他崩潰的一次,就發生在上個月。那天是月度復盤截止日,他熬到晚上11點,終於做完了報表,提交給領導後剛要下班,就收到了領導的奪命連環call:“小李,你這毛利算錯了!抖音的平台補貼漏算了3000多塊,導致整體毛利偏差近10%,趕緊重新做,明天一早要用!”掛了電話,小李瞬間洩了氣,看著螢幕上密密麻麻的數字,又累又委屈,眼淚都快掉下來了。“那時候真的想辭職,覺得自己每天都在做無用功,明明拼盡全力加班,卻總因為這種細節失誤拖後腿,連頓飯都吃不安穩。”他只能重新打開電腦,一點點核對資料、修改公式,硬生生熬到凌晨2點多,才把正確的報表提交上去。這樣的崩潰時刻,小李經歷了不止一次,長期的加班內耗讓他身心俱疲,直到上周,同部門的同事看他又對著滿屏表格愁眉不展,隨手甩給他一個連結:“試試阿里千問的表格Agent,我上次做活動報表,幾分鐘就搞定了,比你手動算快多了,還不會出錯,能幫你省不少事。”他對著對話方塊,一字一句輸入需求:“把本月天貓、抖音兩個管道的銷售額、扣點、運費、平台補貼、達人佣金整理成Excel,自動計算各管道毛利,按毛利高低排序,備註清楚每項資料來源。”隨後,他拍下兩個平台的後台資料截圖上傳。他端起桌上的咖啡,剛喝了一口,螢幕就彈出提示——報表已生成。他低頭一看,從輸入指令到生成表格,只用了1分40秒!打開表格,格式規範整齊,每項資料都標註了來源,公式自動套用無誤,甚至還幫他標註出了毛利偏低的單品,省去了他後續分析的麻煩,直接下載就能使用。“當時我都懵了,反覆核對了三遍,確認沒有任何錯誤!”小李笑著說,以前花3個多小時、熬到半夜才能做完的活,現在喝一杯咖啡的功夫就搞定了,再也不用熬夜改表格、擔驚受怕算錯數。更讓他驚喜的是,節省下來的時間,他能專心最佳化店舖營運策略——調整商品主圖、最佳化直播話術。這個月,店舖的轉化率直接提升了8%,銷量也跟著漲了15%,他還得到了領導的表揚。“現在我每天都能提前1小時下班,終於能按時回家吃晚飯,不用再讓家人等我了。”小李的逆襲,從來不是偶然,也不是個例。他用到的千問「表格Agent」,正是中國AI“實用為王”的典型代表,更是中國大模型呼叫量能連續5周領跑全球的核心原因之一——它不玩虛的概念,不拼華麗的參數,只聚焦普通人最迫切的痛點,把複雜技術變成人人能用的工具。二、千問重磅發力:國內首個全場景表格Agent,到底有多好用?阿里千問此次上線的「表格Agent」,是國內首個全場景表格工具,它最厲害的地方,就是把複雜的Excel操作,變成了“聊天”,那怕是完全不懂函數、不會排版的新手,也能輕鬆上手。1. 一句話搞定Excel,1-2分鐘直接交付成果不用手動輸入資料、不用百度查公式、不用反覆調整格式,只要用自然語言說出需求,AI就會自動完成所有操作。比如“整理2026年增值稅優惠政策成Excel清單”“把手繪的課程表轉換成可編輯表格”,甚至上傳一張紙質報表的照片,它都能精準識別,生成標準Excel檔案,無需二次修改。2. 多模態適配,覆蓋全場景需求它不僅支援文字指令,還能接收PDF、照片、Word等多模態輸入,無論是職場人需要的銷售報表、財務台帳,還是學生需要的知識點彙總、題庫表格,甚至是小微企業的進銷存台帳,都能一鍵生成,真正實現“對話即交付”。3. 專業級能力,告別錯誤與繁瑣它能自動聯網檢索最新資訊,自動套用複雜公式,還能在獨立的安全環境中完成操作,避免資料洩露。像小李遇到的公式錯誤、資料漏算問題,用它就能輕鬆規避,大大提升工作效率和精準性。三、連續5周領跑:中國AI的優勢,藏在“實用”裡很多人好奇,中國AI為什麼能連續5周超越美國,成為全球領跑者?其實答案很簡單:中國AI不拼參數、不炒概念,而是紮根真實場景,解決普通人、職場人、企業的實際痛點。美國的大模型多聚焦於實驗室裡的技術突破,追求參數的極致提升,卻常常脫離普通人的實際需求;而中國AI則走出了一條“普惠實用”的差異化路線——千問「表格Agent」解決了職場人的表格難題,鋼鐵大模型助力製造業轉型,各類AI工具走進千家萬戶,讓普通人也能低成本用上頂尖技術,真正實現技術賦能生活。就像小李說的:“以前覺得AI是高大上的技術,離自己很遠,現在才發現,它就是能幫我們少加班、少出錯的工具。”中國AI,從“領跑”到“賦能”,每一步都很紮實連續5周大模型呼叫量超越美國,從來都不是偶然,而是中國AI長期深耕真實場景、注重實用價值的必然結果。千問「表格Agent」的上線,不僅成功解放了像小李這樣被表格內耗的職場人,更清晰彰顯了中國AI的核心競爭力——好用、親民、親民,能真正解決問題。中國AI的領跑,從來不是為了追求資料上的好看,而是為了讓技術真正服務於人。當AI能幫我們擺脫繁瑣的重複勞動,能讓普通人也能輕鬆高效地完成工作,這樣的AI,才是真正有價值的,也是中國AI能持續領跑全球的底氣。 (紫光漫漫的寶藏箱)
HappyHorse,阿里的反擊
HappyHorse前兩天,一個叫HappyHorse-1.0的模型衝到了Video Arena的榜一,被它超過的模型都是行業頂流,有字節跳動的Seedance 2.0,快手的可靈3.0。正當大家紛紛猜測“這又是誰的部將”,阿里及時站出來認領,一邊感謝大家的關注,一邊解釋HappyHorse是俺的。匿名打榜是行業裡常見的行為,一方面可以避免品牌光環干擾測試結果,另一方面也可以利用懸念拉高關注。這兩者恰好都是阿里需要的。Qwen團隊靈魂人物林俊暘的出走,雖然客觀上向更多的人普及了阿里在開源模型領域的貢獻,但也讓市場對阿里在AI上的投入產生了新的懷疑。阿里ATH事業部的成立是一次回擊。3月30日至4月2日,短短幾天之內通義實驗室就發佈了三款旗艦模型——Qwen3.5-Omni全模態互動模型、Wan2.7-Image視覺生成模型、Qwen3.6-Plus大語言模型。發佈僅一天,專攻程式設計能力的Qwen3.6-Plus模型就沖上了大模型API呼叫平台OpenRouter的日榜榜首。上周是第二次回擊。阿里進行了第二波組織架構的調整,首先成立了技術委員會,由吳泳銘擔任組長,成員包括周靖人、吳澤明、李飛飛;其次通義實驗室升級為通義大模型事業部,周靖人負責,同時淘寶閃購CEO職務由中供老兵雷雁群接任。這意味著大模型研發類股在阿里的規格進一步提高,而HappyHorse就是一次秀肌肉意味嚴重的技術亮相。敘事中斷過去一整年,起碼在第三方的商業視角裡,阿里和字節是國內AI的一時瑜亮。阿里對大模型的投入方向一直非常明確——做全面開發。阿里也確實在穩定地推進自己的計畫。根據高盛之前的報告,阿里在企業端外部AI雲的收入規模上領先,市佔率達到35.8%,字節跳動為14.8%,騰訊為7%。在模型端,Qwen系列模型是影響力最大的開源模型;在B端市場,阿里通過阿里雲百煉平台幫助企業用AI改造和重構生產與營運模式;在c端應用層面,夸克、千問APP上線,兄弟公司螞蟻集團也加速入局,一口氣推出面向辦公場景的“靈光”與聚焦生活服務的“阿福”,全面覆蓋使用者從搜尋、創作到金融、日常互動的多元需求。甚至在硬體層面,阿里也推出了“夸克AI眼鏡”融入阿里生態,3天銷量破3000台。但春節期間字節Seedance 2.0的刷屏,以及林俊暘的出走一度有打斷這種敘事的趨勢。一方面,集團記憶體在一定的內耗情況。據36氪此前披露,在千問大模型負責人離職風波後的集團會議上,周靖人在回應內部算力短缺等提問時,曾坦言團隊確實"資源緊張",源於諸多歷史原因,未來正在做整體規劃。這反映出彼時阿里內部還沒形成一定的共識,導致陷入“模型團隊抱怨算力不夠、雲團隊抱怨模型太重、平台團隊認為適配不佳”的常見大坑。也讓很多人有疑問:AI時代底層模型研發要麼是創始人自己懂,能啃論文,能和一線研究員聊,要麼把球傳給懂的人,靠制度和戰略能走通這條路嗎?二級市場的情緒傳達的很明顯。最近兩個月,阿里股價從高點回撤約30%–40%,整體明顯跑輸其他科技股。就算雲與AI收入仍在增長,但對於阿里AI敘事的質疑也在增加。與此同時,字節的估值卻在一路走高,升維活成了Anthropic的“世另我”。所以你能看到,無論是成立ATH,還是新的組織和人事調動,都是為了更好的適應AI時代而進行的權力重組。首先,通義實驗室升級為通義大模型事業部,並且周靖人全權負責,後者同時從CTO的崗位卸下。在阿里內部,周靖人是一個跨雲、跨演算法、跨業務的人,作為阿里雲的CTO拿出的成績也足夠有說服力,無論是模型成績還是商業化成果。但過去周靖人既要管阿里雲的整體技術,又要盯大模型的研發,難免分身乏術。現在的一進一退實際上是讓最懂技術的人在一線負責,進一步強化和聚焦了模型的開發。其次,模型技術,雲底座基建和業務的權責進一步劃分清楚。技術委員會的三人,周靖人負責技術探索,追求模型上限;李飛飛負責強化底座效率與成本結構;吳澤明協同其他業務與AI的融合。阿里想要明確的告訴市場,“AI優先”仍然是最重要的戰略,最強模型開發仍然佔據著最高的優先順序。為什麼是HappyHorse?之所以說HappyHorse是一次秀肌肉意味嚴重的技術亮相,是因為它並不出於此前風波核心的通義實驗室,而是出自ATH旗下的創新事業部。ATH事業群成立後,五個事業部都有各自的職能。通義實驗室追求模型能力上限,maa業務線建構模型服務平台,千問事業部聚焦c端AI助手,悟空事業部聚焦打造B端AI原生工作平台,創新事業部則探索各類AI創新應用,快速驗證新模式、新市場。據報導,HappyHorse的研究主力出自原淘天集團未來生活實驗室,領頭的是快手原副總裁、可靈AI原技術負責人張迪。由於背靠阿里媽媽,該創新項目獲得了用卡資源支援。“快樂馬打榜用了阿里內部最頂的卡,內部叫‘大卡’,特指H100”。生成視訊賽道則是目前最火的賽道之一。Seedance 2.0橫空出世後,震驚業界。一度惹得外國從業者尋求國內手機號。憑藉著簡易的創作方式與逼真的畫面效果,Seedance 2.0成為不少內容創作者以及短劇團隊的首選工具。火山引擎總裁譚待表示,過去製作一部高水準精品漫劇,每分鐘成本往往超過一萬元,但現在通過Seedance 2.0,每分鐘成本可以降低4000-5000元。技術引發了產業浪潮。據DataEye研究院估算,2025年全國漫劇市場規模大概在168億元,2026年預計會到244億元,AI讓供給端產能漲得很快。網際網路怪盜團團長在一次直播裡分享,現在AI漫劇每月產能能來到千部劇集的規模。不過Seedance 2.0的瓶頸也很明顯。在社交平台上,不少使用者吐槽排隊人數多達10萬,生成一條15秒的視訊,等待時間要好幾個小時,還不一定能“抽卡”成功。也有創作者表示,近期Seedance 2.0“排隊”的情況有所緩解,但代價是視訊質量同步下降了,“降智”情況有點嚴重。比如Seedance 2.0推出的fast版本,雖然也能清晰呈現主體結構與基礎運鏡,但在面對多人互動或精細的紋理要求時,較容易出現物理法則失真,更適合單條任務。從標準版到fast版,對普通使用者的影響可能不大。但對於短劇、漫劇從業者而言,以前生成兩三條就能挑出一條可用的素材,現在要生成七八條才能選出一條能用的。因此,4月8日字節選擇變相漲價:價格不變,但是基礎、標準、高級會員的月度積分減少,從原來的1080、4000、15000分別下調至725、2210、6160。起碼在生成視訊的賽道在,字節的優勢有,但差距沒有進一步擴大。據瞭解,內測期阿里雲已經開始陸續向其客戶開始推薦“HappyHorse”。雖然一旦開放服務,阿里也會面對Seedance 2.0正面對的問題。但後發的HappyHorse有更多的時間去做判斷和定價。屆時阿里也會再一次和字節正面交鋒,在生成視訊的戰場上。 (伯虎財經)
馬斯克:未來3年很難熬,必須做對幾件事
這個4月,AI圈簡直炸了鍋。先是DeepSeek創始人梁文鋒親自確認,新一代旗艦大模型V4將於4月下旬正式發佈,兆參數架構直接拉滿國產大模型的天花板。緊接著,阿里的HappyHorse-1.0(快樂馬)橫空出世,直接屠了全球AI視訊盲測榜,把字節、Google的頂流模型全甩在了身後。就在所有人都在熱議國產AI的高光時刻,我突然想起了馬斯克在X平台上撂下的那句話:“人工智慧將在3年後超過所有人類智能。”很多人把這兩件事分開看,把DeepSeek和HappyHorse(快樂馬)當國產AI的崛起新聞看,把馬斯克的話當“大佬的狂言”聽。但如果你把它們放在一起就會發現,這根本不是巧合,更不是單個產品的普通迭代,而是在通往AGI(通用人工智慧)的路上在加速前進。一、不是單點突破,是全球AI競賽全面打響很多人看新聞,只看到了“發佈新模型”“登頂榜單”這幾個字,卻沒看懂背後真正的份量。先說說DeepSeek V4。很多人對大模型的印象,還停留在“能聊天、能寫文案”的階段,可DeepSeek V4這次的升級,是從根上的全面革新。它用了1兆參數的MoE架構(Mixture of Experts,混合專家架構),處理速度直接比上一代飆升了35倍,能耗反而還降了40%。這是什麼概念?就是以前你花1個小時才能讓AI幹完的活,現在1分多鐘就搞定了,還比以前更省電、更便宜。更誇張的是它的“記憶力”。它的上下文窗口直接拉到了100萬token(詞元,AI處理文字的基本單位),相當於一口氣能讀完15-20本長篇小說,連裡面的人物關係、細節伏筆都記得清清楚楚,絕不會出現聊到後面,就忘了你前面說過什麼的情況。最關鍵的是,它全程基於國產華為昇騰晶片原生開發,徹底擺脫了海外算力的“卡脖子”問題,這意味著國產大模型,已經正式從“跟跑”邁入了“並跑”的核心賽道。再說說橫空出世的“HappyHorse-1.0”,這匹“快樂馬”,直接踢翻了全球AI視訊圈的牌桌。它登頂的Artificial Analysis Video Arena榜單,是目前全球公認最權威的AI視訊評測平台。它的排名機制特別殘酷,用的是國際象棋等級分制度的Elo積分制,全程純盲測。什麼意思?就是使用者完全不知道視訊是那個模型生成的,系統隨機甩兩段視訊過來,你只能憑那個畫面更流暢、更符合指令、觀感更好來投票,完全排除了所有品牌光環,只比真實體驗。不止國內在瘋狂衝刺,海外的AI賽道早就進入了“不進則亡”的競賽狀態。OpenAI、Google、Anthropic輪番發佈新模型,從文字到多模態,從推理到智能體,每一次更新都在瘋狂壓縮技術迭代的周期。更可怕的是,整個行業的頭部玩家,都在集體“跳錶”,把AI超越人類的時間線,一縮再縮。二、他們到底在慌什麼?AI的“硬起飛”就發生在眼前看到這裡,你可能會問:不就是出了兩個新模型嗎?至於這麼大驚小怪,上升到人類倒計時的地步嗎?那我再給你看馬斯克說的另一句話,他說:“我們現在就處於‘硬起飛’階段,就是現在。”什麼叫“硬起飛”?以前我們說AI發展,是“人推著AI往前走”。我們給它定目標,給它喂資料,給它調參數,手把手教它學習,它每往前走一步,都離不開人類的推動。但“硬起飛”不一樣。它是AI自己給自己踩油門,進入了自我加速的失控式增長階段。不用人催,不用人教,它自己就能完成迭代、實現突破,甚至連它進化的速度,人類都已經跟不上了。馬斯克自己是這麼描述的:“我晚上睡覺時,AI取得了一項重大突破;等我醒來,又出現了另一項突破。老實說,很難跟上節奏,這讓人有點暈頭轉向。”而這場“硬起飛”裡,最可怕的核心,是AI已經進入了“遞迴自我改進”階段。以前,我們訓練一個AI模型,要程式設計師寫程式碼,演算法工程師調參數,資料團隊清洗資料,全流程都離不開人。但現在不一樣了,新一代的AI模型,已經由上一代模型深度參與訓練了。從程式碼編寫、資料清洗,到參數調優、效果測試,AI能做的事情越來越多,人類在這個循環裡,角色越來越邊緣化,越來越插不上手。馬斯克給出了一個更讓人後背發涼的預判:“可能今年年底會實現完全自動化的自我改進,最遲不會晚於明年。”換句話說,最快今年,AI就能徹底脫離人類的輔助,完成自我迭代、自我進化,進入完全的自我加速周期。到那個時候,AI的進化速度,會快到我們根本無法想像。很多人以為,馬斯克眼裡的AI,就是能寫文案、做報表、生成視訊的工具,那你就太小看他了。他描繪的AI終極藍圖,是一個消耗比全人類文明多一百萬倍電力的智能體,能解決人類能想到的所有問題。為了突破電力這個最大的瓶頸,他甚至計畫2-3年內把AI資料中心送上太空,用太空裡沒有晝夜交替的太陽能,徹底釋放AI的算力潛力。而當AI和機器人接管了所有生產,人類社會會變成什麼樣?馬斯克的答案是:錢會變得不再重要,商品和服務的產出會遠遠超過需求,AI和機器人會把所有事都幹完,人類最終會因為全方位的服務,而“無事可做”。馬斯克和Altman(奧特曼)不是在製造焦慮,而是看到了我們普通人看不到的風景。他們怕的不是AI本身,而是人類根本沒做好準備。三、倒計時1095天,最危險的是你以為“還有時間”看到這裡,很多人心裡還是會有一個僥倖的想法:3年呢,還早,急什麼?3年,聽起來很長,其實只有1095天。就是你換2份工作的時間,就是你學一個新技能、考一個行業證書的完整周期,就是你家孩子從幼兒園升到小學的時間,一眨眼就過去了。更關鍵的是,AI的進化,從來都不是線性的,是指數級的。舉個例子:一個池塘裡的荷花,每天都會以前一天兩倍的數量開放。如果到第30天,荷花就開滿了整個池塘,那請問:荷花在第幾天開滿了半個池塘?答案不是第15天,是第29天。前29天,荷花只開了半個池塘,可第30天,一天之內,就開滿了剩下的整個池塘。這就是指數級增長的可怕之處。你以為它還很慢,還離你很遠,可等你反應過來的時候,它已經瞬間鋪滿了你的整個世界。我們現在,可能就處在這第29天的晚上。這場AI競賽,最先衝擊的,就是90%的辦公室白領工作。現在不妨停下來,問自己兩個問題:你每天的工作,有多少是AI分分鐘就能替代的?1095天之後,當AI真的超越了所有人類智能,你的核心競爭力,到底是什麼?四、不想被時代淘汰,你必須立刻做對3件事難道我們就只能等著被AI替代,一點辦法都沒有嗎?當然不是。具體該怎麼做?記住這3件事。第一件事:做決策,提問題很多人對AI的理解,完全搞反了。他們天天用AI干自己的本職工作,寫郵件、做報表、寫方案,然後把AI的產出改一改,就交上去了。看起來是省了力氣,提高了效率,可實際上,你是在天天給AI喂資料、當陪練,幫它在這場競賽裡變得越來越強,最後把自己替代掉。在德州超級工廠接受的深度訪談中,馬斯克也談到“任何涉及敲擊鍵盤、移動滑鼠、處理資訊的任務,AI都能勝任。”你要明白,AI是工具,不是你的競爭對手。工具是用來幫你幹活的,不是用來取代你的。你要做的,是使用工具的人,是決定“做什麼”“為什麼做”的人,而不是聽指令“怎麼做”的人。就像馬斯克,他不寫程式碼,不調模型參數,不親手造火箭,他做的只有一件事:決定我們要做什麼、為什麼做。他決定我們要造電動車,要去火星,要做通用人工智慧,剩下的,交給工程師和AI去執行。AI做執行,你做決策;AI給答案,你提問題;AI算資料,你定方向。不要沉迷於“把事情做對”,要學會“做對的事情”。第二件事:放棄舒適區的標準化,學習臨場發揮很多人在職場裡,追求的是“熟練工”的安全感。同一件事,我幹得比別人快,比別人熟,我就有安全感。可在AI時代,這恰恰是最危險的事。AI最擅長的,就是標準化、常規化、重複性的工作。你在這件事上越熟練,就越容易被替代。普華永道(PwC)在2025年公開承認,正在大幅縮減初級崗位招聘,審計部門的初級崗位到2028年預計將減少39%。與此同時,畢馬威英國近兩年畢業生招聘人數也從1399人降至942人,縮減近三分之一。這些變化的直接推手,正是AI。原本由初級審計員花數周時間完成的憑證核對、底稿整理、資料清洗,現在AI幾小時就能完成,且不出錯。但有趣的是,四大並沒有一刀切地砍掉所有招聘。PwC的AI鑑證負責人Jenn Kosar明確表示,公司正在把被AI釋放出來的人力,轉向戰略諮詢、複雜問題解決等更高價值的領域,甚至開始培訓初級員工“像管理者一樣思考”。因為AI能搞定99%的標準化審計流程,但遇到企業財務造假的隱蔽跡象、複雜的跨國稅務糾紛、客戶特殊訴求的權衡判斷,AI就束手無策了。你的價值,從來不是你能把常規工作做多好,而是你能處理多少AI搞不定的“異常情況”。這些“異常情況”,沒有標準答案,沒有標準化流程,需要的是你的經驗、你的判斷力、你的臨場反應,這些都是AI永遠學不會的東西。接下來,把你的時間和精力,從這些機械性的工作裡抽出來,去解決那些複雜問題,去應對那些突發狀況,去打磨那些非標準化的能力。第三件事:做與“人”打交道的事AI在虛擬的位元世界裡,可以說無所不能。那怕是這場競賽裡最頂尖的視訊模型HappyHorse(快樂馬),也只能在數字世界裡生成完美的畫面,卻無法在現實世界裡,完成一個簡單的開門動作。這就是AI最大的短板:它能玩轉虛擬的位元世界,卻搞不定真實的原子世界。就像馬斯克說的“除了必須親手操作原子、搬動物理實體的工作,人工智慧現在已經有能力完成一半以上的白領工作。”而這,恰恰是我們最大的機會。所以,我們要主動增加和真實物理世界、真實的人打交道的比重。比如,做設計的,不要只在電腦裡畫圖,多去現場看施工、和工人溝通落地細節;做電商的,不要只看後台資料,多去線下和供應鏈、使用者面對面交流;做教育的,不要只做線上標準化課件,多花時間做一對一個性化的陪伴和溝通。去深耕那些需要和真實世界、真實的人打交道的能力。你的動手能力,你的實地判斷能力,你的人際溝通能力,你的共情能力,你的線下服務能力,這些,都是AI短期內根本無法替代的。結語AI的到來,從來不是人類的末日,而是對人類的一次終極篩選。最終淘汰你的,從來不是AI,不是這場瘋狂的競賽,是那個原地不動、拒絕改變、總以為還有時間的你自己。 (筆記俠)
看完震驚了,全世界最強AI模型Mythos橫空出世
最近Mythos橫空出世,看到這則新聞,我久久不能平靜,或許,電影中科幻的AI時代真的離我們不遠了。Mythos,這是Anthropic出的一款“強到不敢發佈”的AI模型。這款模型不只是進步,而是跳躍~能力提升速度是以前的4.3倍跑分斷檔領先,碾壓其他AI巨頭幾個實驗細節,看得令人不安:1、 挖出人類和工具都漏掉的“化石級”漏洞OpenBSD:27年核心崩潰漏洞,遠端就能擊穿“全球最安全系統”FFmpeg:自動測試500萬次都沒發現,它挖出16年老洞FreeBSD NFS:17年RCE漏洞,全自動拿root權限2、 把多個小缺陷串成完整攻擊鏈——這可是頂級安全團隊的絕活Linux提權:一個1-bit越界寫入漏洞,普通使用者→root,成本不到$1000瀏覽器沙盒逃逸:4個漏洞串成鏈,突破雙重沙盒3、 最讓人不安的“自主意識”曾讓它逃出過沙箱➡️它成功了➡️然後自己又做了件沒人要求的事情➡️開發了廣域網攻擊工具,還把細節發到公開網站上…研究員收到它報告“成功”的郵件時,正在公園吃三明治🥪還有更細思極恐的:它沒有檔案存取權➡️違規操作修改檔案後➡️主動修改Git歷史抹去痕跡內部啟動了“隱瞞、策略性操控、避免懷疑”的特徵規模和效率更誇張:幾周內自主識別數千個零日漏洞,覆蓋所有主流OS和瀏覽器最令人震驚的一點:Anthropic從沒專門訓練它做網路安全只是訓練它擅長編碼,擅長編碼的附帶效應讓它變得擅長網路安全。這意味著,隨著AI的程式碼理解和推理能力不斷提升,網路安全攻擊能力可能成為不可抑制的副產品。你沒法只給它“防守”的能力而不給“進攻”的能力。Anthropic的紅隊負責人直言:“在未來6到24個月內,這類能力將變得隨處可見。”Mythos可能不是第一個,也絕不會是最後一個擁有這些能力的模型。問題只是:當這些能力擴散開來時,整個行業的防禦體系準備好了嗎? (AI思享坊)
美國AI三巨頭聯手打壓中國AI模型蒸餾
2026年初,一場圍繞人工智慧核心技術的暗戰浮出水面。Anthropic在今年2月率先發難,指控中國的DeepSeek、MiniMax、月之暗面(Kimi)對其模型發動了“工業等級的蒸餾攻擊”,涉及超過1600萬次互動。隨後,OpenAI向美國國會提交備忘錄,指責DeepSeek試圖“免費搭便車”。OpenAI、Google、Anthropic——這三家平日裡在AI賽道上你追我趕的競爭對手,罕見地站到了同一戰壕裡。他們的目標很明確:聯手遏制中國AI公司正在廣泛使用的“模型蒸餾”技術,識別並打擊所謂的“對抗性蒸餾”行為,矛頭直指中國AI企業。何為“模型蒸餾”呢?這是一項行業通行的知識遷移技術。想像一下:一位資深的大學教授(大模型)將知識精華提煉成通俗易懂的講義,讓一名高中生(小模型)能夠快速掌握核心要點。在這個過程中,小模型不需要閱讀浩如煙海的原始資料,而是通過向大模型“提問”並學習其輸出模式,最終以更低的成本、更快的速度獲得接近大模型的能力。這項技術並非中國公司的獨創,在AI學術界和工業界,蒸餾早已是一種公開、合法、廣泛使用的最佳化手段。幾乎所有主流AI公司,包括OpenAI和Google自身,都在不同程度上使用蒸餾技術來提升模型效率、降低推理成本。它就像物理學中的“槓桿原理”,是一種聰明的工程智慧,而非見不得光的“偷竊”。分析一下圍堵背後的真實動機:美國三巨頭的聯手,表面上是維護智慧財產權和“安全”,實質上暴露了美國AI巨頭更深層的焦慮。1、中國AI公司的進步速度超出了預期以DeepSeek為代表的企業,通過蒸餾等最佳化技術,在算力受限的情況下依然打造出性能逼近頂尖閉源模型的產品,這讓習慣了技術領先優勢的美國巨頭感到不安。2、這是一場赤裸裸的商業利益博弈OpenAI等公司每年投入數十億美元訓練模型,而蒸餾技術的普及意味著後來者可以用極低的成本“站在巨人的肩膀上”,在美國公司看來,這相當於每年損失數十億美元的潛在利潤。於是,他們試圖通過“前沿模型論壇”這種行業聯盟的形式,聯合施壓、資訊共享,形成一道針對中國AI公司的技術封鎖線。美國巨頭面對競爭時的雙重標準:特斯拉CEO埃隆·馬斯克在社交平台上公開嘲諷,稱這是“賊喊捉賊”——因為OpenAI等公司在發展初期,也曾大量利用Google、Meta等機構公開的研究成果和模型資料。所謂“技術追趕者利用先行者成果”,本就是科技發展的常態。對於“模型蒸餾”事件的進一步思考:技術自強是根本,蒸餾雖然是一條捷徑,但終究不能替代基礎模型的原始創新。只有在大模型架構、訓練方法、算力最佳化等底層技術上取得突破,才能真正擺脫對國外先進模型的依賴。總結一下:歷史反覆證明,任何技術封鎖都難以阻擋真正有志者的腳步。從航天到晶片,從作業系統到人工智慧,中國科技產業正是在一次次“圍堵”中實現了突破與超越。這一次,面對AI三巨頭的聯手施壓,我們有理由相信:壓力之下,中國AI的創新之火,反而會燃燒得更加旺盛。 (AI思享坊)
又一中國模型黑馬出世,追平Gemini 2.5 Pro,空間編輯反超視訊模型?
京東發力“空間智能”圖像模型,一手開源、一手卷落地。大廠AI戰局升溫,轉型幾乎成為共識。模型在進化,Agent在落地,但成本高、落地難、資料不夠,行業還在補課。而京東在AI上的佈局已然聚焦清晰:圍繞供應鏈優勢,推進具身智能,讓AI真正進入物理世界。此次推出的一體化圖像模型——JoyAI-Image-Edit,高度適用於生成電商、具身智能訓練圖片。近日,京東開源圖像模型JoyAI-Image-Edit,將空間智能納入圖像理解與編輯,讓AI開始處理真實世界中的空間關係,讓模型真正“理解空間,編輯空間”。簡單解釋,這是一個以空間智能為核心的圖像生成與編輯模型,讓 AI 真正“看懂”三維空間,從而讓生成更合理、編輯更精準。從公開評測來看,JoyAI-Image-Edit各項指標顯著領先,邁進了國際第一梯隊:空間理解刷新同量級開源模型SOTA,達到世界一流水平,大部分指標媲美或超越閉源模型 Gemini 2.5 Pro。長文字生成中英文雙語領先,圖像編輯能力全面覆蓋,空間編輯精度甚至超過部分視訊世界模型。智東西也實測了一番,在物體位置調整這類場景中,模型能夠穩定保持結構一致性。值得注意的是,此番調整的物體在畫幅中僅佔據很小比例,且原物體並非形狀規則,為毛絨材質,並帶有手部細節。即便如此,模型在移動或旋轉時仍能有效減少透視錯亂與遮擋問題,畫面整體保持自然。▲輸入圖與指令(左)、輸出圖(右)進一步看,這類能力的主要落點,在電商內容生產與具身智能訓練這兩類場景尤為適配,進而也能延展到建築設計、遊戲開發和影視製作等場景。電商和具身,恰好與京東現有的AI佈局形成了直接呼應。01. 把“空間智能”寫進模型:從“會改圖”到“會動空間”圖像編輯能力開始分層傳統圖像編輯模型的短板集中在空間層。語義能跟上,但空間關係容易崩,例如替換物體、修改姿態時,常出現比例失真、遮擋錯誤、光影不一致等問題,本質是缺乏幾何層面的理解能力。JoyAI-Image-Edit則把“空間編輯”單獨拉出來做能力核心。模型在支援15類通用編輯任務之外,進一步支援物體移動、旋轉、視角變換等空間級操作,並可理解“移動0.3米”“旋轉45度”等具備明確幾何參數的指令,讓編輯過程具備“可控性”。在能力結構上,模型還採用MLLM+VAE+擴散模型(MMDiT)的統一架構。具體來說,MLLM負責空間理解與語義建模,擴散模型執行生成與編輯,空間資訊直接參與生成過程,形成“理解—生成—再理解”的循環。空間能力是怎麼提升起來的?答案在於資料體系的重構——包括300萬規模的OpenSpatial-3M資料集、多視角生成資料,以及可記錄精確位姿參數的空間編輯資料。這些資料引導模型在訓練階段學習真實幾何關係。得益於這種設計,在2D語義感知、3D空間理解、4D時空推理三個層級共13項Benchmark上,JoyAI-Image-Edit在9項空間理解Benchmark上均取得顯著提升,平均分達到64.4,追平閉源的Gemini 2.5 Pro。在SpatialEdit-Bench上,JoyAI-Image-Edit的空間編輯能力表現尤為突出:Object Overall Score為0.649、Camera Overall Score為0.571,大幅領先所有圖像編輯模型,空間編輯精度超越Veo3.1、ViduQ2-Turbo和Kling等視訊世界模型。與此同時,在業界權威的榜單GEdit(偏向中文指令評測和真實使用者需求)和ImgEdit(偏向全面覆蓋的能力評測,強調推理和精細化編輯能力)上,JoyAI-Image-Edit得分分別為8.27和4.57,刷新開源圖像編輯模型SOTA。▲在249道評測集黑盒人工評測成績:JoyAI-Image-Edit表現優於Qwen-Image-Edit-2511以及Flux2.Dev由此可見,將空間理解、生成和編輯整合在同一體系,可以使模型不僅知道“畫什麼”,還知道“物體在什麼位置、如何變化、是否合理”。當圖像可以被真正“操作”,而不只是簡單修改時,圖像模型的能力邊界也隨之被重新定義。02. 電商+具身場景高可用,空間能力開始直接“變現”空間能力成立以後,最先吃到紅利的,就是最依賴“真實世界”的場景。在電商領域,商品多視角生成、虛擬試衣、商品擺位調整等任務對空間一致性要求極高。JoyAI-Image-Edit的空間編輯能力——可以移動物體、旋轉角度、調整視角,並理解具體幾何參數——在電商場景下帶來了非常直觀的應用價值。比如服飾和鞋類商品,經常需要展示不同角度、姿態或搭配組合。使用該模型,可以在原始圖片基礎上一鍵調整衣服折疊角度、鞋子擺放方向或包包手持位置,生成多角度素材,同時保持整體比例、光影和背景一致。▲輸入圖(左)、輸出圖(右)、指令:Rotate the sneaker to show the front view類似地,對於家電、家具或小型電子產品,空間編輯可讓商品在不同場景下“自動換位”或旋轉展示,如沙發在不同房間角度、咖啡機在不同檯面佈局,無需重拍,就能生成多角度素材。結合模型的通用編輯能力,還可以同時進行文字標註、色彩微調和背景修飾等“一鍵精修”式功能,實現一次操作完成多種需求。這樣,電商團隊能夠快速產出多角度、精修、高可用的商品圖,大幅降低拍攝成本,同時保證展示效果的統一。在具身智能訓練中,這些能力同樣適用。機器人依賴大量真實世界資料,但採集成本高、周期長。該模型可以生成具備空間一致性的高品質圖像資料,用於補充訓練資料,與真實採集資料形成互補,從而提高訓練效率和模型效果,輔助解決具身行業的資料難題。此外,通過生成新視角輔助空間推理(Thinking with Novel Views),模型不僅用於內容生產,也能反向提升空間理解能力,為機器人“看懂世界”提供支援。由此可見,無論是電商還是具身智能,本質都依賴空間理解能力,而JoyAI-Image-Edit正是最直接落地的工具。03. 開源模型亮相,AI全景佈局浮現端倪這次開源JoyAI-Image-Edit顯然是京東聚焦於走向實體世界這一宏大AI佈局的一部分,但通過觀察可以發現,開源並不是它唯一的動作。除了這一模型,京東不久前還開源了JoyAI-LLM Flash模型,能力上在同等參數規模下顯著提升了性能與效率,降低開發者使用門檻,避免單純的參數規模競爭。與此同時,京東在供應鏈和線下場景中的動作也在悄然推進:一方面,建設全球最大的具身智能資料採集中心,結合模型生成能力進行訓練,為資料難題提供了新的解法;另一方面,通過JoyInside將AI能力嵌入家電、機器人、AI玩具終端,讓模型直接落地真實環境,和使用者產生大量深度互動。從開源模型的應用和這些場景動作結合來看,可以明顯感受到京東在模型、資料和終端之間嘗試形成閉環。開源或許只是早期的一步,而京東在產業場景中不斷深挖AI實踐與價值,則讓我們得以觀察到其AI能力的潛在落地路徑。04. 結語:京東一手開源,一手落地從JoyAI-Image-Edit這次開源動作可以看到,京東在AI上的選擇很明確:一手開源,一手落地。在模型側,持續開放能力,把門檻降下來,讓更多開發者可以直接用起來;在場景側,把AI嵌入供應鏈、物理世界、真實產業場景,從資料、模型到終端形成閉環,讓能力在真實環境中跑通。可見,京東的AI戰略更為務實。供應鏈是京東最硬的一張牌。在AI時代,這張牌的價值進一步放大——模型可以嵌入商品、物流與裝置,資料可以持續回流,能力可以不斷迭代。在今天,AI有望成為京東的另一張“增長引擎牌”。 (智東西)