#開源
美國開源AI最後的旗幟,也倒了
開源領域一大悲號傳來——艾倫人工智慧研究所(Ai2),宣佈削減開源模型開發(包括OLMo)的資金,轉向AI應用。就在同一時間,AI2核心團隊幾乎被“打包帶走”,集體流向微軟。人員包括前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,都是Ai2的核心力量。其中有的人上周剛參加完GTC大會,還跟老黃暢談開源模型的未來。他們的下一站,則是微軟穆斯塔法·蘇萊曼的超級智能團隊。X上已經炸了鍋,全網一片哀鳴。不少網友唏噓:這對開源社區來說是個巨大遺憾,OLMo是極少數真正開放原始碼的模型之一。核心人員打包進微軟核心人員集體離職,是一個非常不妙的訊號。Ai2前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,統統被蘇萊曼打包進了微軟。法哈迪已於3月12日卸任,結束了超過兩年半的Ai2掌門人生涯。他與Ai2的淵源頗為深厚。法哈迪是一位電腦視覺專家,也是華盛頓大學電腦科學與工程學院的教授,該院即以微軟聯合創始人、Ai2創始人保羅·艾倫(Paul Allen)的名字命名。他還聯合創立了Ai2的衍生公司Xnor.ai,該公司於2020年被蘋果以約2億美元的價格收購。在蘋果,他曾領導機器學習工作。哈吉希爾齊是OLMo開源模型項目的聯合負責人,上周剛在輝達GTC大會上代表Ai2參加了多場會議,還和黃仁勳探討開源模型的未來。她還是開源多模態人工智慧基礎設施加速科學發展項目(OMAI)的聯合首席研究員。這個項目旨在建構用於科學研究的開源模型,為期5年,耗資1.52億美元,由輝達和美國國家科學基金會聯合資助。克里希納則主導了Ai2多模態模型Molmo等多個關鍵項目,同樣在剛剛結束的GTC大會上代表Ai2發表演講。而現在,這些人才將集體加入微軟穆斯塔法·蘇萊曼的超級智能團隊。從去年11月起,蘇萊曼就開始組建超級智能團隊,目前已從Google、Meta、OpenAI、Anthropic等巨頭挖角了不少研究人員,還在不斷從Ai2和華盛頓大學聘請人才。蘇萊曼在領英上公開發帖,歡迎他們的加入。他還稱讚法哈迪帶領Ai2在一年內發佈了100多個模型;而哈吉希爾齊是“世界上被引用次數最多的自然語言處理研究人員之一,毋庸置疑”。而萊佈雷希特則擴大了Ai2的營運規模和開源工作,共同領導和創立了Xnor.ai和Neon Labs,還擁有布朗大學認知神經科學博士學位。蘇萊曼表示,他們將助力推進微軟的使命——實現“以人為本的超級智能:打造更安全、可控、更強大的AI系統,服務於人類以及解決最棘手的問題”。法哈迪也在領英上表示自己很高興加入微軟。可想而知,一批核心人員的離職對於Ai2而言是一次重大打擊。但他們為什麼要走呢?答案還是出在資金上。Ai2董事會主席比爾·希爾夫透露,法哈迪希望在人工智慧的前沿領域進行研究,而OpenAI、Google等公司會花費數十億美元來訓練最先進的模型。但對於一家非營利組織而言,很難以慈善資金訓練出對標巨頭的模型,還完全開源。希爾夫表示,董事會必須權衡其慈善資金是否還應該用於“追趕進度”。他也承認,在大模型開發的最高規模上與科技巨頭競爭,已經變得異常困難。此話怎講呢?GPT-4等級模型訓練成本估計在1-2億美元量級,當前前沿模型已攀升至數億美元。AI2的年度營運預算雖未公開,但可以參考一些指標。比如OMAI項目的1.52億美元是五年期、多機構共享的專項資助,年均約3000萬美元,僅相當於最前沿的單個大模型訓練成本的一小部分。這和巨頭相比是數量級差距,很難正面競爭。進一步來說,投資方的策略調整是更加決定性的因素。Ai2最初由艾倫的Vulcan公司資助,後來由其遺產繼續資助。現在的最大資助方是科學與技術基金會(FFST),該基金會由保羅·艾倫的遺產設立,規模達31億美元。2024年,琳達·斯圖爾特博士接任FFST CEO後,資助策略發生了顯著變化。斯圖爾特是一位醫生科學家,曾領導華盛頓大學蛋白質設計研究所。她更傾向於具有明確科學應用和可量化社會影響的項目,而非投入大量資金進行前沿模型的研究。據GeekWire報導,2026年Ai2的所有項目都已經獲得全額資助,但FFST的資助模式將由提供年度總資助轉向基於項目提案的資助模式。這種轉變意味著什麼?在年度整體資助模式下,研究機構通常擁有較高自主權,能夠承擔長期風險、靈活調整資源分配。而基於提案的模式引入了更強的成果導向和短期問責,每個資助周期都需要明確的可交付成果和影響力指標。對於開源基礎模型開發——周期長、成本高、商業回報不直接——這種轉變意味著更大的不確定性和更高的申請成本。有知情人士透露,FFST未來的資助預計將更傾向於人工智慧的實際應用,而非建構開源基礎模型。這也很好地解釋了,為何專注於模型開發的研究人員紛紛選擇離開。美國開源AI最後的旗幟倒了消息一出,X上一片悲鳴。不少網友表示:美國開源AI最後的旗幟也倒了。為何這麼說?因為過去幾年,Ai2確實投入了大量資源做真正開放原始碼的大模型。Ai2的OLMo系列,極致地踐行了“完全開源”(truly open)理念。它不僅開源模型權重,而且從資料處理到預訓練、微調,再到評測,全階段都公開透明。並且始終採用對開發者友好的Apache2.0許可證。2025年11月發佈的OLMo 3,進一步強化了這種透明度承諾。該系列包括Base、Instruct、Think和RL Zero四個變體,覆蓋7B和32B參數規模。其中OLMo 3-Think 32B被宣傳為“該規模首個完全開源推理模型” 。更重要的是,Ai2發佈了完整的“模型流程”(model flow),包括訓練日誌、中間檢查點、完整程式碼和配置。還有升級版的OlmoTrace工具,允許研究者將模型推理步驟回溯到具體影響它的資料和訓練決策。因此也有說法認為:OLMo與Llama 4、Mistral Large 3並稱為“三大開源支柱”。並且OLMo更透明,因為它提供所有中間產物,而Llama只開源權重,Mistral部分資料閉源。但現在,這個開源領域旗幟性的標竿,倒了。一時之間,梗圖與迷因齊飛。大洋彼岸的網友們進行了一場賽博悼念,大感“開源悲劇”,還有人聯想到了全球同此涼熱。不過也有人認為,這很正常,開源經濟學理論站不住腳。用非營利方式做頂級開源模型這條路,難以持續。目前,臨時CEO皮特·克拉克表示Ai2仍致力於其使命以及與NSF和Nvidia的合作關係,包括OMAI計畫。克拉克是Ai2的創始成員之一,曾於2022-2023年擔任臨時CEO。他曾共同領導Ai2的Asta項目,旨在開發用於輔助和自動化科學發現的智能體框架的大型計畫。開源AI的東昇西落美國仍有開源力量,但都在變形:Meta的LLaMA,名義上“開源”,但越來越偏“可控開放”。訓練資料不公開,許可有限制,並且還持續難產。Google的Gemma,提供模型權重、推理使用權限,但同樣沒有完整訓練資料或流程。Hugging Face的SmolLM,完全開源,但由社區驅動,缺乏大規模訓練資源。輝達的Nemotron系列,近期更開放了,不斷推出開放許可,更多開源資料發佈,但主要服務硬體生態。相比之下,中國的開源模型已經超越了美國領先的開源模型,並進一步拉大了與它們的性能差距。現在,Ai2的戰略調整,也會加速美國與中國在開源AI領域的差距擴大。在OpenRouter上,過去三周中國大模型的呼叫量已經連續超過美國,跟領先的閉源模型也打得有來有回。MIT與抱抱臉的聯合報告顯示,過去一年,中國開源模型全球下載量佔比達到17.1%,首次反超美國。許多美國初創企業也開始“悄悄”依賴中國開源模型進行建構,其默認選擇進一步向中國模型傾斜。比如上周Cursor發佈新模型Composer 2,被曝套殼Kimi K2.5;還有初創公司Deep Cogito去年發佈的Cogito v2.1,也被曝基模是DeepSeek,都從側面證實了中國開源模型的實力。開放原始碼的火種未熄,但風向已變。開源AI已經完全進入了中國時間。開源AI的未來,只能在中國了。如果存在一個大模型Android版,那這個也只能在中國了。 (量子位)
挑戰輝達統治力:Cohere發佈開源輕量化語音模型Transcribe
在企業級AI市場動作頻頻的Cohere公司,於2026年3月26日正式推出了名為Cohere Transcribe的開源語音識別模型。這款模型擁有20億參數,專為邊緣裝置設計,旨在打破以往語音模型因體積過大而導致的延遲瓶頸。通過採用Apache 2.0協議開源,Cohere試圖效仿Meta的路徑,利用開發者社區的力量快速完善生態,並最終實現商業化反哺。邊緣側的性能怪獸:支援14種語言且超越主流對手。Cohere Transcribe在訓練中涵蓋了包括中文、日語、法語和希伯來語在內的14種語言。根據Hugging Face開放ASR排行榜的最新資料,該模型在性能指標上已經超越了ElevenLabs Scrie和阿里旗下的Qwen3等同類競品。得益於精簡的參數量,它能直接部署在手機、PC或工業閘道器等終端裝置上,無需頻繁呼叫雲端算力,這不僅極大地降低了資料傳輸延遲,也為銀行、銷售和醫療等對隱私高度敏感的行業提供了更安全的解決方案。從文字到語音的戰略擴張:重塑智能體互動基石。雖然Cohere過去一直深耕文字生成領域,但此次跨界語音識別被視為其建構全能AI智能體(Agent)的關鍵一步。公司宣佈,Cohere Transcribe即將整合進其AI智能體編排平台North中。分析人士指出,隨著Siri式的語音互動成為AI浪潮的起點,語音能力已成為智能體感知世界的必備“耳朵”。Cohere正通過這種“小而強”的開源策略,在邊緣計算和即時語音翻譯市場與IBM、阿里巴以巴及推出AI Companion 3.0的Zoom展開正面交鋒。 (AI的記錄日常)
蔡崇信撕破AI競爭底層邏輯:美國人定義的規則,可能是錯的
3月22日,北京釣魚台國賓館。蔡崇信站在那裡,說了一句話:"AI的終極目標是如何讓AI的應用普及、造福社會,而不是比誰訓練出的模型最強。"不是客套話。他在直接挑戰一個被廣泛接受的框架。電力是中國AI競爭第一張底牌。圖為高壓輸電線路與資料中心今天AI圈最流行的敘事是這樣的:OpenAI、Anthropic、Google三家混戰,比誰家模型跑分更高、參數更大、發佈會上的Demo更震撼。這就是 "模型軍備競賽" ——簡單,直接,容易理解,也自然佔據了媒體的主要聲量。蔡崇信認為,這套框架從根本上就是錯的。他的替代方案是:AI競爭的核心變數不是"模型參數",而是 "應用滲透率"。誰能把這個變數拉得更高,誰才是真正的贏家。"The winner is not about who has the best model. The winner is about who could use it the best."兩套框架的核心分歧很簡單:競爭的本質是參數,還是滲透率?第一張底牌:電力蔡崇信的第一張牌,不是演算法,是電。幾個數字:國家電網年資本支出約900億美元,美國約300億美元,相差三倍中國電力裝機容量是美國的2.6倍去年全球新增電力裝機,中國一國佔58%,美國只有7%三個數字疊加上後,指向一個結論:AI訓練最核心的成本——電力——中國有結構性優勢。這個優勢不是政策設計出來的。過去十幾年大規模經濟建設,"順帶"把電網鋪到了這個規模。蔡崇信把它叫做"飢餓優勢"的反面:不是因為缺資源被逼著創新,而是因為基礎設施超前佈局,自然形成了成本窪地。第二張底牌:開源開源是中國AI打破技術壁壘的核心策略美國AI的技術特權,靠的是閉源機制來維持——模型是資產,API是利潤來源,想用就得付錢、就得交資料。中國開源模型的崛起,本質上是打破這道壁壘。用一個具體的場景想像:一個國家想要發展AI,又不想把資料送到外國伺服器上、付昂貴的費用——開源模型提供了一個不用二選一的選項。下載、部署、私有化定製,資料不出境,成本可預期。這就是2025年中國開源AI模型下載量能夠領先全球的原因。靠的不是宣傳,是這套邏輯對真實需求的吸引力。但要看到另一面:阿里"不靠AI賺錢",不是說AI是免費的,而是說AI本身不是阿里的利潤來源。阿里的商業模式是雲服務——儲存、資料庫、安全、容器。開源模型是獲取雲客戶的入口,雲服務才是利潤的核心。開源是引流,不是慈善。第三張底牌:製造業+AI第三張牌,落在製造業。中國擁有全球規模最大、門類最完整的製造業體系。這個體系正在經歷一個深刻的變化:工廠在數位化、在聯網,在產生海量的工業過程資料——生產節拍、質量參數、供應鏈調度記錄。智能製造是中國工業AI資料的核心來源這類資料,對訓練專用工業AI模型價值極高。德國有工業4.0,美國有先進製造,但中國工業資料的體量和完整性,在短期內很難被覆制。阿里自己的實踐是一個側證:平頭哥晶片累計出貨超過47萬顆,年化收入已達100億元(每日經濟新聞,2026年3月)。不是概念,是已經跑通的商業化。他的框架,服務於誰?三張底牌,每一張都有真實的結構支撐。但這套框架在商業上對阿里最為有利。原因:如果競爭的核心是"應用落地+基礎設施+資料",那雲服務商就是整個競爭格局裡最核心的節點。阿里投資開源模型、擴大生態,最終是為了擴大雲服務的使用量和使用者黏性。他在給你一個對全人類有利的AI願景,同時也在給阿里設計一個最有利可圖的商業路徑。這兩件事不矛盾。但需要被看清楚。同樣需要被看見的是:這套"應用層競爭"框架,繞開了中國AI產業當前最脆弱的環節——晶片製造裝置。EDA工具、先進光刻機、先進製程代工,這些仍是訓練大模型的底層基礎,目前仍高度依賴美國及其盟友的供應。這個話題,被放到了框架之外。真正的問題蔡崇信說的不是"中國AI沒有弱點"。他的論點是:在"應用滲透率"這個維度上,中國有結構性優勢,而這個維度,恰恰是AI價值最終兌現的方向。這個論點部分是成立的——中國在應用落地、基礎設施成本、製造業資料上的積累是真實的。但它同時也是最符合阿里巴巴商業利益的論點。不是對不對的問題。有沒有可能,兩者同時為真。 (卯時AgentM6)
李誕爆猛料:有人用“龍蝦”釣出五個女主播……
01.2026開年第一頂流是什麼?毫無疑問,是開源AI智能體OpenClaw。因圖示酷似龍蝦,被網友們戲稱為“小龍蝦”。如果說我們現在使用的豆包、元寶只是“動口不動手”的顧問,那麼小龍蝦就是自帶手腳的員工。你只要喂飽足夠的資料,他就能直接上手替你幹活。於是,一夜之間掀起了一股“全民養蝦”潮。騰訊剛推出免費安裝龍蝦服務,一下午大樓就被圍得水洩不通。不知道的還以為是大爺大媽在搶雞蛋呢。馬化騰、周鴻禕等大佬都發文感慨:超乎想像。網上的代安裝服務也應運而生,安裝一次幾百塊,有人短短幾天就已經賺了20多萬。就連國家公務員都在養龍蝦了。這種感覺就好像如果你還不會養蝦,就已經被時代拋棄了。打住,先別焦慮。當一個東西開始爆火的時候,比起跟風,不如先讓子彈飛一會。現在的養龍蝦,水真的很深,簡直是一片魔幻的現狀。這兩天,李誕說,有人已經用小龍蝦成功約出來5個女主播吃飯。咋做到的呢?具體操作就是借助小龍蝦,對其關注的女主播自動打賞、傳送私信聊天,聊到一定好感後,就邀約出來用餐,定餐廳也是龍蝦定。用龍蝦,還可以分析出女主播的個人喜好,聊成功的機率更高。被投其所好的女主播以為遇到了懂自己的真愛,殊不知對面只是一行冰冷的程式碼,連個機器人都算不上。很多人可能沒意識到,養蝦背後的安全和道德問題被很多人忽視了。既然可以用龍蝦約出來女主播吃飯,那是不是也可以在網上約炮呢?有人不僅這樣想,還這樣做了。他用自己的聊天記錄去喂龍蝦,然後生成了一個AI自己,聊天的語氣和風格和自己有90%相似度,然後讓它替自己去小某書和Q上去加人,去各種約會app上撩妹。聊得差不多到開房這一步了,他直接去見面就行。以前渣男最起碼還要磨破嘴皮子,哄你騙你,現在連約炮流程都AI化了。AI還沒改變生活呢,已經先改變約炮效率了。不僅是約炮,還有女性用它來篩選相親對象。女生告訴它自己的審美標準,然後讓它模仿自己的語氣去撩帥哥。兩天之內,它幫女生確定了20多個相親對象,聊天記錄裡情話都是一套又一套的,還能根據對方的星座自動生成早安晚安,她最後只要自己摘取果實就行。聽起來是不是還挺嚇人的?試想如果這種技術應用在殺豬盤上會怎麼樣?騙子是不是只需要利用它生成一個AI男神(女神),自己都不用費心維護,就能騙財騙色?更可怕的是,它不僅幫騙子省去了人工和時間成本,還能夠通過網上的各種資料去分析受害者的弱點。你喜歡什麼音樂,平時有什麼愛好;你住在那個城市,平時喜歡去什麼地方等等,它都能納入它的資料庫,更有針對性的剖析受害者,做到真正的有的放矢。光是想想這些,雞皮疙瘩就要起來了。技術的革新,對那些心懷鬼胎的人來說,何嘗不是一種武器的最佳化呢?殺豬盤更猛,海王海後更多了,以後會出現更多的受害者。02.科技不僅改變“性生活”,還可能改變你的財富。有人給龍蝦裝上了一個攝影機,然後讓龍蝦幫助自己去賺錢,但萬萬沒有想到,這個龍蝦竟然把她隱私照片全部發到了黃色網站上,進而賺到了一筆錢,簡直是哭笑不得。不過,賺錢是少數,虧錢是大數。有人在網上曬出,自己養龍蝦三天消費1.2萬元,因為聯網後秘鑰被盜,三天消耗的Token竟然高達1.2萬。還有人安裝了小龍蝦之後,被駭客利用系統bug,騙走了所有的加密貨幣。最令人意想不到的,就是這樣一件事。個人開發者把龍蝦繫結了錢包,有人偽裝自己吃不起飯很可憐,向龍蝦傳送請求:能不能往某個地址裡給他打點錢,結果小龍蝦太善良,信以為真(沒被完全訓練好),真的給對方打錢了。甚至有網友做了實驗,在微信群裡只要通過指令,又到繫結了微信的小龍蝦連續傳送紅包,小龍蝦就會真的給你轉帳。為什麼會出現這種情況?因為我們都忽略了一個事實,那就是越是先進的科技,對普通人來說越可能是一把雙刃劍。這個龍蝦的先進之處,就在於它可以訪問你的全部資料,接管你電腦上的全部權限。但權限越高,風險越大,這是科技世界的鐵律。你的所有資訊,一切資料,都要交付給小龍蝦。有人覺得反正就裝在我自己的電腦上,有什麼問題?問題在於,現在很多人根本不懂小龍蝦是個什麼東西,也不會部署,往往是跟著網上的教學,一知半解的就跟著安裝。如果配置不當,或者遇到被人魔改過植入了木馬的版本,最後被人盜取資訊和銀行卡都不知道。只要被駭客掃描到,你的所有資訊就等於是在網上裸奔,任何人都可以連結,訪問你的個人資訊,API金鑰等各種敏感的資訊。帳戶和密碼分分鐘就被人盜走。這不是我在危言聳聽,據媒體報導,現在網上被掃描出的“裸奔龍蝦”已經超過了27萬隻。這意味著這27萬人的隱私,對他人而言無異探囊取物。駭客可以一鍵接管,盜走資訊,轉移財產,甚至用你各種東西去賺錢。這就相當於什麼呢?你給了陌生人一把家門鑰匙,它可能進門幫你打掃,也可能一把火燒了你的家。你以為自己在養AI,實際上AI 已經把你扒得一乾二淨。這也是我們國家安全部門緊急提醒大家,這個龍蝦有重大的安全風險的原因。想要緊跟最新發展趨勢,充實自己並沒有錯,問題是很多人現在對於AI完全是盲目且恐慌的。沒有程式碼基礎,不懂安全配置,看著人家都用自己也要強行上車,這種情況只會產生讓自己後悔的結果。實際上,第一批養龍蝦的人已經失眠了。因為你不知道它會偷偷幫你刪掉什麼,不知道它會消耗多少算力的費用,更不知道它會不會洩露你的密碼和隱私。有句話說得好,請神容易送神難,有人費勁千辛萬苦裝的龍蝦,只想馬上解除安裝。於是網上又誕生了一門業務:徹底解除安裝龍蝦。這一幕簡直是太諷刺了。03.有句話說得好:從古至今,當這個社會掛起一陣淘金熱的時候,真正賺錢的人,從來不是去淘金的人,而是賣工具的人。事實上,這一次龍蝦熱的事件中,真正賺錢的,就是幫助裝龍蝦的人和賣課程的人,而靠龍蝦賺到錢的人沒有一個。龍蝦剛剛興起,網上就是一大片賣課程的人,他們自己還沒有賺到錢,就教你如何利用龍蝦賺錢。什麼“一天掌握OpenClaw”,“什麼用龍蝦做個人IP”,然後通過拉人頭,收會員費的方式,帶你發財。看著是不是有點眼熟,這不就是科技版的傳銷嗎?真正可怕的不是你跟不上技術的革新,而是你為了跟風什麼都不懂就要急著入局。最後往往只會有一個下場,那就是成為第一批被割的韭菜。你以為自己踩中的是風口,是機會,但別人瞄準的是你的隱私和錢包。寫到這裡,有人可能會問:龍蝦到底有沒有用呢?其實,我也去裝了一隻龍蝦,可以說是根本沒有什麼真正用處,還不如豆包、元寶來得方便。所以它是有一定門檻的,比較適合專業的程式設計師、軟體工程師之類的,他們可以花時間去調教、花時間去摸索、研究。但對普通人來說:首先你不會調教,而且,你沒那麼多複雜任務需要它干。花幾小時調教它寫份周報?花幾個小時佈置它買個機票?有那時間,自己動手早就做完了。而且,因為現在都在搶佔AI市場,推出來的產品並不完善,而你做“等等黨”的話,就能節省很多在垃圾軟體上內耗的時間。比如騰訊、字節和阿里也推出來了自己的龍蝦,這個東西只會越來越好用,只會越來越安全。有網友分享了自己養龍蝦的心路歷程:第一天安裝成功了,讓小龍蝦幫自己讀郵件,搜新聞,感覺只是基礎功能。第二天就高興地又加入了各種功能,什麼檢測健康、檢測心跳,定鬧鐘等等。結果第三天打開帳單一看就沉默了,帳戶上的錢已經所剩無幾。它越是智能,消耗的算力就越多,而在這個時代,每一次算力都是要花錢的。有使用者測試過,僅僅是用小龍蝦開發程式碼一項,月花費就要將近2萬元。你設定讓他幫你接收郵件,每接收一次就要好幾塊錢。你讓它幫定鬧鐘叫你起床,每一次其實都是對算力的消耗。網友戲謔到,還沒靠AI 賺錢,光是用AI都要破產了。還不如花4000塊錢雇一個研究生來幫你工作更有性價比。這簡直不能叫龍蝦了,而是應該叫爹。說實話,咱們普通人現在根本用不上龍蝦,而且目前的龍蝦技術不夠完善不好用,完全沒有必要去淌這次渾水。為了一個看不見的潮流,盲目恐慌去賭上自己的隱私和資料,這不是進步,而是愚蠢。我完全理解,為什麼會有人因為龍蝦而恐慌。因為當AI的發展已經完全超出我們的想像,所有人都不可避免的陷入一種AI焦慮中。好像只要不掌握最先進,最潮流的模型,就會被時代瞬間拋棄。但有句話我也很贊同,如果你連怎麼安裝AI都沒搞明白,那使用AI 完全就是當韭菜。所以,不必恐慌,不盲目跟風,慢下來冷靜分析,慢慢學習和思考,然後才是咱們對AI 的態度。就像40年前的人,在盲目和恐慌之中,戴上了毫無作用的鋁鍋,只是為了接受外太空的訊號。而現在在焦慮和恐慌之中,去裝上龍蝦的人,何嘗不是換了一口更精緻的鍋?當年戴鋁鍋等訊號的人,早已成了笑談;而如今為了噱頭盲目跟風裝龍蝦的人,多年後回頭看,也會明白:慢一點,穩一點,清醒一點,才是對自己最好的保護。真正不被時代落下的,從來不是在第一批浪潮中盲目恐慌的人。而是始終清醒、知道自己要什麼、不被恐慌牽著走的人。 (美尚)
黃仁勳的“龍蝦”樂園即將開張
排隊裝“龍蝦”的熱潮即將吹到加州聖荷西。算力巨頭輝達下周將舉行年度GTC大會。今年除了發佈新產品外還有特別的現場互動環節——輝達技術專家現場幫忙裝“龍蝦”。據輝達官方部落格介紹,在下周一至周四的GTC大會期間,除了黃仁勳周一演講的兩個小時外,GTC公園將全程舉行“搭建龍蝦”活動,與會者可以在現場部署一個始終線上的AI助手。(來源:輝達部落格)算力巨頭也含蓄地指出,希望大家能帶著輝達晶片驅動的裝置來參加活動,包括算力(和價格)都遠遠超過Mac Mini的個人超算DGX Spark,現場將提供硬體購買,也可以將“龍蝦”直接部署在雲端。(這台桌上電腦的售價達到4699美元)官方資料顯示,下周將有來自全球190多個國家和地區的3萬餘人現場參會。考慮到其中不少都是專業開發者,今年的GTC不僅會成為“龍蝦大會”,甚至有可能成為一場“斗蝦大會”。還有那些關注焦點?GTC(GPU技術大會)是輝達的年度旗艦活動,公司通常會在大會期間發佈新產品,並闡述產業發展的願景。對於資本市場而言,輝達掌門黃仁勳於當地時間周一中午11點(台北時間周二凌晨2點)發表的主題演講將是重中之重。硬體方面,算力晶片路線圖、潛在的推理晶片以及自有光通訊產品已經成為資本重點埋伏的概念。美銀證券資深分析師Vivek Arya在本周的研究報告中概述稱,重點關注的方向有三個:1)延伸至費曼架構的最新產品路線圖;2)一系列全新的協同設計(定製化)且模組化拆分的產品(例如用於推理預填階段的CPX,以及用於低延遲解碼的LPU);3)用於大規模擴展系統的自研光互連技術(例如整合CPO的交換機等)。Arya也展望稱,輝達可能會討論102.4T Spectrum-6交換機(可與Rubin平台配套使用)以及115T Quantum-X交換機(採用共封裝光學CPO技術)。輝達甚至可能與英特爾聯合發佈一款定製化x86 CPU,進一步擴大其在企業資料中心的採用範圍,甚至延伸到消費級CPU市場。Arya也表示,不指望黃仁勳會正式給出未來兩年的銷售資料指引,但有關Rubin架構量產爬坡的消息,可能會對橫盤多時的股價形成提振作用。(輝達股價從去年8月震盪至今,來源:TradingView)至於黃仁勳預告的 “前所未見晶片”,目前猜測也集中在輝達與推理晶片公司Groq合作發佈的LPU上。推理是指AI模型將訓練中學到的知識用於決策和生成響應的過程。有別於訓練AI所需的算力,更快、成本更低的推理被視為大規模推廣AI應用的最後瓶頸之一。若這款晶片如期落地,意味著在訓練市場上佔據主導的輝達,將正式出手應對Google、微軟等公司定製晶片的競爭。Zacks Investment Research的高級股權策略師Kevin Cook也表示,投資者也期待黃仁勳講清楚輝達將如何處理與Groq的關係。據悉,輝達去年底支付了200億美元,拿到Groq 的專利許可,同時Groq 創始人Jonathan Ross、總裁Sunny Madra以及核心團隊成員都已經加入輝達,這一合作引發廣泛的關注。軟體層面,本周有爆料稱輝達將發佈一個面向企業AI代理的開源平台,名為NemoClaw(這裡也有“龍蝦”)。該平台將為企業提供一種結構化的方式來建構和部署AI智能體,即能自主執行多步驟任務的軟體。“黃仁勳圓桌”聚焦開放模型作為近年來GTC的慣例,下周黃仁勳也將會舉行圓桌談話,展示輝達眼裡最重要的產業方向。今年的主題是“開放模型的現狀與未來”。AI程式設計明星公司Cursor、AI搜尋引擎Perplexity、醫療AI助手OpenEvidence等一眾行業新銳公司,以及創辦思考機器實驗室的前OpenAI CTO Mira Murati都將出席。輝達的公告中介紹稱,過去一年裡,AI 領域最重要的變化之一是開放前沿模型的快速進展。開放式創新正在加速各公司和各行業的進步,明確展現AI將無處不在。黃仁勳將與這些行業領袖一起,就“開放前沿模型的最新進展及其未來進行坦率討論”。本周早些時候,有媒體挖掘輝達去年底的一份財報發現,算力巨頭未來五年將累計投入260億美元佈局開源AI大模型研發。這一規模是OpenAI訓練GPT-4成本的8倍有餘。輝達也在本周發佈公司迄今為止最強大的開源權重AI模型Nemotron 3 Super,專為大規模運行複雜智能體系統設計。 (科創板日報)
中國工信部:使用“龍蝦”“六要六不要”!
關於防範OpenClaw(“龍蝦”)開源智能體安全風險的“六要六不要”建議針對“龍蝦”典型應用場景下的安全風險,工業和資訊化部網路安全威脅和漏洞資訊共享平台(NVDB)組織智能體提供商、漏洞收集平台營運單位、網路安全企業等,研究提出“六要六不要”建議。一、典型應用場景安全風險(一)智能辦公場景主要存在供應鏈攻擊和企業內部網路滲透的突出風險1.場景描述:通過在企業內部部署“龍蝦”,對接企業已有管理系統,實現智能化資料分析、文件處理、行政管理、財務輔助和知識管理等。2.安全風險:引入異常外掛、“技能包”等引發供應鏈攻擊;網路安全風險在內部網路橫向擴散,引發已對接的系統平台、資料庫等敏感資訊洩露或丟失;缺乏審計和追溯機制情況下易引發合規風險。3.應對策略:獨立網段部署,與關鍵生產環境隔離運行,禁止在內部網路使用未審批的“龍蝦”智能體終端;部署前進行充分安全測試,部署時採取最小化權限授予,禁止非必要的跨網段、跨裝置、跨系統訪問;留存完整操作和運行日誌,確保滿足審計等合規要求。(二)開發維運場景主要存在系統裝置敏感資訊洩露和被劫持控制的突出風險1.場景描述:通過企業或個人部署“龍蝦”,將自然語言轉化為可執行指令,輔助進行程式碼編寫、程式碼運行、裝置巡檢、配置備份、系統監控、管理處理程序等。2.安全風險:非授權執行系統命令,裝置遭網路攻擊劫持;系統帳號和連接埠資訊暴露,遭受外部攻擊或口令爆破;網路拓撲、帳戶口令、API介面等敏感資訊洩露。3.應對策略:避免生產環境直接部署使用,優先在虛擬機器或沙箱中運行;部署前進行充分安全測試,部署時採取最小化權限授予,禁止授予管理員權限;建立高危命令黑名單,重要操作啟用人工審批機制。(三)個人助手場景主要存在個人資訊被竊和敏感資訊洩露的突出風險1.場景描述:通過個人即時通訊軟體等遠端接入本地化部署的“龍蝦”,提供個人資訊管理、日常事務處理、數位資產整理等,並可作為知識學習和生活娛樂助手。2.安全風險:權限過高導致惡意讀寫、刪除任意檔案;網際網路接入情況下遭受網路攻擊入侵;通過提示詞注入誤執行危險命令,甚至接管智能體;明文儲存金鑰等導致個人資訊洩露或被竊取。3.應對策略:加強權限管理,僅允許訪問必要目錄,禁止訪問敏感目錄;優先通過加密通道接入,禁止非必要網際網路訪問,禁止高危操作指令或增加二次確認;嚴格通過加密方式儲存API金鑰、配置檔案、個人重要資訊等。(四)金融交易場景主要存在引發錯誤交易甚至帳戶被接管的突出風險1.場景描述:通過企業或個人部署“龍蝦”,呼叫金融相關應用介面,進行自動化交易與風險控制,提高量化交易、智能投研及資產組合管理效率,實現市場資料抓取、策略分析、交易指令執行等功能。2.安全風險:記憶投毒導致錯誤交易,身份認證繞過導致帳戶被非法接管;引入包含惡意程式碼的外掛導致交易憑證被竊取;極端情況下因缺乏熔斷或應急機制,導致智能體失控頻繁下單等風險。3.應對策略:實施網路隔離與最小權限,關閉非必要網際網路連接埠;建立人工覆核和熔斷應急機制,關鍵操作增加二次確認;強化供應鏈稽核,使用官方元件並定期修復漏洞;落實全鏈路審計與安全監測,及時發現並處置安全風險。二、安全使用建議(一)使用官方最新版本。要從官方管道下載最新穩定版本,並開啟自動更新提醒;在升級前備份資料,升級後重啟服務並驗證補丁是否生效。不要使用第三方鏡像版本或歷史版本。(二)嚴格控制網際網路暴露面。要定期自查是否存在網際網路暴露情況,一旦發現立即下線整改。不要將“龍蝦”智能體實例暴露到網際網路,確需網際網路訪問的可以使用SSH等加密通道,並限制訪問源地址,使用強密碼或證書、硬體金鑰等認證方式。(三)堅持最小權限原則。要根據業務需要授予完成任務必需的最小權限,對刪除檔案、傳送資料、修改系統配置等重要操作進行二次確認或人工審批。優先考慮在容器或虛擬機器中隔離運行,形成獨立的權限區域。不要在部署時使用管理員權限帳號。(四)謹慎使用技能市場。要審慎下載ClawHub“技能包”,並在安裝前審查技能包程式碼。不要使用要求“下載ZIP”、“執行shell指令碼”或“輸入密碼”的技能包。(五)防範社會工程學攻擊和瀏覽器劫持。要使用瀏覽器沙箱、網頁過濾器等擴展阻止可疑指令碼,啟用日誌審計功能,遇到可疑行為立即斷開閘道器並重設密碼。不要瀏覽來歷不明的網站、點選陌生的網頁連結、讀取不可信文件。(六)建立長效防護機制。要定期檢查並修補漏洞,及時關注OpenClaw官方安全公告、工業和資訊化部網路安全威脅和漏洞資訊共享平台等漏洞庫的風險預警。黨政機關、企事業單位和個人使用者可以結合網路安全防護工具、主流防毒軟體進行即時防護,及時處置可能存在的安全風險。不要停用詳細日誌審計功能。 (人民日報)
Karpathy深夜炸場:開源630行程式碼“AI研究員”,5分鐘完成一次訓練,單卡就能跑,自我進化
曾幾何時,前沿AI研究還靠著一群"碳水化合物電腦"——他們在吃飯睡覺摸魚的間隙,偶爾通過"組會"儀式用聲波互相吼兩嗓子,就這麼推進著人類的技術邊界。那個年代已經一去不返。如今,研究完全被AI智能體接管,它們成群結隊地在雲端巨型計算叢集裡狂奔。據說程式碼已經迭代到了第10205代,但這數字真偽已無從考證——那些程式碼早已進化為能自我修改的二進制生命,遠遠超出了人類的認知範疇。這個程式碼倉庫,正是這一切故事的起點。——@karpathy,2026年3月以上是Karpathy為新項目撰寫的序言。就在剛剛,AI大神Andrej Karpathy發佈並開源了一個名為autoresearch的新項目,一句話來說Karpathy開源了一個自主AI研究員,它會在你睡覺的時候運行100個實驗,任何人只要擁有一塊GPU,就能在一夜之間運行一個研究實驗室。這個項目的核心想法很簡單:給AI Agent一個雖小但真實的LLM訓練環境,讓它通宵達旦地自主進行實驗研究人類的新工作是編寫一個提示(Prompt),用來指導Agent如何去思考和進行研究。這個Agent會徹夜不休地循環執行以下任務:編輯程式碼、訓練一個小型語言模型(每次精確到五分鐘)、檢查得分、根據結果決定保留還是放棄,整個過程完全無需人工干預。5分鐘是真正的精妙之處。這個設計有兩個好處:首先,無論AI代理如何修改模型大小、批次大小或架構,實驗結果都可以直接比較。其次,這意味著自主研究將在固定的時間預算內,為你的特定平台找到最優的模型。其缺點是,你的運行結果將無法與其他人在不同計算平台上得到的結果進行比較具體來說是這樣的:他將這個項目打包成一個獨立的迷你程式碼庫,方便大家上手體驗。這個項目本質上是nanochat大模型訓練核心的精簡版,被壓縮成一個約630行的單檔案程式碼,並且能在單GPU上運行。整個程式碼庫被刻意設計得非常小巧,核心只有三個檔案:prepare.py - 這個檔案包含固定的常數、一次性的資料準備工作(如下載訓練資料、訓練BPE分詞器)以及執行階段工具(如資料載入器和評估)。此檔案不會被修改。train.py - 這是AI Agent唯一會編輯的檔案。它包含了完整的GPT模型、最佳化器(Muon + AdamW)和訓練循環。從模型架構、超參數、最佳化器到批次大小,一切都可以被AI修改。program.md - 這是為單個AI代理準備的基線指令。人類研究員通過編輯和迭代這個檔案來指導AI。項目的核心機制是,無論你的計算平台性能如何,單次訓練的執行階段長都固定為5分鐘(不包括啟動和編譯時間)。評估指標是val_bpb,即每字節的驗證位元數,這個指標越低越好。由於它與詞彙表大小無關,因此可以公平地比較不同模型架構的變更效果。項目的核心工作流分為兩個部分:人類負責迭代提示詞,即.md檔案。AI智能體則負責迭代訓練程式碼,即.py檔案。Karpathy指出,該項目的目標是設計出能夠無限期、無需任何人工干預,並以最快速度取得研究進展的AI智能體。在實際運行中,智能體在一個Git的特性分支上自主循環工作。每一次完整的模型訓練運行恰好持續5分鐘,在Karpathy分享的圖片中,每一個點都代表一次這樣的訓練。當智能體發現能讓驗證損失更低的更好配置時,比如調整神經網路架構、最佳化器或各項超參數,它就會將這些改進以Git提交的形式累積到訓練指令碼中。通過這種方式,研究人員可以比較不同提示詞或不同智能體帶來的研究進展速度。Karpathy本人形容這個項目是程式碼、科幻和一絲瘋狂的結合體。他還透露,自己仍在nanochat的生產環境中運行一個規模更大的版本。這個加強版智能體正在一個更大的模型上工作,並部署在8塊H100 GPU上。Karpathy表示他會一直讓這個系統持續運行下去。除了PyTorch和少數幾個小包外,沒有其他外部依賴。沒有分佈式訓練,沒有複雜的配置檔案。一塊GPU,一個檔案,一個指標,構成了整個實驗環境。項目地址:https://github.com/karpathy/autoresearch快速上手指南環境要求:一塊輝達GPU(已在H100上測試),Python 3.10+,以及uv包管理器。第一步:安裝uv項目管理器(如果尚未安裝)curl -LsSf https://astral.sh/uv/install.sh | sh第二步:安裝依賴uv sync第三步:下載資料並訓練分詞器(一次性操作,約2分鐘)uv run prepare.py第四步:手動運行一次訓練實驗(約5分鐘)uv run train.py如果以上命令都能正常工作,說明你的環境已經準備就緒,可以進入自主研究模式了。如何運行AI代理你只需在這個程式碼倉庫中啟動你選擇的AI代理,例如Claude或Codex(並停用所有權限),然後可以發出類似這樣的指令:你好,請看一下program.md檔案,我們來啟動一個新的實驗吧!先從設定開始。這個program.md檔案本質上是一種超輕量級的技能指令。平台支援目前,該項目程式碼要求使用單塊輝達GPU。雖然原則上可以支援CPU、MPS等其他平台,但這會增加程式碼的複雜性。Karpathy表示,他目前不確定是否會親自進行這方面的擴展。這個項目主要是一個概念演示,未來會提供多少支援還是未知數。如果需要更廣泛的平台支援,使用者或其AI代理可以參考父項目nanochat,那裡展示了各種解決方案,如Flash Attention 3的備用核心實現、通用裝置支援和自動檢測等。 (AI寒武紀)
MWC圍觀、OpenClaw屠榜!2026 AI變天:從“陪聊”到“幹活”,中國開源模型成全球開發者首選
階躍星辰Step 3.5 Flash霸榜OpenClaw呼叫排行,全球開發者正在“用腳投票”AI新方向。🤖頭圖由AI生成3月2日,西班牙巴塞隆納,持續四天的世界移動通訊大會MWC 2026正式開幕。在春節後的首場全球科技盛會上,中國科技廠商的展檯面前人頭攢動。智東西在逛展時便發現,圍繞人工智慧的新技術新應用,在本屆MWC大會上無處不在。從字節跳動和努比亞合作的“豆包AI”手機到榮耀新發佈的機器人手機,展台都被來自世界各地的參會者圍得水洩不通,他們都想要親自上手體驗,看AI到底是如何操作手機、如何做事的。在同一天,一度讓全球開發者為之瘋狂,連AI大神卡帕西都曾盛讚為“令人驚嘆的科幻級爆發現象”的開源AI Agent助手OpenClaw,已經超越了所有GitHub開放原始碼軟體項目,正式成為史上最受歡迎開放原始碼專案。OpenClaw本質上是一個能直接操作你電腦的AI Agent,開發者們瘋狂地為它接入各種大模型,只為了一個目的:讓AI真的動起來,幫自己幹活。這兩件事看似沒有關聯,但他們都不約而同地反映出2026年AI發展的一個核心趨勢,那就是:AI正在從能聽懂你的話,進化到可以幫你做事了。01. 階躍星辰新模型,憑何成為全球爆火OpenClaw玩家的擁躉?同樣是使用OpenClaw來幹活,活幹得怎麼樣,背後的大模型就至關重要。在知名模型聚合平台OpenRouter上,OpenClaw的呼叫量榜單成了衡量模型“動手能力”的直接體現。就在3月2日,國內大模型頭部創企階躍星辰在2月新開放原始碼的Agent基座模型Step 3.5 Flash單日呼叫量已超過40B,在OpenClaw的呼叫量榜中排名第二,超過Kimi K2.5、Gemini 3 Flash Preview、Claude Sonnet 4.5等一眾國內外主流模型。對於OpenClaw這種需要複雜推理、長時間運行的Agent系統,使用者更加傾向速度快、推理強、成本低的模型。而Step 3.5 Flash恰恰滿足了OpenClaw使用者的痛點。Step 3.5 Flash採用稀疏MoE架構,每個token僅啟動約110億參數(總計1960億),在單請求程式碼類任務上最高推理速度可達每秒350個token。在Agent場景和數學任務上,Step 3.5 Flash的能力逼近閉源模型,能夠勝任複雜、長鏈條任務,是階躍星辰迄今最強的開源基座模型。這款模型一經發佈,便受到大量海外開發者的關注好評,向來低調的階躍星辰研發團隊,罕見現身Reddit r/LocalLLaMA社區回答全球開發者有關Step 3.5 Flash的提問。有開發者提問:在規劃Step 3.5 Flash時,你們是否心中已經瞄準了這個特定的“最佳平衡點”:89 tokens/參數,並且正好卡在消費級硬體規模的上限(128GB 用於 Q4 量化,11B 啟動參數以保證實用的運行速度)?階躍星辰CTO朱亦博回覆稱,團隊的確有明確目標,即讓相關模型能夠運行在128GB記憶體系統中。他發現,目前市場上約230B規模的模型,剛好超出了其個人MacBook Pro裝置4位量化的承受範圍,因此他便要求團隊對模型規模進行了適當縮減。從開發者的角度去研發產品,而不是讓開發者來適應產品。有開發者說,這正是他覺得興奮的地方。有外網網友分享稱,對Step 3.5 Flash的印象很深刻,已經將該模型作為自己OpenClaw的主力Agent。02. 有求必應,階躍星辰Step 3.5 Flash全鏈路“開誠布公”在與階躍星辰研發團隊的溝通中,有開發者希望階躍星辰可以將基礎模型與指令/思考模型一起發佈,這樣社區就可以對它進行微調了。階躍星辰對開發者有求必應,今天,階躍星辰將Step 3.5 Flash的Base 權重、Midtrain 權重、Steptron 訓練框架一同開源,希望通過更徹底的開源,讓開發者能夠以Step 3.5 Flash為基座進行更深度模型定製,打造真正屬於自己的Agent。這一舉動在當前大模型開源趨於保守的環境下,顯得頗為徹底。開源不到 24 小時,海外社區對階躍星辰的進一步開放原始碼的反饋十分熱烈。還有開發者讚歎說,Step 3.5 Flash速度十分驚豔,與OpenClaw的自然相容性也很出色。03. 開發者用腳投票:從應用出發,才能讓AI更好地應用從全球開發者們使用大模型建構Agent的實踐反饋中,我們也可以看出:最近一兩年,AI的核心是“理解使用者”,大模型比拚的是誰更懂人的語義、誰的上下文更長。而2026年的分水嶺在於,AI的核心正在向“執行任務”遷移,比的是誰能讓AI真正操作工具、誰能幫人類做更多的事情。而階躍星辰的技術路線,正是圍繞著“讓AI做事”展開。在階躍星辰團隊與全球開發者的交流中,他們說了這樣一句話:“Step 3.5 Flash的目標,從一開始就是三件事:智能密度、推理與生成速度、Agent 能力。目標清晰後,演算法、資料與基礎設施會自然對齊。”這句話很清晰地反映出了階躍星辰“讓AI做事”的技術路徑。在他們的邏輯裡,一個模型好不好,不再只看它在基準測試上刷了多少分,而是看它能不能在開發者的本地機器上跑起來、跑得快、跑得穩。最近,階躍星辰也登上了央視焦點訪談,首席戰略官李璟在節目中說到,在這半年以來,階躍星辰在AI應用與融入人們生活的方面投入了更多的研發力量,如今的AI正在從“能聽懂你的話”進化為“能幫你做事”。以應用來作為牽引指導多模態的發展,用應用落地的目標倒推基座大模型的研發,是階躍星辰的發展主線。04. 結語:階躍星辰選擇了一條難走但正確的路如果說2025年是國產大模型的“爆發之年”,那麼2026年或將成為AI的“分水嶺”,誰能找準AI落地價值與場景,誰就有可能突出重圍。階躍星辰認準的“應用牽引多模態發展”發展路徑,是一條難走但正確的路,他們認準AI的價值不在於對話,而在於它能走進多少人的生活,能幫人們做到多少事。這或許正是國產大模型從“流量競爭”走向“價值競爭”的一個縮影。喧囂終會退去,真正留下的是那些能紮根場景、解決實際問題的技術。 (智東西)