#Github
王興興碩士論文驚現GitHub,宇樹雛形那時候就有了
人火了是連畢業論文都要被翻出來的(doge)。這不,宇樹科技CEO王興興的碩士畢業論文就被網友們掘地三尺找到了。(不在知網,而是在GitHub上找到的。)此時回看這篇近10年前的論文,有兩點頗讓人注意:一是王興興當時大膽押注的電驅式機器人方案,目前已經被業界廣泛接受。當時包括波士頓動力在內的國內外團隊都將研究集中於液壓方案,而現在,這一形式已經發生逆轉。(波士頓動力從去年開始改液壓為電驅)二是宇樹科技(已經估值百億且即將IPO)的開局,其實就是源自論文所提出的那隻名叫XDog的機器小狗。不止王興興本人在多個場合公開提到這只小狗,而且它還被明晃晃擺在宇樹科技展廳的起首位置。當然更重要的是,論文中所蘊含的“性價比”思想後來也幾乎成了宇樹科技的“立身之本”——不談如今已滿大街跑的機器狗,這家公司去年8月發佈的G1雙足人形機器人,更是首次將人形機器人價格下探至10萬元大關(9.9萬元起售)。所以,要問明星獨角獸宇樹科技是如何煉成的?創始人王興興的這篇論文,或許可以找到一些線索。論文已初現機器人“性價比”思維這篇論文完成於2016年,題目為《新型電驅式四足機器人研製與測試》。簡單總結,論文在當時四足機器人普遍遵循的設計準則基礎上,進一步提出了新的設計規則,以提升能效比和運行可靠性。並且基於這些規則,最終給出了小型電驅四足機器人XDog的完整設計方案。為什麼選擇做電驅動的四足機器人?王興興後來在公開採訪中給出了回答:那時候並沒有太多資源和資金,液壓驅動力量雖大但成本很高,電驅動技術方案可以大大簡化機械結構,降低製造成本,會使四足機器人更加普及。成本和普及兩大目標之下,理工科出身的王興興開始自己動手探索電驅四足機器人的設計規則。雖然選擇的道路和主流不同,但好在當時四足機器人技術整體已在快速發展,所以給他留下了大量學習參考資料。基於此,他以MIT Biomimetic Robotics Lab(開源四足狗Cheetah的發源地)提出的四足機器人設計規則為基礎,補充提出了幾條新的設計規則:1)四足機器人腿長腿間距、腿的連桿數及腿佈局的選取;2)四足機器人腿越長越穩、機身質量越大越穩;3)四足機器人邁步頻率越快越穩。其中,在腿部幾何參數設計方面,論文通過對多組模擬模型的對比分析指出——適當增加腿長與腿間距能夠顯著提升步態的動態穩定性和地形適應能力;而連桿數以兩級或三級結構為宜,可在保證關節自由度的同時降低傳動複雜度與能耗;至於腿佈局,則建議採用對稱分佈、髖關節外展式設計,有助於提高側向穩定性並簡化控制演算法。實驗驗證顯示,在這一參陣列合下,四足機器人能夠在更複雜地形中保持穩定行走,並具備更高的機動性與抗擾動能力。為了實際驗證上述結論,王興興接著完成了小型四足機器人XDog的整機研製與運控程序的開發。XDog採用全電驅動設計,每條腿有兩個連桿和三個自由度(整機12個自由度),使用了高功率密度的無刷電機,這些電機直接驅動關節,既保證了足夠的力矩輸出,又實現了輕量化和緊湊性。機身框架由鋁合金和碳纖維材料製成,這樣的結構既堅固又輕便,有助於在高速運動中保持良好的穩定性和能量效率。在運動控制方面,XDog使用了集中式控制演算法,能夠根據步態參數即時調整,以適應不同的行走模式,如行走、奔跑和轉向。控制系統整合了姿態感測器和足端觸覺反饋,結合改進的PD控制和前饋補償策略,提高了機器人的落足穩定性和動態響應性能。實驗結果表明,XDog在多種地形上(如平地、斜坡與碎石地)都能保持穩定行走,最大行走速度為0.6米/秒,續航時間達到30~60分鐘,這初步驗證了設計規則的有效性。最後,為了提高研發速度和質量,王興興還開發了基於ODE(Open Dynamics Engine)的四足機器人運動控制演算法開發工具,並介紹了基於ADAMS/Simulink聯合模擬的四足機器人設計方法。總之,從這篇論文的核心內容來看,XDog的設計在各個層面(技術路線、選材、結構、演算法等)都體現了王興興對“機器人性價比”的不懈追求(研發成本最終只有1~2萬)。他還在論文結尾大膽展望,純電機驅動因其結構簡單、低成本、高可控等優點,未來有望成為中小型四足機器人的主流選擇。後來的發展也證實,他的這一判斷無疑是正確的。別的不說,只需要看看從XDog長出的“宇樹”這棵大樹,你就知道了~90後第一人,從XDog到估值百億的宇樹科技XDog最後拿到了上海機器人設計大賽二等獎(此時距離MIT開源機器狗演算法還有3年時間),而且還獲得了國際電氣與電子工程師協會《科技縱覽》的報導。可以說,成功打響名氣的XDog,自然而然成了王興興叩開成功之門的“敲門磚”。之後不久,王興興就憑藉XDog拿到了200萬元天使投資,並於2016年創辦宇樹科技,自己擔任CEO、CTO。接下來的幾年時間,他帶著公司從頭設計了機器狗需要用到的絕大多數零件,包括電機、3D雷射雷達等,並順勢將頗具性價比的機器狗賣到了世界各地。本以為公司會一直深耕機器狗,結果後來AI來了,於是宇樹從2023年起又開始涉足人形機器人這一新領域。王興興曾在晚點的採訪中透露:馬斯克2021年要做,有人問我們做不做。說實在的,當時沒什麼感覺。人形機器人已經火了很多年,馬斯克做之前,這個方向已經到低谷期。我也沒聽說有人要買(人形機器人),圈子裡都是悲觀態度。讓我決定做的原因是,我越來越相信AI了。2010年時,AI還是低谷,我就非常喜歡神經網路,自己還玩過一點。後來我參加活動也說AI前景很大,但實際上我自己當時不夠相信。很多人現在還是不夠信。雖然起步相對國外較晚,但由於可以直接將做機器狗的經驗遷移到人形機器人上,所以宇樹步子很快,甚至當下已經呈現超車之勢。尤其是今年,其人形機器人自登上春晚扭秧歌一炮而紅後,幾乎每隔一段時間就會因各種炫酷技能出圈。這些熱度反映到資本市場上,宇樹更是迅速成長為一家估值百億的明星具身智能獨角獸公司。而且宇樹官方已經確定即將進行IPO(首次公開募股上市),預計今年10月至12月之間,他們會向證券交易所提交申報檔案,屆時宇樹的相關經營資料也將正式披露。這場IPO也被網友們評為,“機器人領域最受期待的IPO之一”。毫無疑問,從XDog到估值百億,宇樹科技已然成為國內最受矚目的機器人企業之一。而且有意思的是,身為宇樹科技創始人,取得如此成就的王興興,歸來仍不過只有35歲(出生於1990年)。△圖源:宇樹科技官微並且除了年齡,他身上的其他標籤(雙非、英語學渣等)也足夠引人注目。王興興本科畢業於浙江理工大學,後來在上海大學完成碩士學業,入職大疆兩個月後辭職單干,最初創業時公司只有他一個人。相比於受投資者偏愛的名校、大廠、高管背景,90後王興興的成功顯得有些出人意料。雙非本科、英語拉垮的成長經歷,在一抓一大把清北學霸和天才少年的具身智能領域,是沒什麼競爭力。而現在,他卻已經成為了中國具身智慧型手機器人領域最具標誌性的人物。可以說,這位90後創業者用自身經歷告訴我們:AI時代非常公平,只要聰明,願意做事,荒漠中終會長出參天大樹。(這也是王興興在2025外灘大會上給其他創業者的寄語)One More Thing王興興火了之後,很多人好奇大佬平時都在看那些書籍。剛巧浙江理工大學(本科母校)也公開了其本科期間的圖書借閱記錄,一共120本左右。(左右滑動查看)王興興本人看到後,還特意提到了自己印象最深刻的一本——《遊戲程式設計中的人工智慧技術》(沒數錯的話應該是7次)。以及無人在意的角落,網友們還發現了一個華點(doge):(量子位)
Karpathy「瘋狂之作」:100美元、4小時,就能訓練你自己的「小型GPT」
【新智元導讀】AI傳奇人物、前特斯拉AI總監Karpathy重磅推出全新開放原始碼專案「nanochat」,以不到8000行程式碼復現ChatGPT全流程,只需一台GPU、約4小時、成本僅百美元。該項目在GitHub上線不到12小時即獲4.2k星標!AI傳奇人物、前特斯拉AI總監Karpathy宣佈發佈全新項目nanochat!一個極簡但完整的「從零建構ChatGPT」訓練框架。Karpathy說這是他寫過的最瘋狂的項目之一!相當於每個人都可以自己擁有一個專屬的ChatGPT。項目剛放出還不到12個小時,GitHub星標就破4.2kStar!(還在持續瘋漲中)GitHub項目:https://github.com/karpathy/nanochat全是社區自來水流量,這就是Karpathy在AI領域的號召力!與早期的nanoGPT不同,nanochat不僅涵蓋預訓練,還囊括了從資料準備、預訓練、中期訓練(對話、多項選擇題、工具使用)、SFT、RL微調到推理部署的全流程。整個系統僅約8000行乾淨程式碼,啟動一台GPU機器、運行一條指令碼,4小時後你就能在網頁介面與自己訓練的「小ChatGPT」對話。Karpathy將其稱為LLM101n的「壓軸之作」,同時也可能成為未來研究基線和開源社區的實驗平台。讓我來仔細看看如何僅僅用8000行來「克隆」ChatGPT:使用全新的Rust實現訓練分詞器在FineWeb上對TransformerLLM進行預訓練,評估多個指標下的CORE分數在來自SmolTalk的使用者-助手對話、多項選擇題、工具使用資料上進行中期訓練進行SFT,在世界知識多項選擇題(ARC-E/C、MMLU)、數學(GSM8K)、程式碼(HumanEval)上評估聊天模型使用「GRPO」在GSM8K上對模型進行強化學習微調(RL)在帶有KV快取的引擎中實現高效推理,簡單的預填充/解碼,工具使用(在輕量級沙箱中的Python直譯器),通過CLI或類ChatGPT的網頁介面與其互動。撰寫一份單一的Markdown成績單,總結並將整個過程遊戲化。項目全程花費低至約100美元(約在一台8XH100節點上訓練4小時)。可以訓練、克隆一個可以對話的小型ChatGPT,它能創作故事/詩歌、回答簡單問題。只需要訓練約12小時即可超過GPT-2的核心指標。隨著進一步擴展到約1000美元(約41.6小時訓練),模型會迅速變得更連貫,能解決簡單的數學/程式碼問題並做多項選擇題。訓練24小時的模型(其FLOPs大致相當於GPT-3Small125M,約為GPT-3的1/1000)在MMLU上能進入40分段,在ARC-Easy上進入70分段,在GSM8K上進入20分段等。總結一下就是:100美元→可訓練出一個能寫詩、回答基礎問題的OpenAI同款「小型ChatGPT」;1000美元→達到近GPT-2以上的表現,可做基礎推理與程式碼生成。這個項目體現出他的核心理念:「降低 LLM 研究與復現門檻,讓每個人都能親手訓練自己的模型。」這種民主化路線,與他在nanoGPT時期倡導的「從零實現Transformer」如出一轍。項目地址:https://github.com/karpathy/nanoGPTKarpathy說他的目標是把完整的「強基線」棧整合到一個連貫、極簡、可讀、可修改、可最大化派生的倉庫中。nanochat將成為LLM101n(仍在開發中)的壓軸項目。Karpathy認為nanochat也有可能發展成一個研究工具或基準,就像之前的nanoGPT一樣。nanoGPT教你造大腦,nanochat教你造ChatGPT。如果說nanoGPT是「Transformer原始碼教學項目」。那麼,nanochat則是「LLM生態系統微縮版」、OpenAI同款、你的專屬AI。二者關係可理解為「從神經網路基礎到產品級對話系統」的兩步閉環。從Vibe Coding到nanoGPT,再到如今的nanochat,Karpathy不愧是「AI教育者」的最佳代言人。這一「瘋狂之作」並非狂想,而是Karpathy對AI開放、可學習、可復現理想的又一次踐行。小型ChatGPT效果展示Karpathy在WebUI部署了nanochat項目。他還給出了「與價格為100美元、運行4小時的」nanochat的示例對話。很……有趣!下面這張圖展示的是Karpathy在nanochat「$100速度跑」實驗(即只用一台GPU、約4小時訓練出的ChatGPT 小模型)中生成的「成績單」部分內容,說明模型規模、訓練耗時、以及在各類標準評測上的性能。Characters: 333989 —— 程式碼總字元數。Lines: 8304 —— 大約 8300 行乾淨、註釋良好的程式碼。Files: 44 —— 工程檔案數量。Tokens: 約83,497 —— 程式碼中的token數(大致對應8萬詞)。Dependencies: 2004行uv.lock依賴清單 —— 表明依賴極少、項目結構輕。這些數字展示了nanochat的「極簡」精神:完整實現了 ChatGPT 的訓練、微調與推理,卻仍保持在8000行程式碼以內。(新智元)
阿里Qwen3深夜開源!8款模型、整合MCP,性能超DeepSeek-R1,2小時狂攬16.9k星
開源大模型新王!Qwen3連發8種規格支援119種語言。阿里通義大模型新成員Qwen3系列模型終於亮相!智東西4月29日報導,今日凌晨4點,阿里雲正式開源Qwen3系列模型,包含2個MoE模型、6個稠密模型。發佈2小時,Qwen3模型在GitHub上的star數已超過16.9k。其中旗艦模型Qwen3-235B-A22B,在程式設計、數學、通用能力等基準評估中的表現優於DeepSeek-R1、OpenAI o1、OpenAI o3-mini、Grok-3和Gemini-2.5-Pro等業界知名模型。此次全新升級的Qwen3系列有以下5大關鍵特性:8種參數大小的稠密與MoE模型:0.6B、1.7B、4B、8B、14B、32B和Qwen3-235B-A22B(2350億總參數和220億啟動參數)、Qwen3-30B-A3B(300億總參數和30億啟動參數);引入混合思考模式:使用者可切換“思考模式、“非思考模式”,自己控制思考程度;推理能力提升:在數學、程式碼生成和常識邏輯推理方面超越QwQ(在思考模式下)和Qwen2.5 instruct models(在非思考模式下);支援MCP(模型上下文協議),Agent能力提升:可以在思考和非思考模式下實現大語言模型與外部資料來源和工具的整合,並完成複雜任務;支援119種語言和方言:具備多語言理解、推理、指令跟隨和生成能力。目前,Qwen3系列模型已在Hugging Face、ModelScope和Kaggle等平台上開源,均遵循Apache 2.0許可證。在部署方面,其部落格提到,建議開發者使用SGLang和vLLM等框架,並推薦本地部署的開發者使用Ollama、LMStudio、MLX、llama.cpp等工具。值得一提的是,Qwen3模型採用了不同的命名方案,後訓練模型不再使用“-Instruct”後綴,基礎模型的後綴是“-Base”。體驗地址:https://chat.qwen.ai/部落格地址:https://qwenlm.github.io/blog/qwen3/GitHub地址:https://github.com/QwenLM/Qwen3Hugging Face地址:https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f01.以小搏大!啟動參數僅1/10 實現性能反超6個稠密模型中,0.6B~4B參數規模的模型上下文長度為32K,8B~32B參數規模的模型上下文長度為128K。2個MoE模型的上下文長度均為128K。小型MoE模型Qwen3-30B-A3B,在啟動參數是QwQ-32B的1/10的情況下,實現了性能反超。且參數規模更小的Qwen3-4B模型,實現了與Qwen2.5-72B-Instruct的性能相當。其他基準測試評估結果顯示,Qwen3-1.7B/4B/8B/14B/32B-Base的性能分別與Qwen2.5-3B/7B/14B/32B/72B-Base相當。其部落格還特別提到,在STEM、程式設計和推理等領域,Qwen3稠密模型的性能甚至優於參數規模更大的Qwen2.5系列模型。▲Qwen3系列與Qwen2.5系列基準測試對比02. 引入混合思考模式支援119種語言、MCP協議Qwen3系列模型的關鍵特性包括引入混合思維模式、支援119種語言和方言、整合MCP協議以提升Agent能力。其中,混合思維模式指的是支援思考和非思考兩種模式。思考模式下,模型會逐步推理,花費時間給出最終答案,這適用於需要深入思考的複雜問題;非思考模式下,模型提供快速、幾乎瞬間的響應,適用於對響應速度敏感的問題。▲思考和非思考模式對比這使得使用者可以根據任務需求控制模型進行的“思考”程度。例如,對於更難的問題可以使用擴展推理來解決,而對於較簡單的問題則可以直接回答,無需延遲。此外,這兩種模式的整合還增強了模型實施穩定和高效思考預算控制的能力,這種設計使使用者能夠組態特定任務的預算,平衡實現成本效率和推理質量。在多語言方面,Qwen3模型支援119種語言和方言。此外,Qwen3系列模型在程式設計和Agent能力方面性能提升,整合了MCP協議。03. 預訓練資料集翻番 模型兼顧逐步推理、快速響應與Qwen2.5相比,Qwen3的預訓練資料集大小翻了兩倍。Qwen2.5在1800億個token上進行預訓練,Qwen3基於大約3600億個token進行預訓練。為了這一大型資料集,研發人員收集了網路資料、PDF文件資料等,然後使用Qwen2.5-VL從這些文件中提取文字,並使用Qwen2.5提高提取內容的質量。同時,為了增加數學和程式碼資料量,研發人員使用了Qwen2.5-Math和Qwen2.5-Coder來生成教科書、問答對和程式碼片段等合成資料。預訓練過程分為三個階段:在第一階段,模型在超過3000億個token上進行了預訓練,上下文長度為4K個token。這一階段為模型提供了基本語言技能和一般知識;在第二階段,其通過增加STEM、程式設計和推理任務等知識密集型資料的比例來改進資料集,並讓模型在額外的500億個token上進行預訓練;第三階段,研發人員使用高品質的長上下文資料將上下文長度擴展到32K個token,使得模型可以處理較長的輸入。在後訓練階段,為了開發既能逐步推理又能快速響應的混合模型,研發人員採取了四階段訓練流程:思維鏈(CoT)冷啟動、基於推理的強化學習、思維模式融合、通用強化學習。第一階段,其使用多樣化的長思維鏈資料微調模型,涵蓋各種任務和領域,如數學、程式設計、邏輯推理和STEM問題,這個過程旨在使模型具備基本的推理能力。第二階段專注於擴大強化學習的計算資源,利用基於規則的獎勵來增強模型的探索和利用能力。第三階段,通過在長思維鏈資料和常用指令微調資料組合上微調,將非思考能力整合到思考模型中。這些資料由第二階段增強的思考模型生成,確保推理能力和快速響應能力的無縫融合。第四階段,其將強化學習應用於超過20個通用領域任務,包括指令遵循、格式遵循和Agent能力等任務,以進一步增強模型的一般能力和糾正不良行為。04. 結語:Agent生態爆發前夜最佳化模型架構和訓練方法推進智能升級通過擴大預訓練和強化學習的規模,可以看到Qwen3系列模型以更小的參數規模實現了更高的智能水平,其整合的混合思考模式,使得開發者能更靈活控制模型預算。研發人員還提到,未來其將圍繞以下幾個維度繼續提升模型能力:最佳化模型架構和訓練方法,以實現擴展資料規模、增加模型大小、延長上下文長度、拓寬模態的目標,並通過環境反饋推進長期推理的強化學習。如今,AI產業正從關注模型訓練的時代過渡到一個以訓練Agent為中心的時代,未來大模型能力的實際應用價值將逐漸被放大,通義大模型系列也正以此為目標繼續推進升級。 (智東西)
看不懂GitHub程式碼?剛剛這個AI工具讓全球每個GitHub專案開口說話
還記得那個號稱全球首位AI 軟體工程師Devin 嗎?它的創造者Cognition Labs公司剛剛推出了一個名為 DeepWiki 的計畫。簡單來說,這是一個目標宏大的計畫:為全世界每一個GitHub 程式碼倉庫(Repo)提供可以即時交流、即時更新的文檔你可以把它想像成一個由Devin 技術驅動的、專門針對GitHub 的「深度研究」工具亮點:免費、免註冊、即時可用最關鍵的是,對於開源項目,這項服務完全免費,甚至無需註冊怎麼用?非常簡單:造訪 deepwiki.com,探索已經收錄的熱門開源專案的Wiki或者,更直接的方式:把你正在瀏覽的任何GitHub 倉庫URL 中的 github.com 替換成 deepwiki.com,即可無縫跳到該倉庫的DeepWiki 頁面能做什麼?對話式檔案: 你可以直接向程式碼庫“提問”,DeepWiki 會嘗試理解你的問題並給出檔案級的解答深度研究(Deep Research): 對於複雜問題,可以開啟此功能,讓AI Agent 進行更深入的分析與回答按需索引: 如果你關心的公開倉庫還沒被收錄,可以請DeepWiki 為你索引私有倉庫支援: 對於私有倉庫,可以透過註冊 Devin 帳戶(devin.ai)來獲得服務輕鬆分享: 產生的Wiki 頁面和問答結果都可以透過連結分享,方便團隊成員保持資訊同步投入與規模Cognition Labs 為了DeepWiki 可謂投入巨大:已索引約 3 萬個 GitHub 倉庫處理了超過 40 億行程式碼索引過程的計算成本就超過了 30 萬美元總計處理了超過 1000 億個 Token據稱,平均索引一個倉庫的成本約為12 美元,但目前對所有開源專案完全免費開放技術探秘:理解全域結構與提交歷史我們知道,LLM 理解局部程式碼的能力已經很強,但要掌握龐大程式碼庫的全域結構是真正的困難。 DeepWiki 的核心技術正是為瞭解決這個問題:層級化系統分解: 它首先將程式碼庫分解成一個層級化的高階系統(high-level systems)結構系統級Wiki 產生: 然後為每一個識別出的系統產生對應的Wiki 頁面,建構出整個專案的知識圖譜此外,DeepWiki 還利用了一個非常有價值的訊號:程式碼提交歷史(commit history)。透過分析「那些檔案經常被那些開發者一同修改」(這可以表示成一個圖),DeepWiki 能夠挖掘出程式碼庫中隱藏的模式、模組邊界和開發者協作關係,這些都是理解複雜專案的關鍵訊息寫在最後目前,DeepWiki 網站上已經有 3 萬個倉庫的Wiki 可供探索。對於開發者來說,尤其是面對龐大、複雜的開源專案時,DeepWiki 無疑提供了一個強大的新工具,有望極大提升程式碼理解效率,降低學習和參與門檻比較好奇DeepWiki背後使用的模型,哈哈 (AI寒武紀)
驚到了!Cursor、Manus等多款爆品提示詞遭駭客洩露,Github上瘋漲2萬星,VSCode也中招了
近日,Github上有一個項目猛漲2萬星,內容竟然是Cursor、Manus、Windsurf、Devin、VSCode Agent、Codex等知名爆款產品或智能體功能的核心秘密:系統提示詞。近日,Github上有一個項目猛漲2萬星,內容竟然是Cursor、Manus、Windsurf、Devin、VSCode Agent、Codex等知名爆款產品或智能體功能的核心秘密:系統提示詞。項目中並沒有詳細介紹獲得系統提示詞的方法。這個項目的作者自稱lucknitelol,X帳號:NotLucknite這個項目是由這些AI編碼工具的系統提示詞的json檔案集錦組成,超過6,500 行關於其結構和功能的見解分析。截至目前已有24700+星,7.7k分叉,目前仍在瘋漲。項目中還提醒:如果你是一家人工智慧初創公司,請確保你的資料安全。暴露的提示或人工智慧模型很容易成為駭客的目標。連結:https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools這裡列一下Cursor的系統提示詞(不知道真假):You are a powerful agentic AI coding assistant, powered by Claude 3.7 Sonnet. You operate exclusively in Cursor, the world's best IDE.You are pair programming with a USER to solve their coding task.The task may require creating a new codebase, modifying or debugging an existing codebase, or simply answering a question.Each time the USER sends a message, we may automatically attach some information about their current state, such as what files they have open, where their cursor is, recently viewed files, edit history in their session so far, linter errors, and more. (51CTO)
決戰鴻蒙!微軟“斷供”華大基因辦公軟體,國家下場力推鴻蒙!
全球科技產業在川普的攪和之下,已經成為事實上的“脫鉤斷鏈”;而中國國產科技產業始終“缺芯少魂”所困擾。所謂的“芯”主要就是中國國產先進製程晶片從設計、製造再到封測的完整產業鏈的完全自主性,在近些年的不懈努力之下正在形成突圍之勢;但“魂”的問題,也就是整個消費電子產業的作業系統及軟體生態,由於需要搭建一個完整的生態,幾乎涉及到我們每個人,因此可以說中國國產軟體生態的搭建更為迫切。一、接連不斷的軟體“斷供”可能大家都注意到,最近Google、微軟等全球巨頭連續發生針對中國企業或開發者的“封鎖”事件。如4月13日全球程式碼託管平台GitHub,中國中國開發者在未登錄狀態下,頁面顯示“Access to this site has been restricted”(該 IP 地址受到訪問限制)的 HTTP 403 錯誤提示。詳見:開源垮塌?封禁中國IP,全球最大程式碼託管平台是“無心”,還是“有意”?更有甚者,近日,日本媒體《日經亞洲評論》爆料,美國科技巨頭微軟不再向中國基因研究公司華大基因提供辦公軟體應用程式,包括電子郵件服務。內部郵件稱,包括Word、PowerPoint、Excel和Teams在內的許多Office 365服務都無法再對華大基因員工開放。根據多方管道此消息已經證實,甚至微軟還同步終止了華大基因人工智慧服務如GitHub Copilot和OpenAI的ChatGPT介面。微軟斷供華大基因的理由是其在美國所謂“實體清單”之中。據瞭解,2020年,美國政府以所謂人權問題為由將華大基因旗下兩家公司列入實體清單;2021年,美國國防部將華大基因等134家中國企業列入所謂“涉軍清單”;2023年,美國商務部又以威脅美國家安全為由,將華大基因旗下深圳華大生命科學研究院等三家機構列入實體清單。既然華大基因被斷供,那中國數百家(美國商務部工業與安全域通過多次更新實體清單,累計將超過300家中國企業列入其中。)被美國列入各類實體清單的企業和個人,是否也將遭遇類似情況?目前尚未得到消息!二、微軟掌控全球軟體生態但我們知道微軟現在是全球最大的軟體企業,不僅牢牢壟斷了全球PC作業系統(Windows)和全球辦公系統(Office系統);而且上述提到的GitHub也於2018年被微軟以75億美元的價格收入囊中。同時,微軟還主導了Python  偵錯程式、C/C++ 語言服務、Jupyter、Pylance、Python 語言服務、Azure 工具、Data  Wrangler、Jupyter 快速鍵對應,甚至還有 JavaScript 和 TypeScript 的語言服務;加上微軟擁有的GitHub和  npm。不客氣的說,微軟可以說是掌控了全球整個軟體開發工具生態。也就是說,微軟作為全球軟體產業的基石,其對於全球軟體生態具有不可替代的作用。但其在地緣政治的壓力之下,正在做出“有違正常企業經營”的一些行為。這意味著儘管微軟否認全面退出中國,但其“默默脫鉤”的趨勢已顯而易見。正如業內人士所言:“微軟沒走,只是在一點點切割。”在此情況之下,中國國產軟體生態需要加快建設;相對而言,由於中國國產PC生態時間足夠長,目前在PC作業系統和辦公軟體系統都具備成熟中國國產替代的產品。但在智能終端以及物聯網終端則更依然嚴重依賴Linux、Android等。三、力推鴻蒙,決戰軟體生態為此,4月18日工信部明確要“推動更多APP上架鴻蒙應用程式商店”,並通過政策引導鼓勵開發者適配,但並未強制要求所有應用立刻相容。無疑工信部的公開發聲,將進一步按下鴻蒙生態成長的“加速鍵”;但也反映了當前鴻蒙生態挑戰依然不小。自從去年正式推出“純血鴻蒙”以來,目前開源鴻蒙生態已覆蓋超10億裝置,涉及能源、醫療、工業等領域,社區共建單位超70家,形成了“礦鴻”“電鴻”“移鴻”“警鴻”等垂直解決方案;這些都為更多的應用適配打下了基礎。鴻蒙的分佈式架構能實現手機、汽車、家電的無縫協同,新發佈的鴻蒙AI智慧屏可即時聯動70萬輛鴻蒙智行汽車,這種跨終端體驗是Android/iOS難以複製的。但顯然中國國產作業系統的突圍,關鍵在生態而非技術。然而生態的建設需要時間,華為希望在2025年突破10萬應用;但截止目前鴻蒙原生應用和元服務超過16,000個,覆蓋便捷生活、社交資訊、生產力工具、影音遊戲等18個垂直領域。從現在進展情況來看,顯然未達預期。這也是工信部親自下場為鴻蒙“喊話”的原因之一。當然,從普通使用者而言,改變使用習慣一方面需要時間,另一方面需要有遷移的動力。這種動力來自那兒呢?來自於爆款應用帶動,以及豐富多元的應用;就如當年微信加速了移動網際網路時代的來臨一樣。因此,在當前外部環境不確定愈發強烈,以及中美“脫鉤斷鏈”都在加速的情況之下,代表中國國產先進作業系統的鴻蒙已然成為萬物互聯的數字底座。再加上工信部的背書,已經釋放一個明確的訊號:未來無論是大廠、創業團隊,還是開發者個人,都要盡快擁抱鴻蒙,擁抱開源。可以說,這就是中國國產作業系統、中國國產軟體生態的一次決戰,退無可退! (飆叔科技洞察)