#魏新宇
2025/03/14
•
DeepSeek爆火後的新Scaling Law究竟是什麼?
DeepSeek R1的發佈在全球人工智慧領域引發了巨大反響。這款由中國初創企業DeepSeek推出的低成本、高性能AI模型,打破了人們對AI研發“高投入、長周期”的固有認知,被西方媒體譽為“人工智慧的斯普特尼克時刻”。 DeepSeek的“奇蹟”有目共睹。其應用上線僅20天,日活躍使用者數就突破了2000萬,而ChatGPT達到同樣的日活量則耗時150天之餘。不僅如此,DeepSeek的開源路線也廣受好評,R1成功登頂開源平台“抱抱臉”最受歡迎模型,還以一己之力開啟了一波開源熱潮,影響不僅波及國內模型廠商,還促使OpenAI的Altman也放出了開源計畫。 另一個近期AI圈的熱點,則是千呼萬喚始出來的GPT-4.5。在“大模型撞牆論”甚囂塵上之際,OpenAI官方承認,GPT-4.5的優勢在於規模龐大,儘管模型參數量級擴張,但性能並未達到前沿水平。這迫使我們正視:在AI領域,新的時代已經開始。 為此,AIGC實戰派特別邀請了微軟(中國)有限公司高級架構師周博洋和AI技術專家魏新宇,就DeepSeek出現後值得關注的熱門話題進行了深入討論和解讀。有趣的是,兩位專家達成了一個共識:預訓練時代並未終結,然而,新的Scaling Law已經誕生。