#DiLoCo縮放定律
2025/03/18
•
資料平行訓練要OUT?Google三大研究團隊合力推出“DiLoCo縮放定律”,打開AI訓練新大門!
進一步改善AI大模型訓練方式。 Google團隊的一篇最新論文或將揭開下一代AI大模型訓練新範式。 這是一篇關於語言模型訓練方式的論文,由GoogleResearch、GoogleSearch和GoogleDeepMind三大團隊人員合力完成,他們提出了一種“DiLoCo的縮放定律”,可使語言模型訓練具有可靠且穩健的擴展性。 論文第一作者、GoogleAI分佈式機器學習研究員Zachary Charles表示:“這是分佈式訓練在越來越大的模型上發揮作用的關鍵一步,我們可以跨資料中心進行LLM訓練,並且能夠很好地擴展到越來越大的模型!”