8張GPU訓出近SOTA模型,超低成本圖像生成預訓練方案開源

超低成本圖像生成預訓練方案來了——

僅需8張GPU訓練,就能實現近SOTA的高品質圖像生成效果。

劃重點:開源



模型名為LightGen,由港科大Harry Yang團隊聯合Everlyn AI等機構打造,借助知識蒸餾(KD)和直接偏好最佳化(DPO)策略,有效壓縮了大規模圖像生成模型的訓練流程。

LightGen不僅顯著降低了資料規模與計算資源需求,而且在高品質圖像生成任務上展現了與SOTA模型相媲美的性能。



圖像inpainting效果belike:



LightGen相較於現有的生成模型,儘管參數量更小、預訓練資料規模更精簡,卻在geneval圖像生成任務的基準評測中甚至超出了部分最先進SOTA模型。

此外,LightGen在效率與性能之間實現了良好的平衡,成功地將傳統上需要數千GPU days的預訓練過程縮短至僅88個GPU days,即可完成高品質圖像生成模型的訓練。

以下是更多細節。

LightGen長啥樣?

文字到圖像(Text-to-Image, T2I)生成任務近年來取得了飛速進展,其中以擴散模型(如Stable Diffusion、DiT等)和自回歸(AR)模型為代表的方法取得了顯著成果。

然而,這些主流的生成模型通常依賴於超大規模的資料集和巨大的參數量,導致計算成本高昂、落地困難,難以高效地應用於實際生產環境。

為瞭解決這一難題,香港科技大學Harry Yang教授團隊聯合Everlyn AI和UCF,提出了LightGen這一新型高效圖像生成模型,致力於在有限的資料和計算資源下,快速實現高品質圖像的生成,推動自回歸模型在視覺生成領域更高效、更務實地發展與應用。


LightGen採用的訓練流程主要包括以下關鍵步驟:

一、資料KD

利用當前SOTA的T2I模型,生成包含豐富語義的高品質合成圖像資料集。

這一資料集的圖像具有較高的視覺多樣性,同時包含由最先進的大型多模態語言模型(如GPT-4o)生成的豐富多樣的文字標註,從而確保訓練資料在文字和圖像兩個維度上的多樣性。

二、DPO後處理

由於合成資料在高頻細節和空間位置捕獲上的不足,作者引入了直接偏好最佳化技術作為後處理手段,通過微調模型參數最佳化生成圖像與參考圖像之間的差異,有效提升圖像細節和空間關係的精準性,增強了生成圖像的質量與魯棒性。

通過以上方法,LightGen顯著降低了圖像生成模型的訓練成本與計算需求,展現了在資源受限環境下獲取高效、高品質圖像生成模型的潛力。



實驗效果如何?

作者通過實驗對比了LightGen與現有的多種SOTA的T2I生成模型,使用GenEval作為benchmark來驗證LightGen模型和其它開源模型的性能。

結果表明,LightGen模型在模型參數和訓練數量都小於其它模型的的前提下,在256×256和512×512解析度下的圖像生成任務中的表現均接近或超過現有的SOTA模型。



LightGen在單物體、雙物體以及顏色合成任務上明顯優於擴散模型和自回歸模型,在不使用DPO方法的情況下,分別達到0.49(80k步訓練)和0.53的整體性能分數。

在更高的512×512解析度上,LightGen達到了可比肩當前SOTA模型的成績,整體性能分數達到0.62,幾乎超過所有現有方法。

特別地,加入DPO方法後,模型在位置精準性和高頻細節方面的表現始終穩定提升,這體現了DPO在解決合成資料缺陷上的有效性

除此之外,消融實驗結果顯示,當資料規模達到約100萬張圖像時,性能提升會遇到瓶頸,進一步增加資料規模帶來的收益很有限。因此,作者最終選擇了200萬張圖像作為最優的預訓練資料規模。



上圖(b)探討了不同訓練迭代次數對GenEval在256與512解析度下性能的影響。

值得注意的是,在256像素階段,僅經過80k訓練步數便能達到相當不錯的性能,這突顯了資料蒸餾方法在訓練效率上的優勢。

團隊表示,未來研究可進一步探索該方法在其他生成任務(如視訊生成)上的應用,推動高效、低資源需求的生成模型進一步發展。 (量子位)