网站公告: 诚信为本:市场永远在变,诚信永远不变。
咨询热线

400-123-4567

THE LATEST INFORMATION

| 九天资讯 |

[Kohya_ss] 訓練優化器與超參數

时间:2024-08-26 06:03:24
  

說在最前面的,在 Lora 訓練當中,各種優化器(Optimizer)都有自己專屬的超參數(Hyperparameter)。對於模型訓練而言,超參數的影響並不會非常巨大,所以,在你決定調整超參數之前,請先確保你的模型已經足夠好了。不然花在這上面的時間,很可能會是浪費掉的。


在本次的紀錄當中,我所使用的 Kohya_ss 的版本是 ,所以若你想要參考本次文章的內容,請先確保你所使用的版本跟我是一樣的。


目前在 Kohya_ss 當中,目前有支援以下的優化器可以使用:

  • AdamW
  • AdamW8bit
  • Adafactor
  • Dadaptation
  • DadaptAdaGrad
  • DadaptAdam
  • DadaptAdan
  • DadaptAdanIP
  • DadaptAdamPreprint
  • DadaptLion
  • DadaptSGD
  • Lion
  • Lion8bit
  • Prodigy
  • SGDNesterov
  • SGDNesterov8bit

我是很想跑完上面所有的優化器,但是我沒有那麼多時間,所以我只跑了幾個我比較常用的優化器,

  • AdamW8bit
  • Adafactor
  • Dadaptation
  • Lion

如果你想要知道其他優化器的結果,可以自己跑一下,或是等我有空的時候再來更新。上面四個我比較慣用也常用的優化器,在 Pytorch 或原始碼裡面都可以查到屬於他們自己的超參數。

基本上他就是 AdamW 的 版本,常見訓練可用的超參數有:



這個自動學習率的優化器,使用的是 Huggingface transformer 的版本,常見訓練可用的超參數有:



這是 Facebook 推出的優化器,他有一系列的相關優化器。我這邊僅提出 ,常見訓練可用的超參數有:


附帶一題,在 Kohya_ss 當中,使用 跟 是一樣的。另外,好像有單純設定 的說法,基本上這樣沒有意義,因為 預設是 。

這是 Google 所提出的優化器,常見訓練可用的超參數有:



首先,你會看到幾乎每個優化器都有 這個東西可以設定,他是一種類似 L2 正規化()的作用參數,在 AdamW 新的實作中已經把 修正為 的作用(在 Adam 當中並不是等價的)。具體 L2 正規化可以參考這一篇文章 L1 , L2 Regularization 到底正則化了什麼 ?。畢竟我不是專業的,所以有興趣的人請自行參考。

這個參數可以讓你的訓練稍微的不會那麼爆炸,但每一組優化器所使用的數值並不一定相同,基於這麼多訓練的結論,以下數字可參考,但非絕對,

請注意,以上數字僅供參考。

這個數字亂設定會怎樣?舉例來說,倘若我在 把 這樣,跑了 3,000 步的訓練,你會發現你訓練出來的結果好像沒訓練過一樣。


這個數字更偏向玄學,基本上會依照預設,或是論文建議的方向來使用。根據 Adam 這篇論文提到的 1 與 2 的描述來看,降低他們會減緩學習速度,但增加訓練步數並不會讓學習變好(可能會變得更糟)。所以,我們可以把 1 與 2 使用預設會是一個比較好的起點。

以下是我訓練時所使用的數字,僅供參考,

請注意,以上數字僅供參考。


目前 Kohya_ss 除了支援分層訓練外,部分基本模型中也支援 Scale weight norm ,或是 Network dropout, Rank dropout, Module dropout 等等。關於 Scale weight norms, Network dropout 可參考 PR#545 的說明。最主要的目的就是拋棄訓練的部分權重跟神經元,讓訓練可以更加多樣化,避免過度擬合的情況。

如果你不知道這些東西是什麼,請不要使用,讓他維持預設的 就好了。


目前比較常使用的 相信大家都沒什麼問題。你可以使用 Unet Learning rate 來當作一個開始,至於 Text Encoder learning rate 則可使用 來開始。以下是我在 慣用數字,

  • Unet Learning rate:
  • Text Encoder learning rate:

請注意,以上數字僅供參考。

至於步數,基本上在 至 之間跳動,端看訓練集的資料大小而決定。另外,有一件事情還是得說明一下,


以上兩件事情訓練出來的模型並不等價,我會建議使用 後者,簡單來說,就是要 訓練 10 次 完整的訓練集,箇中差異你可以自己實驗看看。

自動學習率的 則是將 Unet/Text Encoder 都寫 讓他自己去跑,至於產出的結果,就會跟你的訓練集、總步數的部分有關。

而 則還是得設定 Unet/Text Encoder,也有人建議使用 ,但是這個數字取決於你的訓練集、總步數的設計。如果你的總步數偏低(若約 步),那麼你可以使用 來開始,然後依照產出的結果慢慢調整(看是要調高、或是調低),步數高的話,可以從 開始(如果是 步的話)。

至於 則比較敏感一點,我目前在 所使用的 Unet 學習率約從 開始往下降(也是有調高的例子),然後,因為基於 Lion 論文所述,所以相較於 的設計,根據 LyCORIS 的作者所述,他需要大概 4 倍左右的 Batch Size 來運作才能獲得差不多的結果。

所以,在 的訓練中,我使用 Total Batch Size 為 的情況下,我在 會設定為 來跑相關訓練。


以下是以四種優化器,除了學習率、超參數與 設定不同(針對 )外,其餘設定皆相同,訓練步數為 3,004 步( 因為 為 的關係,總步數僅 751 步),不使用正規化資料集。四種優化器的訓練時間平均約為 28 分鐘( 雖然因為設定的關係步數減少了 1/4,但是總訓練時間不變)。

    • Unet/Text Encoder 學習率
    • 超參數
    • Unet/Text Encoder 學習率
    • 超參數
    • Unet 學習率
    • Text Encoder 學習率
    • 超參數
    • Unet 學習率
    • Text Encoder 學習率
    • 設定為
    • 超參數
四個訓練權重比對

這是訓練記錄圖表,

四個訓練 Tensorboard 記錄圖表

橘色的是 ,紅色的是 ,淡藍色的是 ,綠色的是 。因為 使用與 相同學習率,所以學習率圖表是重疊的。

不要問我為何學習率不同,Loss 走勢看起來都很像,當你練壞上百個就會知道了。

至於穩健性,由於沒有使用正規化資料集,所以目前無法判斷倒底是好還是不好。泛型?你換一下髮色就知道了。

更換髮色

這樣跑一次下來,你就會知道在這麼短的訓練步數中,你若是要快速擬合,就不要任意更動超參數(雖然有些調整確實可以避免過擬合發生),但是在無法確認是否對於你的訓練資料集有幫助的情況下,能照預設值,就用預設值就好了。

真的要說以 超參數優化,也不是不行,但就是得花時間調教跟測試,

Dadaptation 後續優化

上圖的 總步數用 Epochs 去換,大概是原有的 2 倍,共 8 個 Epoch,學習率在 左右,並且放入平衡步數後的正規化資料集。

由於正規化資料集的緣故,步數會再 2 倍,此時所使用的超參數為:

同樣都是使用 ,針對總步數、學習率搭配超參數做調整,同樣的資料集下,就能得到相當不錯的結果。


以目前這麼多優化器可以選擇的情況下,扣除資料集的準備(目前先不論正規化資料集),剩下的就是各種設定的選擇。如果你的資料集只有一個概念,約 20 張照片(無論風格、人物),那麼以下的訓練參數可以當作一個開始。

  • 資料夾設定為 。
  • 換算下來你的 Repeats 為 。
  • Folder 裡面的 Logging folder 填寫一個資料夾來儲存訓練的 Log 記錄(給 Tensorboard 使用)。
  • LoRA type 為 。
  • Total batch size 。
  • Epoch 設定為 。
  • 換算下來,總步數為 步。
  • 優化器選擇 。
  • Unet/Text Encoder Lr 都寫 。
  • LR Scheduler 使用 。
  • LR warmup (% of steps) 使用 。
  • 填寫 。
  • Network Rank (Dimension) 。
  • Network Alpha 設定 。
  • Additional parameters 設定 ,使用 ARB(如果你圖片尺寸沒有特別處理過)。
  • 如果你要訓練人臉的話,Additional parameters 增加設定 。
  • Clip skip 設定 ,若訓練真人模型可設定 。
  • 以下選項打勾 , , , 。
  • 若訓練目標有特殊特徵不可翻轉,就不要打勾,如果沒有建議你勾起來試試看。
  • Min SNR gamma 使用論文推薦 。

其他的都不需要更動,然後就可以開始訓練。開始之後,可以去啟動 Tensorboard,就能看到訓練的 Log 圖表。至於圖表的部分我就不多做解釋了,最主要的是要看看你有沒有訓練到爆炸的情況,如果有的話,就要調整一下訓練參數(或是重開 Kohya_ss)。如果沒有的話,那麼就可以繼續訓練,等到訓練完畢之後,就可以開始測試看看訓練結果了。

另外,有一種狀況是你訓練感覺沒事,然後 Lora 不能用的情況。你在 SD 套用 Lora 的時候他跟你說這些訊息,


這個多半是練壞掉(),但圖表可能會沒事。


在使用 或 後,若是想要繼續優化模型,是可以改為 繼續訓練,參數的部分可以把學習率降低為原本的 1/3 或 1/10 甚至更低,然後繼續訓練,這樣可以讓模型更加穩定,但是 Epoch 數量增高,代表步數會更多,訓練時間會更長。

一切都是用大把時間換來的結果,就看是不是有那個需要了。

地址:广东省广州市天河区99号   电话:400-123-4567
版权所有:首页-九天娱乐-注册登录站    
ICP备案编号:琼ICP备xxxxxxxx号

平台注册入口