ガジェットと雑談@信濃まつもと

独自サーバーに書いていた物をはてなに移行。独自サーバーの方でガジェットと経済の記事を書くサイトをはじめました。

Stable Diffusionのモデル学習、Loraにおけるオプティマイザーの説明。

optimizer_typeは、トレーニング時に使用する最適化アルゴリズムの種類を指定するパラメータです。ここで、optimizer_typeについて簡単に説明します。

 

AdamW:

AdamWは、一般的なAdam最適化アルゴリズムの亜種で、オーバーフィッティングを防ぐためにウェイト・ディケイ正則化が含まれています。

 

AdamW8bit:

AdamW8bitは、AdamWの亜種で、8ビット量子化を使用してメモリ使用量を削減し、低精度演算を行うハードウェアでのトレーニングを高速化します。

 

Lion:

Lionは、ディープニューラルネットワークの学習に適応的な学習率を使用する、勾配ベースのオプティマイザです。Google Brainによって開発され、大規模な分散システムでうまく動作するように設計されています。

 

SGDNesterov:

Stochastic Gradient Descent with Nesterov momentumは、人気のあるStochastic Gradient Descent最適化アルゴリズムの亜種で、運動量項の勾配に基づく追加項を組み込んでいます。これにより、収束を早め、最適化性能を向上させることができます。

 

SGDNesterov8bit:

SGDNesterov8bitはSGDNesterovの亜種で、8ビット量子化を使用してメモリ使用量を削減し、低精度演算を行うハードウェアでのトレーニングを加速させます。

 

DAdaptation:

DAdaptationは勾配ベースのオプティマイザで、学習セット内のデータ分布の変化を考慮し、学習中に学習率を動的に適応させます。

 

AdaFactor:

AdaFactorは適応型学習率オプティマイザで、因数分解された2次モーメント行列の新しいパラメータ化を用いて、Adamのような従来の2次モーメントアプローチよりも効率的な更新ルールを達成します。