量子化は、モデルの重みとアクティベーションの精度を低下させ、メモリ使用量を大幅に削減し、計算速度を向上させます。たとえば、float32からbfloat16に切り替えると、パラメータごとのメモリ要件が半分になり、パフォーマンスを維持できます。より積極的な圧縮のために、8ビットおよび4ビットの量子化を使用してメモリ使用量をさらに削減できますが、精度が若干低下する可能性があります。これらの技術は、モデルとオプティマイザの設定の両方に適用でき、リソースが限られたハードウェアでの効率的なトレーニングを可能にします。
モジュール3で紹介されたように、LoRA(Low-Rank Adaptation)は、元のモデルの重みを固定したまま、コンパクトなランク分解行列を学習することに焦点を当てています。これにより、トレーニング可能なパラメータの数が大幅に削減され、リソース要件が大幅に削減されます。LoRAはPEFTと統合されることで、大規模モデルのファインチューニングを可能にし、トレーニング可能なパラメータの小さなサブセットのみを調整します。このアプローチは、タスク固有の適応に特に効果的であり、数十億のトレーニング可能なパラメータを数百万に削減しながらパフォーマンスを維持します。
ファインチューニングのバッチサイズを最適化するには、大きな値から始め、メモリ不足(OOM)エラーが発生した場合は減らします。gradient_accumulation_stepsを増やして補い、複数の更新にわたって合計バッチサイズを実質的に維持します。さらに、gradient_checkpointingを有効にして、逆伝播中に中間状態を再計算することでメモリ使用量を削減し、計算時間を犠牲にしてアクティベーションメモリ要件を削減します。これらの戦略は、ハードウェアの利用を最大化し、メモリ制約を克服するのに役立ちます。
from transformers import TrainingArguments
training_args = TrainingArguments(
output_dir="./fine_tuned_model", # モデルチェックポイントのディレクトリ
per_device_train_batch_size=4, # デバイスごとのバッチサイズ(GPU/TPU)
num_train_epochs=3, # トレーニングの総エポック数
learning_rate=5e-5, # 学習率
save_steps=1000, # 1000ステップごとにチェックポイントを保存
bf16=True, # トレーニングに混合精度を使用
gradient_checkpointing=True, # アクティベーションメモリ使用量を削減するために有効にする
gradient_accumulation_steps=16, # 16ステップにわたって勾配を蓄積
logging_steps=50 # 50ステップごとにメトリクスをログ
)教師ありファインチューニング(SFT)は、事前トレーニングされたビジョン言語モデル(VLM)を特定のタスクに適応させるために、画像と対応するテキストを含むラベル付きデータセットを活用するプロセスです。この方法は、視覚質問応答、画像キャプション生成、チャート解釈などのドメイン固有またはタスク固有の機能を実行するモデルの能力を向上させます。
SFTは、ベースモデルの一般的な能力が不足する場合に、特定のドメインや特定の問題を解決するためにVLMを専門化する必要がある場合に不可欠です。たとえば、モデルが独自の視覚的特徴やドメイン固有の用語に苦労する場合、SFTはラベル付きデータから学習することでこれらの領域に焦点を当てることができます。
SFTは非常に効果的ですが、いくつかの制限があります:
これらの課題にもかかわらず、SFTは特定のコンテキストでのモデルパフォーマンスを向上させるための強力な手法です。
データ準備:画像とテキストのペアを含むラベル付きデータセットから始めます。たとえば、チャート分析のタスクでは、HuggingFaceM4/ChartQAデータセットにはチャート画像、クエリ、および簡潔な応答が含まれています。
モデル設定:タスクに適した事前トレーニングされたVLM(例:HuggingFaceTB/SmolVLM-Instruct)と、テキストと画像の入力を準備するためのプロセッサをロードします。モデルを教師あり学習に設定し、ハードウェアに適した設定を行います。
ファインチューニングプロセス:
TrainingArgumentsやTRLのSFTConfigなどのツールを使用してトレーニングパラメータを設定します。これには、バッチサイズ、学習率、およびリソース使用を最適化するための勾配蓄積ステップが含まれます。SFTTrainerトレーナーを使用して、トレーニングプロセスを簡素化します。好みの最適化、特に直接好みの最適化(DPO)は、ビジョン言語モデル(VLM)を人間の好みに合わせるためのトレーニング手法です。事前定義された指示に厳密に従うのではなく、モデルは人間が主観的に好む出力を優先することを学習します。このアプローチは、創造的な判断、微妙な推論、または許容される回答が異なるタスクに特に有用です。
好みの最適化は、主観的な人間の好みがタスクの成功にとって重要なシナリオに対処します。好みをエンコードしたデータセットでファインチューニングすることで、DPOはモデルの応答生成能力を強化し、ユーザーの期待に文脈的およびスタイル的に一致させます。この方法は、創造的な執筆、顧客との対話、または複数の選択肢があるシナリオなどのタスクに特に効果的です。
その利点にもかかわらず、好みの最適化にはいくつかの課題があります:
好みのデータセットは、候補出力間の明確な好みをキャプチャする必要があります。たとえば、データセットは質問と2つの応答(1つは好まれ、もう1つは受け入れられない)をペアにすることがあります。モデルは、完全に正しくなくても、より人間の判断に一致する好ましい応答を予測することを学習します。
データセットの準備
トレーニングには、好みがラベル付けされたデータセットが重要です。各例は通常、プロンプト(例:画像と質問)と2つの候補応答(1つは選択され、もう1つは拒否される)で構成されます。たとえば:
データセットは、モデルに完全に正しくなくても、より人間の判断に一致する好ましい応答を優先することを教えます。
モデル設定
事前トレーニングされたVLMをロードし、DPOをサポートするHugging FaceのTRLライブラリと統合し、テキストと画像の入力を準備するためのプロセッサを使用します。モデルを教師あり学習に設定し、ハードウェアに適した設定を行います。
トレーニングパイプライン
トレーニングには、DPO固有のパラメータの設定が含まれます。プロセスの概要は次のとおりです:
⏩ この統一アプローチを好みの最適化に実装するには、vlm_finetune_sample.ipynbを試してください。
< > Update on GitHub