
これは、特定のユースケースに合わせて言語モデルを調整するための実践的なコースです。ほとんどのローカルマシンで実行できるため、言語モデルの調整を始めるのに便利です。GPUの要件は最小限で、有料サービスは必要ありません。このコースはSmolLM2シリーズのモデルに基づいていますが、ここで学んだスキルを大規模なモデルや他の小型言語モデルに転用することができます。
このコースはオープンでピアレビューされています。コースに参加するには、プルリクエストを開くことで、あなたの作業をレビューに提出してください。以下の手順に従ってください:
これにより、学習を助け、常に改善されるコミュニティ主導のコースを構築することができます。
このプロセスについては、このディスカッションスレッドで議論できます。
このコースは、小型言語モデルを使用した実践的なアプローチを提供し、初期のトレーニングから本番展開までをカバーします。
| モジュール | 説明 | ステータス | リリース日 |
|---|---|---|---|
| インストラクションチューニング | 教師あり微調整、チャットテンプレート、および基本的な指示に従う方法を学びます | ✅ 準備完了 | 2024年12月3日 |
| 選好整合 | DPOおよびORPO技術を探求し、人間の選好にモデルを整合させる方法を学びます | ✅ 準備完了 | 2024年12月6日 |
| パラメータ効率の良い微調整 | LoRA、プロンプトチューニング、および効率的な適応方法を学びます | ✅ 準備完了 | 2024年12月9日 |
| 評価 | 自動ベンチマークを使用し、カスタムドメイン評価を作成する方法を学びます | ✅ 準備完了 | 2024年12月13日 |
| ビジョン言語モデル | マルチモーダルモデルをビジョン言語タスクに適応させる方法を学びます | ✅ 準備完了 | 2024年12月16日 |
| 合成データセット | トレーニング用の合成データセットを作成し、検証する方法を学びます | ✅ 準備完了 | 2024年12月20日 |
| 推論 | モデルを効率的に推論する方法を学びます | 🚧 作業中 | 2025年1月8日 |
| エージェント | 自分のエージェントAIを構築する方法を学びます | ✅ 準備完了 | 2025年1月13日 |
| キャップストーンプロジェクト | 学んだことを使ってリーダーボードを登りましょう! | 🚧 作業中 | 2025年1月10日 |
大規模な言語モデルは印象的な能力を示していますが、しばしば多くの計算リソースを必要とし、特定のアプリケーションには過剰な場合があります。小型言語モデルは、ドメイン固有のアプリケーションに対していくつかの利点を提供します:
開始する前に、以下を確認してください:
transformersライブラリに精通していることコースをパッケージとして維持しているため、パッケージマネージャーを使用して依存関係を簡単にインストールできます。uvをお勧めしますが、pipやpdmなどの代替手段も使用できます。
uvがインストールされている場合、次のようにしてコースをインストールできます:
uv venv --python 3.11.0
uv syncすべての例はpython 3.11環境で実行されるため、次のように環境を作成し、依存関係をインストールします:
# python -m venv .venv
# source .venv/bin/activate
pip install -r requirements.txtGoogle Colabからは、使用するハードウェアに基づいて柔軟に依存関係をインストールする必要があります。次のようにします:
pip install transformers trl datasets huggingface_hub