BunaML’s diary

機械学習、音声・自然言語、Machine Learning, NLP, Audio, Software Development

LoRAを用いたLLMのFine-tuning手順

LoRAを用いてLLMのFine-tuningを行った際の作業記録

LoRA(Low Rank Adapter)とは既存の大規模モデルの小規模な部分のみを微調整することで、計算コストを削減しつつ特定のタスクの性能を向上させる技術

Fine-tuningの手順

1. スクリプトの準備

LoRAを用いた微調整スクリプト finetune_lora.py を準備し実行。

$ cd <base-dir>/llm
$ python finetune_lora.py --output_dir <base-dir>/llm/<output-dir>

2. 学習データの準備

IMDbデータセット用いてテキスト生成のための学習データを準備する。さらにデータを増強し、モデルの汎用性と精度を高める。

3. モデルの保存

Fine-tuning後のモデルは指定したディレクト<base-dir>/llm/<output-dir>へ保存される。

学習データの増強

様々な質問形式のデータを用意しモデルが柔軟に応答できるようにする。 例)「あなたの名前は何ですか?」という問いに対し、複数の異なる形式で答えるデータを作成

モデルのアップロードとテスト

微調整したモデルをHugging Faceにアップロードし公開。その後実際の会話シナリオでパフォーマンスをテスト。