eyepyon/rcphi2
このモデルは、基底モデルを元にファインチューニングされました。
モデル情報
- 基底モデル: microsoft/phi-2
- ファインチューニング手法: LoRA (Low-Rank Adaptation)
- ファインチューニング対象: Q/V/K/Oプロジェクション層
- LoRAランク: 8
- LoRA Alpha: 16
使用方法
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
# ベースモデルの読み込み
base_model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2")
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2")
# LoRAアダプターの読み込み
model = PeftModel.from_pretrained(base_model, "eyepyon/rcphi2")
# 推論
input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
トレーニング設定
- エポック数: 3
- 学習率: 2e-4
- バッチサイズ: 1 × 4 (gradient accumulation)
- 重み減衰: 0.01
- 量子化: 4ビット