LLM-JP-3-13B Instruction Tuning LoRA
このリポジトリには LLM-JP-3-13B モデルの instruction tuning 用 LoRA ウェイトが含まれています。
モデル詳細
ベースモデル: llm-jp/llm-jp-3-13b 学習データ: Databricks Dolly 15k 日本語版 パラメータ設定:
- LoRA rank: 32
- Alpha: 32
- 学習率: 2e-4
- バッチサイズ: 2
- 勾配累積ステップ: 4
- エポック数: 1
- コンテキスト長: 512トークン
学習設定
以下のモジュールに対してLoRAを適用:
- Query Projection (q_proj)
- Key Projection (k_proj)
- Value Projection (v_proj)
- Output Projection (o_proj)
- Gate Projection (gate_proj)
- Up Projection (up_proj)
- Down Projection (down_proj)
使用方法
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer
# ベースモデルのロード
model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-3-13b")
tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-3-13b")
# LoRAの適用
model = PeftModel.from_pretrained(model, "path/to/lora/weights")
ライセンス
このLoRAウェイトはベースモデルのライセンスを継承します。
制限事項
- 商用利用に関してはベースモデルのライセンスに従ってください
- 学習データの制約により、出力には一定のバイアスが含まれる可能性があります
base_model: llm-jp/llm-jp-3-13b tags: - text-generation-inference - transformers - unsloth - llama - trl license: apache-2.0 language: - en
Uploaded model
- Developed by: yasunai
- License: apache-2.0
- Finetuned from model : llm-jp/llm-jp-3-13b
This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.