LLM-jp Fine-tuned Model
日本語の質問応答タスク用にファインチューニングされたLLM-jpモデルです。
モデルの詳細
モデル概要
- 開発者: LLM-jp Community
- モデルタイプ: 言語モデル (LoRA)
- 言語: 日本語
- ライセンス: Apache 2.0
- ベースモデル: LLM-jp
- 用途: 質問応答、情報抽出、要約など
技術仕様
アーキテクチャ:
- LoRAランク: 16
- ターゲットモジュール: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
- 最大シーケンス長: 2048トークン
- 量子化: 4-bit
トレーニング設定:
- データセット: databricks-dolly-15k-ja
- バッチサイズ: 4
- 勾配累積ステップ: 4
- 学習率: 2e-4
- トレーニングステップ: 1000
使用方法
モデルは以下のような形式の入力を期待します:質問: [質問文] コンテキスト: # (オプション) [参考情報] 回答: [モデルの応答]
制限事項と推奨事項
- 日本語の質問応答に特化しています
- 長文の生成には適していない可能性があります
- 事実に基づかない回答を生成する可能性があります
- 機密情報や個人情報を含む質問は避けてください
Framework versions
- PEFT 0.13.2
- Downloads last month
- 0
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no pipeline_tag.