Safetensors
itachiko commited on
Commit
ed8d3f7
1 Parent(s): 165339f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +30 -30
README.md CHANGED
@@ -1,14 +1,10 @@
1
- #推論用コード
2
- # llmjp
3
- results = []
4
- for data in tqdm(datasets):
5
-
6
- input = data["input"]
7
-
8
- prompt = f"""### 指示
9
- {input}
10
- ### 回答
11
- """
12
 
13
  tokenized_input = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt").to(model.device)
14
  attention_mask = torch.ones_like(tokenized_input)
@@ -59,6 +55,9 @@ from datasets import load_dataset
59
  import bitsandbytes as bnb
60
  from trl import SFTTrainer
61
 
 
 
 
62
  # モデルを読み込み。
63
  # llm-jp-3 1.8B, 3.7B, 13Bのsnapshotをダウンロード済みでmodelsディレクトリに格納してあります。
64
  # base_model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
@@ -68,6 +67,26 @@ base_model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad
68
  # base_model_id = "llm-jp/llm-jp-3-13b"
69
  new_model_id = "llm-jp-3-13b-finetune" #Fine-Tuningしたモデルにつけたい名前
70
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
71
  """
72
  model: モデル
73
 
@@ -96,25 +115,6 @@ model = AutoModelForCausalLM.from_pretrained(
96
 
97
  tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
98
 
99
- """
100
- bnb_config: 量子化の設定
101
-
102
- - load_in_4bit:
103
- - 4bit量子化形式でモデルをロード
104
-
105
- - bnb_4bit_quant_type:
106
- - 量子化の形式を指定
107
-
108
- - bnb_4bit_compute_dtype:
109
- - 量子化された重みを用いて計算する際のデータ型
110
-
111
- """
112
-
113
- bnb_config = BitsAndBytesConfig(
114
- load_in_4bit=True,
115
- bnb_4bit_quant_type="nf4", # nf4は通常のINT4より精度が高く、ニューラルネットワークの分布に最適です
116
- bnb_4bit_compute_dtype=torch.bfloat16,
117
- )
118
 
119
  """
120
  find_all_linear_names: モデル内の4bit量子化線形層を探します。
 
1
+ ---
2
+ license: apache-2.0
3
+ datasets:
4
+ - kinokokoro/ichikara-instruction-003
5
+ base_model:
6
+ - llm-jp/llm-jp-3-13b
7
+ ---
 
 
 
 
8
 
9
  tokenized_input = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt").to(model.device)
10
  attention_mask = torch.ones_like(tokenized_input)
 
55
  import bitsandbytes as bnb
56
  from trl import SFTTrainer
57
 
58
+ # Hugging Face Token
59
+ HF_TOKEN = "write権限のあるトークン、非公開のためypur token"
60
+
61
  # モデルを読み込み。
62
  # llm-jp-3 1.8B, 3.7B, 13Bのsnapshotをダウンロード済みでmodelsディレクトリに格納してあります。
63
  # base_model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
 
67
  # base_model_id = "llm-jp/llm-jp-3-13b"
68
  new_model_id = "llm-jp-3-13b-finetune" #Fine-Tuningしたモデルにつけたい名前
69
 
70
+ """
71
+ bnb_config: 量子化の設定
72
+
73
+ - load_in_4bit:
74
+ - 4bit量子化形式でモデルをロード
75
+
76
+ - bnb_4bit_quant_type:
77
+ - 量子化の形式を指定
78
+
79
+ - bnb_4bit_compute_dtype:
80
+ - 量子化された重みを用いて計算する際のデータ型
81
+
82
+ """
83
+
84
+ bnb_config = BitsAndBytesConfig(
85
+ load_in_4bit=True,
86
+ bnb_4bit_quant_type="nf4", # nf4は通常のINT4より精度が高く、ニューラルネットワークの分布に最適です
87
+ bnb_4bit_compute_dtype=torch.bfloat16,
88
+ )
89
+
90
  """
91
  model: モデル
92
 
 
115
 
116
  tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
117
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
118
 
119
  """
120
  find_all_linear_names: モデル内の4bit量子化線形層を探します。