ryota39 commited on
Commit
a5d9c97
1 Parent(s): a41ea31

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -1
README.md CHANGED
@@ -1,3 +1,46 @@
1
  ---
2
- license: mit
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ license: cc-by-sa-4.0
3
+ datasets:
4
+ - izumi-lab/llm-japanese-dataset
5
+ library_name: transformers
6
  ---
7
+
8
+ # モデル
9
+ - rinna/bilingual-gpt-neox-4b-instruction-sftに、84,300件の和訳データセットをフルパラメータファインチューニングしたモデルです。
10
+ - ファインチューニングに使用したデータセットは`izumi-lab/llm-japanese-dataset`から和訳タスクのデータセットのみ抽出し、学習に使用しました。
11
+
12
+ # コード
13
+ ```python
14
+ import torch
15
+ from transformers import AutoTokenizer, AutoModelForCausalLM
16
+
17
+ tokenizer = AutoTokenizer.from_pretrained("rinna/bilingual-gpt-neox-4b-instruction-sft", use_fast=False)
18
+ model = AutoModelForCausalLM.from_pretrained("ryota39/bilingual-gpt-neox-4b-instruction-sft-en-ja-84k")
19
+
20
+ if torch.cuda.is_available():
21
+ model = model.to("cuda")
22
+
23
+ prompt = list()
24
+ prompt.append("指示: 以下の英語を日本語に翻訳してください。")
25
+ prompt.append("ユーザー: Do you deliver on Sundays?")
26
+ prompt.append("システム: ")
27
+ prompt = '\n'.join(prompt)
28
+ print(prompt)
29
+
30
+ token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
31
+
32
+ with torch.no_grad():
33
+ output_ids = model.generate(
34
+ token_ids.to(model.device),
35
+ max_new_tokens=512,
36
+ do_sample=False,
37
+ temperature=0.7,
38
+ top_p=0.85,
39
+ pad_token_id=tokenizer.pad_token_id,
40
+ bos_token_id=tokenizer.bos_token_id,
41
+ eos_token_id=tokenizer.eos_token_id
42
+ )
43
+
44
+ output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1):])
45
+ print(output)
46
+ ```