alfredplpl
commited on
Commit
•
ad7d465
1
Parent(s):
fc475a3
Update README.md
Browse files
README.md
CHANGED
@@ -5,6 +5,47 @@ license: other
|
|
5 |
|
6 |
# 日本語向け Llama3 8B
|
7 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
# はじめに
|
9 |
このリポジトリはLlama3を日本語化しようとしたモデルのリポジトリです。
|
10 |
|
|
|
5 |
|
6 |
# 日本語向け Llama3 8B
|
7 |
|
8 |
+
# Usage
|
9 |
+
|
10 |
+
```python
|
11 |
+
import torch
|
12 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM
|
13 |
+
|
14 |
+
# プロンプトの準備
|
15 |
+
messages = [
|
16 |
+
{
|
17 |
+
'role': "system",
|
18 |
+
'content': "あなたは日本語で回答するAIアシスタントです。"
|
19 |
+
},
|
20 |
+
{
|
21 |
+
'role': "user",
|
22 |
+
'content': "猫と犬、どっちが好き?"
|
23 |
+
}
|
24 |
+
]
|
25 |
+
prompt=tokenizer.apply_chat_template(messages, tokenize=False)
|
26 |
+
|
27 |
+
# 推論の実行
|
28 |
+
input_ids = tokenizer(prompt, return_tensors="pt").to(model.device)
|
29 |
+
outputs = model.generate(
|
30 |
+
**input_ids,
|
31 |
+
max_new_tokens=128,
|
32 |
+
do_sample=True,
|
33 |
+
top_p=0.95,
|
34 |
+
temperature=0.2,
|
35 |
+
repetition_penalty=1.1,
|
36 |
+
eos_token_id=[
|
37 |
+
tokenizer.eos_token_id,
|
38 |
+
tokenizer.convert_tokens_to_ids("<|eot_id|>")
|
39 |
+
],
|
40 |
+
)
|
41 |
+
print(tokenizer.decode(outputs[0]))
|
42 |
+
```
|
43 |
+
|
44 |
+
Result:
|
45 |
+
|
46 |
+
```python
|
47 |
+
```
|
48 |
+
|
49 |
# はじめに
|
50 |
このリポジトリはLlama3を日本語化しようとしたモデルのリポジトリです。
|
51 |
|