Update README.md
Browse files
README.md
CHANGED
@@ -7,4 +7,64 @@ language:
|
|
7 |
|
8 |
![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64ef2a96f2b8f40224d7b407/hCRp7-GK-6tkqU1ITNZnO.webp)
|
9 |
|
10 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
|
8 |
![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64ef2a96f2b8f40224d7b407/hCRp7-GK-6tkqU1ITNZnO.webp)
|
9 |
|
10 |
+
Gigi 是使用最先进的 Llama-3-8B-Instruct 在超过130万条经过筛选的高质量中英双语语料上进行精调,它能更好地处理各种下游任务,并为您提供高质量的中英双语结果。我们在训练中加入了包含Hermes、glaive-function-calling等高质量的指令精调数据,以及大量使用GPT3.5翻译的GPT4数据,Gigi能很好的在中英双语上满足您的需求。
|
11 |
+
|
12 |
+
# Gigi-Llama-3-8B-zh
|
13 |
+
|
14 |
+
Gigi-Llama-3-8B-zh 是 Gigi 系列的第一个模型,在Hermes、glaive-function-calling、refgpt_fact_v2数据集以及一部分使用GPT3.5翻译成的中文数据上训练,同时改进了模型在中英文上的行为,还加入了COIG-CQIA、alpaca-gpt4-data-zh等中文数据集进一步增强中文能力。
|
15 |
+
|
16 |
+
# How to use
|
17 |
+
|
18 |
+
Gigi-Llama-3-8B-zh 遵循 Llama-3-8B-Instruct 的对话模板,pad token 遵循 Axolotl 的建议使用 `<|end_of_text|>`。
|
19 |
+
|
20 |
+
```
|
21 |
+
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
|
22 |
+
|
23 |
+
{{ system_prompt }}<|eot_id|><|start_header_id|>user<|end_header_id|>
|
24 |
+
|
25 |
+
{{ user_msg_1 }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
|
26 |
+
|
27 |
+
{{ model_answer_1 }}<|eot_id|>
|
28 |
+
```
|
29 |
+
|
30 |
+
您可以使用下面代码加载模型推理,对于更高效的推理建议使用vLLM,我们随后会退出模型具体性能,并很快推出更大参数和性能更好的精调版本。
|
31 |
+
|
32 |
+
```
|
33 |
+
import transformers
|
34 |
+
import torch
|
35 |
+
|
36 |
+
model_id = "yaojialzc/Gigi-Llama-3-zh"
|
37 |
+
|
38 |
+
pipeline = transformers.pipeline(
|
39 |
+
"text-generation",
|
40 |
+
model=model_id,
|
41 |
+
model_kwargs={"torch_dtype": torch.bfloat16},
|
42 |
+
device="cuda",
|
43 |
+
)
|
44 |
+
|
45 |
+
messages = [
|
46 |
+
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
|
47 |
+
{"role": "user", "content": "你是谁?"},
|
48 |
+
]
|
49 |
+
|
50 |
+
prompt = pipeline.tokenizer.apply_chat_template(
|
51 |
+
messages,
|
52 |
+
tokenize=False,
|
53 |
+
add_generation_prompt=True
|
54 |
+
)
|
55 |
+
|
56 |
+
terminators = [
|
57 |
+
pipeline.tokenizer.eos_token_id,
|
58 |
+
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
|
59 |
+
]
|
60 |
+
|
61 |
+
outputs = pipeline(
|
62 |
+
prompt,
|
63 |
+
max_new_tokens=256,
|
64 |
+
eos_token_id=terminators,
|
65 |
+
do_sample=True,
|
66 |
+
temperature=0.6,
|
67 |
+
top_p=0.9,
|
68 |
+
)
|
69 |
+
print(outputs[0]["generated_text"][len(prompt):])
|
70 |
+
```
|