yaojialzc commited on
Commit
2511426
1 Parent(s): 89e5e88

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +61 -1
README.md CHANGED
@@ -7,4 +7,64 @@ language:
7
 
8
  ![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64ef2a96f2b8f40224d7b407/hCRp7-GK-6tkqU1ITNZnO.webp)
9
 
10
- # Gigi-Llama-3-8B
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7
 
8
  ![image/webp](https://cdn-uploads.huggingface.co/production/uploads/64ef2a96f2b8f40224d7b407/hCRp7-GK-6tkqU1ITNZnO.webp)
9
 
10
+ Gigi 是使用最先进的 Llama-3-8B-Instruct 在超过130万条经过筛选的高质量中英双语语料上进行精调,它能更好地处理各种下游任务,并为您提供高质量的中英双语结果。我们在训练中加入了包含Hermes、glaive-function-calling等高质量的指令精调数据,以及大量使用GPT3.5翻译的GPT4数据,Gigi能很好的在中英双语上满足您的需求。
11
+
12
+ # Gigi-Llama-3-8B-zh
13
+
14
+ Gigi-Llama-3-8B-zh 是 Gigi 系列的第一个模型,在Hermes、glaive-function-calling、refgpt_fact_v2数据集以及一部分使用GPT3.5翻译成的中文数据上训练,同时改进了模型在中英文上的行为,还加入了COIG-CQIA、alpaca-gpt4-data-zh等中文数据集进一步增强中文能力。
15
+
16
+ # How to use
17
+
18
+ Gigi-Llama-3-8B-zh 遵循 Llama-3-8B-Instruct 的对话模板,pad token 遵循 Axolotl 的建议使用 `<|end_of_text|>`。
19
+
20
+ ```
21
+ <|begin_of_text|><|start_header_id|>system<|end_header_id|>
22
+
23
+ {{ system_prompt }}<|eot_id|><|start_header_id|>user<|end_header_id|>
24
+
25
+ {{ user_msg_1 }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
26
+
27
+ {{ model_answer_1 }}<|eot_id|>
28
+ ```
29
+
30
+ 您可以使用下面代码加载模型推理,对于更高效的推理建议使用vLLM,我们随后会退出模型具体性能,并很快推出更大参数和性能更好的精调版本。
31
+
32
+ ```
33
+ import transformers
34
+ import torch
35
+
36
+ model_id = "yaojialzc/Gigi-Llama-3-zh"
37
+
38
+ pipeline = transformers.pipeline(
39
+ "text-generation",
40
+ model=model_id,
41
+ model_kwargs={"torch_dtype": torch.bfloat16},
42
+ device="cuda",
43
+ )
44
+
45
+ messages = [
46
+ {"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
47
+ {"role": "user", "content": "你是谁?"},
48
+ ]
49
+
50
+ prompt = pipeline.tokenizer.apply_chat_template(
51
+ messages,
52
+ tokenize=False,
53
+ add_generation_prompt=True
54
+ )
55
+
56
+ terminators = [
57
+ pipeline.tokenizer.eos_token_id,
58
+ pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
59
+ ]
60
+
61
+ outputs = pipeline(
62
+ prompt,
63
+ max_new_tokens=256,
64
+ eos_token_id=terminators,
65
+ do_sample=True,
66
+ temperature=0.6,
67
+ top_p=0.9,
68
+ )
69
+ print(outputs[0]["generated_text"][len(prompt):])
70
+ ```