chrisociepa commited on
Commit
129e3b2
1 Parent(s): 829494a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +22 -0
README.md CHANGED
@@ -114,6 +114,7 @@ tokenizer = AutoTokenizer.from_pretrained(model_name)
114
  model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16)
115
 
116
  messages = [
 
117
  {"role": "user", "content": "Jakie mamy pory roku w Polsce?"},
118
  {"role": "assistant", "content": "W Polsce mamy 4 pory roku: wiosna, lato, jesień i zima."},
119
  {"role": "user", "content": "Która jest najcieplejsza?"}
@@ -129,6 +130,27 @@ decoded = tokenizer.batch_decode(generated_ids)
129
  print(decoded[0])
130
  ```
131
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
132
  ## Evaluation
133
 
134
 
 
114
  model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16)
115
 
116
  messages = [
117
+ {"role": "system", "content": "Odpowiadaj krótko, precyzyjnie i wyłącznie w języku polskim."},
118
  {"role": "user", "content": "Jakie mamy pory roku w Polsce?"},
119
  {"role": "assistant", "content": "W Polsce mamy 4 pory roku: wiosna, lato, jesień i zima."},
120
  {"role": "user", "content": "Która jest najcieplejsza?"}
 
130
  print(decoded[0])
131
  ```
132
 
133
+ If for some reason you are unable to use `tokenizer.apply_chat_template`, the following code will enable you to generate a correct prompt:
134
+
135
+ ```python
136
+ def chat_template(message, history, system_prompt):
137
+ prompt_builder = ["<s>[INST] "]
138
+ if system_prompt:
139
+ prompt_builder.append(f"<<SYS>>\n{system_prompt}\n<</SYS>>\n\n")
140
+ for human, assistant in history:
141
+ prompt_builder.append(f"{human} [/INST] {assistant}</s>[INST] ")
142
+ prompt_builder.append(f"{message} [/INST]")
143
+ return ''.join(prompt_builder)
144
+
145
+ system_prompt = "Odpowiadaj krótko, precyzyjnie i wyłącznie w języku polskim."
146
+ history = [
147
+ ("Jakie mamy pory roku w Polsce?", "W Polsce mamy 4 pory roku: wiosna, lato, jesień i zima.")
148
+ ]
149
+ message = "Która jest najcieplejsza?"
150
+
151
+ prompt = chat_template(message, history, system_prompt)
152
+ ```
153
+
154
  ## Evaluation
155
 
156