Chat template.
#1
by
arthrod
- opened
Fala cara, como voce aplicou o chat template para treinar? Tem umas pessoas dizendo que tem que colocar , to meio sem saber.
Abs.
utilizei o seguinte c贸digo
chat_response = [
{"role": "system", "content": str(system_prompt)},
{"role": "user", "content": str(prompt)},
{"role": "assistant", "content": str(response)},
]
processed_examples.append(tokenizer.apply_chat_template(chat_response, tokenize=False, add_generation_prompt=False))
tokenized_examples = tokenizer(processed_examples, padding=False, truncation=True, max_length=data_args.block_size)
Checando o template oficial do Llama3, e tamb茅m o arquivo tokenizer_config.json, o template em texto puro seria esse:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
{{ system_prompt }}<|eot_id|><|start_header_id|>user<|end_header_id|>
{{ user_message }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Obrigado!
arthrod
changed discussion status to
closed