Chat template.

#1
by arthrod - opened

Fala cara, como voce aplicou o chat template para treinar? Tem umas pessoas dizendo que tem que colocar , to meio sem saber.

Abs.

utilizei o seguinte c贸digo

chat_response = [
                            {"role": "system", "content": str(system_prompt)},
                            {"role": "user", "content": str(prompt)},
                            {"role": "assistant", "content": str(response)},
                        ]
processed_examples.append(tokenizer.apply_chat_template(chat_response, tokenize=False, add_generation_prompt=False))
tokenized_examples = tokenizer(processed_examples, padding=False, truncation=True, max_length=data_args.block_size)

Checando o template oficial do Llama3, e tamb茅m o arquivo tokenizer_config.json, o template em texto puro seria esse:

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

{{ system_prompt }}<|eot_id|><|start_header_id|>user<|end_header_id|>

{{ user_message }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Obrigado!

arthrod changed discussion status to closed

Sign up or log in to comment