junya-takayama commited on
Commit
8a7139c
1 Parent(s): 231f376

Add `<|eot_id|>` token (id: 128009) to `eos_token_id`

Browse files

For ease of use, I propose adding the `<|eot_id|>` token (ID: 128009) to the `eos_token_id` in the `generation_config.json` file.

Usage によると、 Instruction モデルではデフォルトの EOS トークン以外に `<|eot_id|>` (id: 128009) でも止めるような設定で生成するように指定されているかと思います。
```
sampling_params = SamplingParams(
temperature=0.6, top_p=0.9, max_tokens=512, stop="<|eot_id|>"
)
```

[meta-llama/Meta-Llama-3-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct/blob/main/generation_config.json) と同様、128009 を generation_conifg.json の `eos_token_id` に追加するとデフォルトで `<|eot_id|>` で生成処理が止まるようになって便利そうですが、いかがでしょうか?
VLLM でも現在は generation_config.json の `eos_token_id` を読み出せる仕様になっているようですので、実行時に `stop="<|eot_id|>"` を指定する必要がなくなります。
https://github.com/vllm-project/vllm/pull/4182

Files changed (1) hide show
  1. generation_config.json +1 -1
generation_config.json CHANGED
@@ -1,6 +1,6 @@
1
  {
2
  "_from_model_config": true,
3
  "bos_token_id": 128000,
4
- "eos_token_id": 128001,
5
  "transformers_version": "4.40.1"
6
  }
 
1
  {
2
  "_from_model_config": true,
3
  "bos_token_id": 128000,
4
+ "eos_token_id": [128001, 128009],
5
  "transformers_version": "4.40.1"
6
  }