請問是有重新訓練過tokenizer嗎?

#9
by tedslin - opened

config.json中

{
   "eos_token_id": 128256,
   "vocab_size": 128258
}

與meta-llama/Meta-Llama-3-8B-Instruct的config.json對應值不同,請問是有重新訓練過tokenizer嗎

同問,一樣都是 Taiwan Llama,8B 的 Vocab Size 是 128,258,而 70B 卻是 128,256,請問是基於什麼考量?
因為這個設定,導致無法使用 TwLlama 8B & 70B 進行 Speculative Decoding :(

Sign up or log in to comment