from vocab.gpt_35_turbo import tokenizer print(tokenizer.get_vocab()) text = "δΈ­" token_ids = tokenizer.encode(text) decode_str = tokenizer.convert_tokens_to_string(token_ids) print(decode_str)