--- language: - zh - en tags: - glm - chatglm - thudm --- # ChatGLM3-6B 此版本與 [THUDM/ChatGLM3-6B](https://huggingface.co/THUDM/chatglm3-6b) 無異, 僅對tokenizer增加了`tokenizer.chat_emplate`和`special_tokens`。 修改後的版本能使`tokenizer`運用 hf tokenizer 的`.apply_chat_template`,統一API用法。 修正已經同步提交至`THUDM/chatglm3-6b`並且等待合併: - https://huggingface.co/THUDM/chatglm3-6b/discussions/22 - https://huggingface.co/THUDM/chatglm3-6b/discussions/36 ```python from transformers import AutoTokenizer,AutoModelForCausalLM model_id_or_path = "p208p2002/chatglm3-6b-chat-template" tokenizer = AutoTokenizer.from_pretrained(model_id_or_path,trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(model_id_or_path,device_map="auto",trust_remote_code=True) inputs = tokenizer.apply_chat_template([ {"role":"system","content":"你是一位樂於助人、尊重他人且誠實的助理。請始終以最有幫助的方式回答問題。如果你對某個問題不知道答案,請不要提供虛假信息。"}, {"role":"user","content":"如何減緩地球暖化?"} ],add_generation_prompt=True,tokenize=True,return_tensors="pt") out = model.generate(inputs,max_new_tokens=256) print(tokenizer.decode(out[0])) ```