from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "TinyLlama/TinyLlama-1.1B-Chat-v1.0"

# 下载并加载分词器
# 它会自动将文件缓存到你的本地
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 下载并加载模型
# 这部分文件较大，下载可能需要一些时间
model = AutoModelForCausalLM.from_pretrained(model_name)

print("模型和分词器已成功下载并加载。")