from transformers import AutoModel, AutoTokenizer

# 1. 定义模型名称和本地缓存路径
model_name = "openai-community/gpt2"  # 模型在Hugging Face的标识
cache_dir = "./huggingface_cache"  # 本地缓存文件夹（可自定义路径）

# 2. 下载并缓存模型和分词器（首次运行会下载，后续直接加载缓存）
tokenizer = AutoTokenizer.from_pretrained(model_name, cache_dir=cache_dir)
model = AutoModel.from_pretrained(model_name, cache_dir=cache_dir)

print(f"模型已缓存至：{cache_dir}")