# 将模型下载到本地调用
from transformers import AutoModelForCausalLM, AutoTokenizer

# 将模型和分词工具下载到本地，并指定保存路径
model_name="google-bert/bert-base-chinese"
cache_dir="model/google-bert/bert-base-chinese"

# 下载模型
AutoModelForCausalLM.from_pretrained(model_name,cache_dir=cache_dir)

# 下载分词工具
AutoTokenizer.from_pretrained(model_name,cache_dir=cache_dir)

print(f"模型分词器已下载到：{cache_dir}")

# config.json 模型配置文件
# pytorch_model.bin 神经网络模型
# special_tokens_map.json 特殊字符表示
# tokenizer_config.json 分词器的配置文件
# vocab.txt 字典，包含所能识别的所有字符