#将模型下载到本地
from transformers import AutoModelForCausalLM,AutoTokenizer

#将模型和分工具下载到本地，并指定保存路径
model_name = "Qwen/Qwen3-4B-Thinking-2507"
cache_dir = "model/Qwen/Qwen3-4B-Thinking-2507"

#下载模型
AutoModelForCausalLM.from_pretrained(model_name,cache_dir=cache_dir)
#下载分工具
AutoTokenizer.from_pretrained(model_name,cache_dir=cache_dir)

print(f"模型分词工具已下载到{cache_dir}目录下")