from transformers import BertTokenizer,BertForSequenceClassification
from transformers import pipeline
model_name=""
# 加载模型和分词器
model_name=r"D:\code\HuggingFaceStu\transformersTest\model\google-bert\bert-base-chinese\models--google-bert--bert-base-chinese\snapshots\c30a6ed22ab4564dc1e3b2ecbf6e766b0611a33f"
'''
初始化一个用于序列分类任务的BERT模型。BertForSequenceClassification是基于BERT架构的预训练模型，适用于文本分类等任务
from_pretrained方法通过传入模型名称（如"bert-base-chinese"），自动下载并加载对应的预训练权重和配置文件。
'''
model=BertForSequenceClassification.from_pretrained(model_name)
'''
始化与BERT模型配套的分词器BertTokenizer
from_pretrained方法根据指定的模型名称加载相应的词汇表和分词规则，以便将输入文本转换为模型可接受的格式
'''
tokenizer=BertTokenizer.from_pretrained(model_name)

# 创建分类 pipline
classifier=pipeline("text-classification",model=model,tokenizer=tokenizer,device="cuda")

# 进行分类
result=classifier("你好，我是一个优秀的程序开发者")
print(result)