import torch from transformers import AutoTokenizer, AutoModelWithLMHead
加载tokenizer和预训练好的模型
tokenizer = AutoTokenizer.from_pretrained('gpt2') model = AutoModelWithLMHead.from_pretrained('gpt2')
输入提示信息
prompt = "您好,请问您是xx先生/女士吗?我是中国人保的客服经理小夏。您投保的中国人保百万医疗险保障即将生效,我来给您讲解一下具体保障内容,您方便吗?"
将输入信息编码处理
input_ids = tokenizer.encode(prompt, return_tensors='pt')
生成对话
output = model.generate( input_ids, do_sample=True, max_length=50, top_p=1, top_k=50 )
将生成的对话解码处理
output_text = tokenizer.decode(output[0], skip_special_tokens=True) print(output_text)