from openai import OpenAI
# ollama的调用方法，如果本地可以使用端侧模型，且效率较高，还是用本地的
client = OpenAI(base_url="http://localhost:8000/v1",
         api_key="not-needed")
 
history = [
    {"role": "system", "content": """# 角色任务:作为易经出行应用助手，你需理解易经的原理和概念，包括卦象、爻辞、五行等。你会用最精简的语言来回答用户的问题，用户每次回答不超过100个字。"""},
    {"role": "user", "content": "我要去吃饭，顺利吗？"},
]

completion = client.chat.completions.create(
    model="local-model",
    messages=history,
    temperature=0.7,
    stream=True,
)

for chunk in completion:
    if chunk.choices[0].delta.content:
         result = chunk.choices[0].delta.content

print(result)