import ollama

# 设置 Ollama 主机地址（因为你在host网络模式，本地就是服务器）
# 默认就是 http://localhost:11434，所以这行通常可以省略
ollama.host = 'http://localhost:11434'

# 生成响应
response = ollama.chat(model='qwen2.5:7b-instruct-q4_0', messages=[
        {
            'role': 'system', # 系统提示词，设定规则和角色
            'content': '你的回答必须简洁明了，长度一般不超过50字。直接回答问题要点，不要展开论述。'
        },
        {
            'role': 'user', # 用户问题
            'content': '中国面积'
        }
])

# 打印模型的回复
print(response['message']['content'])