from langchain_community.llms import Ollama

# 先测试Ollama是否正常工作
llm = Ollama(model=r"D:\ideaSpace\MyPython\models\TinyLlama-1.1B-Chat-v1.0-GGUF", temperature=0.1)

# 此demo无法运行，启动Ollama服务后，也只能使用requests库调用api
# 测试单个模型
try:
    result = llm.invoke("百合花是来源自哪个国家?")
    print("Ollama测试成功:")
    print(result)
except Exception as e:
    print(f"Ollama错误: {e}")
    print("请先运行: ollama serve")
    print("然后运行: ollama pull llama2")