from langchain_ollama_qwen1.llms import OllamaLLM

# 初始化 Ollama 客户端
ollama = OllamaLLM(base_url='http://localhost:11434', model="qwen:latest")

# 调用 invoke 方法，传递参数以关闭流式传输
response = ollama.invoke("why is the sky blue", stream=False)

# 打印响应
print(response)
