from langchain_ollama import OllamaLLM

# llm = OllamaLLM(model="qwen:7b-chat-q4_0")
def getLLM():
    llm = OllamaLLM(model="qwen2.5:7b",base_url="http://localhost:11434")
    return llm