from langchain_ollama import ChatOllama
from config import (
    ollama_host,
    ollama_port,
    ollama_model
)
def create_chat(temperature=0):
    llm = ChatOllama(
        base_url=ollama_host + ':' + str(ollama_port),
        model=ollama_model,
        temperature=temperature
    )
    return llm