from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding


BASE_URL = ''

# Model Name
CHAT_MODEL = 'qwen2:7b'

chat_client = Ollama(model=CHAT_MODEL, 
                    base_url=BASE_URL, 
                    temperature=0.3,
                    request_timeout=60)
prompt='Hello'
res = chat_client.complete(prompt)
print(res.text)

