from llama_index.core import VectorStoreIndex,SimpleDirectoryReader,Settings
from llama_index.llms.openai import OpenAI
import config

# o1-mini
# gpt-4o
# o1
llm = OpenAI(
    model="gpt-4o",
    model_kwargs={"trust_remote_code":True},
    tokenizer_kwargs={"trust_remote_code":True})

#设置全局的llm属性，这样在索引查询时会使用这个模型。
Settings.llm = llm

resp = llm.complete("XTuner 是什么？ ")
print(resp)
response = llm.complete("RAG是什么?")
print(response)