# from langchain_google_genai import ChatGoogleGenerativeAI
# import os

# def initialize_llm(api_key: str = None) -> ChatGoogleGenerativeAI:
#     if api_key is None:
#         api_key = os.environ.get("GOOGLE_API_KEY")
        
#     llm = ChatGoogleGenerativeAI(model="gemini-2.0-flash-thinking-exp-01-21")
#     return llm

from langchain_openai import ChatOpenAI
import os

def initialize_llm(api_key: str = None) -> ChatOpenAI:
    """
    初始化豆包 LLM 实例。

    :param api_key: 豆包 API 密钥，默认为 None。若为 None，则从环境变量中获取。
    :return: 初始化后的 ChatOpenAI 实例。
    """
    if api_key is None:
        api_key = os.environ.get("APP_KEY")  # 从环境变量获取 app_key

    llm = ChatOpenAI(
        openai_api_base="https://ark.cn-beijing.volces.com/api/v3",
        openai_api_key=api_key,
        model_name="doubao-1.5-vision-pro-250328"  # 替换为实际推理接入点
    )
    return llm