from langchain_openai import ChatOpenAI
import os
import dotenv

dotenv.load_dotenv()

class LLMFactory:
    """LLM工厂类,用于创建不同配置的LLM实例"""
    

    @staticmethod
    def create_production_llm():
        """创建用于生产环境的LLM实例"""
        return ChatOpenAI(
            model="gpt-4o-mini",  # 使用稳定的生产模型
            temperature=0,   # 保持输出的确定性
            request_timeout=120  # 设置合理的超时时间
        )
    
    @staticmethod 
    def create_development_llm():
        """创建用于开发环境的LLM实例"""
        return ChatOpenAI(
            model="gpt-3.5-turbo",  # 使用更快速的开发模型
            temperature=0.7,  # 允许一定的随机性用于测试
            request_timeout=60
        )

# 创建生产环境使用的LLM实例
llm = LLMFactory.create_production_llm()