class Config:
    """配置类,统一管理API密钥和模型参数"""
    # API配置
    API_KEY = "ebfb3089ec884a8b87375dc442363032.HDbADyAvg8WQ9K6P"
    RERANK_API_KEY = "09bb02e2b48f4ce7827d9c5ca72e7c3c.Ou6h24BnfkoaFDPR"
    # DEFAULT_MODEL = "deepseek-chat"                     # 默认文本生成模型
    DEFAULT_MODEL = "glm-4"
    RERANK_BATCH_SIZE = 10   # 使用llm进行重排时候，设定的batch大小
    SECTION_RAG_TOP_K = 30   #撰写一个section最多用K篇文献
    #DEFAULT_MODEL = "glm-4"
    #DEFAULT_MODEL = "volcengine-deepseek-chat"                     # 默认文本生成模型
    EMBEDDING_MODEL = "embedding-3"             # embedding模型
    EMBEDDING_DIMENSIONS = 2048                 # embedding维度
    COS_THRESHOLD = 0.5
    RERANK_THRESHOLD = 19
    MAX_TOKENS = 4095
    YAML_CONFIG = r".\research_agent\core\llm_config.yaml"            # yaml配置文件路径
    # 最大token数
    # 其他配置参数
    TOP_K = 10              # query_by_content返回前多少个相关文档

    THRESHOLD = 0.5        # 重排序相似度阈值,默认0.35
    BATCH_SIZE = 64         # 生成embedding时分批处理数量
