from asr import load_model, transcribe_audio, asr_router
from fastapi import FastAPI
from fastapi.middleware.cors import CORSMiddleware
import uvicorn

# 创建FastAPI应用
app = FastAPI(
    title="语音识别API", 
    description="基于FunASR的语音识别服务",
    version="1.0.0",
    docs_url="/docs",
    redoc_url="/redoc",
    openapi_url="/openapi.json"
)

# 添加CORS中间件
app.add_middleware(
    CORSMiddleware,
    allow_origins=["*"],  # 允许所有来源，生产环境中应该设置为特定的域名
    allow_credentials=True,
    allow_methods=["*"],  # 允许所有方法
    allow_headers=["*"],  # 允许所有头
)

# 包含路由
app.include_router(asr_router, prefix="/funasr", tags=["语音识别"])

# 添加根路由，便于测试服务是否正常运行
@app.get("/")
async def root():
    return {"message": "语音识别服务已启动，请访问 /docs 查看API文档"}

# 程序启动时预加载模型
if __name__ == "__main__":
    # 预加载模型，确保服务启动时模型已加载完成
    from asr import global_model
    if global_model is None:
        print("正在预加载模型...")
        from asr import load_model
        global_model = load_model(model_dir="iic/SenseVoiceSmall", device="cuda:0")
        print("模型预加载完成")
    
    # 启动服务
    print("正在启动服务，请访问 http://localhost:8002/docs 查看API文档")
    uvicorn.run(app, host="0.0.0.0", port=8002)