import dotenv
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama import ChatOllama  # ✅ 替换为 LangChain 官方 Ollama 封装
from fastapi import APIRouter
from fastapi.responses import JSONResponse

router = APIRouter()
# 1.提示词模板
prompt = ChatPromptTemplate.from_template("{question}")
# 2.连接到远程 Ollama 服务
llm = ChatOllama(
    # model="qwen3:0.6b",  # 换成你在 Ollama 里有的模型名称
    model="deepseek-chat",  # 换成你在 Ollama 里有的模型名称
    base_url="http://172.16.21.38:11436"  # 服务器地址
)
# 3.输出解析器
parser = StrOutputParser()
# 4.组合成链
chain = prompt | llm | parser


@router.get("/test")
async def test():
    result = chain.invoke({"question": "请以表格的形式返回三国演义实力最强的十个人，并进行简要介绍"})
    return JSONResponse(content={"message": result})
