#输出器解释器
from dotenv import load_dotenv

from Langchain1 import response

load_dotenv

from langchain_openai import ChatOpenAi
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser, JsonOutputParser

#初始化模型
llm = ChatOpenAi()

#创建提示模板
prompt = ChatPromptTemplate.from_messages([
    ("system", "您是世界级的技术文档编写者"),
    ("user","{input}")
])
#使用输出解释器(有两种）
#output_parser = "StrOutputParser()
output_parser = JsonOutputParser()

#将其添加到上一个缝中
chain = __prompt | llm |output_parser
#chain = prompt | llm


#提问，答案是一个字符串
#chain.invoke9{"input" : "LangChain是什么？"})
response = chain.invoke({"input": "LangChain是什么？问题用question 回答用answer 用JSON格式回复"})
print(response)



