import os

from langchain.chains import LLMChain
from langchain.chat_models import QianfanChatEndpoint
from langchain_core.prompts import SystemMessagePromptTemplate, HumanMessagePromptTemplate, ChatPromptTemplate

"""使用LLMChain来对话"""
# 可以直接使用LLMChain这个Chain来与LLM对话，它将llm与prompt串联起来。

os.environ["QIANFAN_AK"] = "KBe3HbStsjvnGS9KFrNZFPes"
os.environ["QIANFAN_SK"] = "3yGoXGIdCCy8QLwcLCLdh3UGGlM7PKNn"

chatllm = QianfanChatEndpoint()

# 设置好模板
system_template = '将{input}翻译成{output}'
system_message_prompt_template = SystemMessagePromptTemplate.from_template(system_template)
human_template = '{text}'
human_message_prompt_template = HumanMessagePromptTemplate.from_template(human_template)

# ChatPromptTemplate
chat_prompt_template = ChatPromptTemplate.from_messages([system_message_prompt_template, human_message_prompt_template])

# 可以直接使用LLMChain来与LLM对话，它将llm与prompt串联起来。
llm_chain = LLMChain(llm=chatllm, prompt=chat_prompt_template)
result = llm_chain.run(input='中文', output='英语', text='苏州是一座美丽的城市')
# <class 'str'>
print(type(result))
print(result)


""" 调用流程分析 """


