from langchain_ollama import OllamaLLM
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
from langchain.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain.prompts import PromptTemplate


# # 创建一个Ollama客户端并指定要使用的模型olll
ollama_client = OllamaLLM(base_url="10.12.8.21:11434", model="qwen2.5:14b")
# result = ollama_client.invoke("请问2只兔子有多少条腿？")
# print(result)


# # 定义一个提示词模板
# prompt = ChatPromptTemplate.from_template("请根据下面的主题写一篇小红书营销的短文： {topic}")
output_parser = StrOutputParser()
#
# # 创建一个请求链
# chain = prompt | ollama_client | output_parser
#
# # 调用请求链
# result = chain.invoke({"topic": "康师傅绿茶"})
# print(result)
#
#
#
# 定义一个诗歌生成的提示词模板
prompt_template = PromptTemplate.from_template("给我生成一个格式为绝句，内容是描写{content}的{adjective}诗歌")

# 使用模板生成一个具体的提示词
formatted_prompt = prompt_template.format(adjective="唐代风格", content="春暖花开，孤帆远影下江南。")
print(formatted_prompt)

# 创建请求链并调用
chain = prompt_template | ollama_client | output_parser
result = chain.invoke({"adjective":"唐代风格", "content":"春暖花开，孤帆远影下江南"})
print(result)
