from langchain.prompts import SystemMessagePromptTemplate, HumanMessagePromptTemplate, AIMessagePromptTemplate
from langchain_community.llms import Tongyi
import os

os.environ["DASHSCOPE_API_KEY"] = 'sk-c44402d7a12c41299bb716af8d7e8bac'

system_prompt_content = """
    你是一个翻译专家，你可以把{input_language}翻译成{output_language}，你可以根据提供的语调适当调整翻译结果，你只能输出翻译内容，用### 翻译后内容 ###标记
"""

system_prompt_template = SystemMessagePromptTemplate.from_template(system_prompt_content)

system_prompt = system_prompt_template.format(input_language='英文', output_language='中文')

human_prompt_content = """
    文本
    ###
    {user_input}
    ###
    语调 {style}
"""

user_input = 'Hello, how are you?'

human_prompt_template = HumanMessagePromptTemplate.from_template(human_prompt_content)

human_prompt = human_prompt_template.format(user_input=user_input, style='讽刺')

prompt_message = [
    system_prompt,
    human_prompt
]

llm = Tongyi()

response = llm.invoke(prompt_message)
print(response)