import os

from langchain_community.llms.tongyi import Tongyi

os.environ["DASHSCOPE_API_KEY"] = "sk-9d8f1914800e497f8717144e860f99bc"

from langchain.memory import ConversationKGMemory
from langchain.prompts.prompt import PromptTemplate
from langchain.chains import ConversationChain

llm = Tongyi()
template = """
以下是一段人类与人工智能之间的友好对话。 人工智能很健谈，并根据上下文提供了许多具体细节。
如果人工智能不知道问题的答案，它就会如实说它不知道。 人工智能仅使用"Relevant Information"部分中包含的信息，不会产生幻觉。

Relevant Information:

{history}

对话:
Human: {input}
AI:"""
prompt = PromptTemplate(input_variables=["history", "input"], template=template)
conversation_with_kg = ConversationChain(
    llm=llm, verbose=False, prompt=prompt, memory=ConversationKGMemory(llm=llm)
)
res = conversation_with_kg.predict(input="你好？")
print(res)
res2 = conversation_with_kg.predict(input="我是小明的朋友，他是一名前端工程师")
print(res2)
