# 导包
from langchain_classic.chains import ConversationChain
from langchain_classic.memory import ConversationBufferMemory
from langchain_community.llms import Tongyi

# 1.先定义函数（功能接收用户问题，调用qwen-max模型，返回答案）
def get_chat_response(prompt,memory,apikey):
    # 获取模型对象
    tyqw=Tongyi(
        model_name="qwen-max",
        api_key=apikey
    )
    # 封装会话链
    chain = ConversationChain(llm=tyqw,memory=memory)
    # 发送请求，并获取答案
    res=chain.invoke({"input": prompt
    })
    # 返回答案
    return res["response"]

# 2.在调用函数，输入问题并接收答案
prompt="用Python写一个快速排序算法"
memory=ConversationBufferMemory(return_messages=True)
apikey="sk-c6272ba55d3842dfa6a883cacc25e477"
result=get_chat_response(prompt,memory,apikey)
print(result)
