


from langchain_openai import OpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
from langchain_openai import ChatOpenAI
# 1. 初始化大语言模型
#llm = OpenAI(model_name="gpt-3.5-turbo-instruct", temperature=0) 我没用gpt，用的deepseek
llm=ChatOpenAI(
            model="deepseek-chat",
            api_key="sk-079f9ad2ad3f457ebd6e6eb90f56fb53",
            base_url="https://api.deepseek.com/v1",  # DeepSeek API 地址
            temperature=0.7
        )
# 2. 初始化 Memory
memory = ConversationBufferMemory()

# 3. 创建带有 Memory 的链
conversation = ConversationChain(
    llm=llm,
    memory=memory,
    verbose=False # 打印详细日志，方便查看内存如何使用
)

# 4. 进行多轮对话
print("第一轮:")
result1 = conversation.predict(input="法国的首都是什么？")
print(f"AI: {result1}")

print("\n第二轮:")
result2 = conversation.predict(input="它以什么闻名？") # AI 知道“它”指巴黎
print(f"AI: {result2}")

print("\n检查 Memory 中存储的历史:")
print(memory.load_memory_variables({}))


