"""
安装必要的库
pip install langchain langchain-community
"""

from langchain_community.llms import Ollama
from langchain_ollama import OllamaLLM
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

from langchain_ollama import ChatOllama
# 1. 初始化 Ollama 模型连接
llm = ChatOllama(model="deepseek-r1:14b", validate_model_on_init=True)

# 1. 初始化 Ollama 模型连接
# llm = Ollama(
#     model="deepseek-r1:14b",  # 与 ollama list 中的模型名一致
#     base_url="http://localhost:11434",  # Ollama 服务地址
#     temperature=0.7,          # 控制随机性 (0-1)
#     num_predict=1024,         # 最大生成长度
#     top_k=50,                 # 采样参数
#     top_p=0.9,                # 采样参数
#     stop=["<|EOT|>"],         # DeepSeek 的停止标记
#     num_gpu=99,               # 使用全部 GPU 层加速
#     num_thread=8,             # CPU 线程数 (4090 可设 8-12)
# )

# 2. 创建提示模板
prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个专业的人工智能助手，回答需简洁专业。"),
    ("user", "{input}")
])

# 3. 构建处理链
chain = prompt | llm | StrOutputParser()

# 4. 调用模型
response = chain.invoke({"input": "AGI和AI的区别"})

print("模型回复：", response)


