# -*- coding: utf-8 -*-
# time: 2025/4/9 10:31
# file: ch01.py
# author: hanson
"""
https://blog.csdn.net/java_leaf/article/details/147855021
流式处理
"""

from langchain_core.prompts import PromptTemplate, ChatPromptTemplate
from langchain_ollama import ChatOllama



# 创建模型实例
# llm = ChatOpenAI(temperature=0)
# 可以通过指令 ollama show qwen2.5:7b --path 查看目录  ollama list
llm = ChatOllama(model="qwen2.5:1.5b", temperature=0.3)


prompt = ChatPromptTemplate.from_messages([
    ("system", "你是世界级的技术专家"),
    ("user", "{input}")
])
# 5. 流式调用（需要创建新的流式链）
print("\n流式响应：")
streaming_chain = prompt | llm
for chunk in streaming_chain.stream({"input": "帮我写一个关于AI的100字左右的技术文章"}):
    print(chunk.content, end="", flush=True)  # 注意使用chunk.content

# input_tokens：输入的 token 数量;output_tokens：输出的 token 数量
