from util.llm import qwen_chat
import time
import sys

# 使用llm.py中的qwen_chat函数进行流式调用
response = qwen_chat(
    system_prompt="你是一个乐于回答各种问题的小助手，你的任务是提供专业、准确、有洞察力的建议。",
    user_prompt="我对太阳系的行星非常感兴趣，尤其是土星。请提供关于土星的基本信息，包括它的大小、组成、环系统以及任何独特的天文现象。显示的要有结构。",
    model="qwen3:8b",
    stream=True
)

# 在控制台中逐字显示流式响应
full_response = ""
print("土星信息：")
print("-" * 40)

for chunk in response:
    chunk_content = chunk.choices[0].delta.content or ""
    full_response += chunk_content
    # 实时打印到控制台
    print(chunk_content, end="", flush=True)
    time.sleep(0.02)

print("\n" + "-" * 40)
print("响应完成！")