#ifndef OLLAMA_CLIENT_HPP
#define OLLAMA_CLIENT_HPP

#include <string>

namespace ollama {

// 与 Ollama 模型进行一次对话
// 参数与 Python 版本含义完全一致
std::string chat_with_ollama(
        const std::string& user_content,
        const std::string& system_prompt = "你是宇树科技G1机器人的语音助手。你的回答必须简洁明了，长度一般不超过50字。"
        "直接回答问题要点，不要展开论述。",
        const std::string& model_name    = "qwen2.5:7b-instruct-q4_0",
        const std::string& host          = "http://localhost:11434");

} // namespace ollama

#endif