import ollama

def chat_with_ollama(user_content, system_prompt=None, model_name=None, host=None):
    """
    与Ollama模型进行对话
    
    参数:
        user_content: 用户输入的内容字符串
        system_prompt: 系统提示词，设定规则和角色，默认为G1机器人简洁回答设定
        model_name: 使用的模型名称，默认为qwen2.5:7b-instruct-q4_0
        host: Ollama服务器地址，默认为http://localhost:11434
    
    返回:
        模型回复的内容字符串
    """
    # 设置默认参数
    if host:
        ollama.host = host
    else:
        ollama.host = 'http://localhost:11434'
        
    if model_name is None:
        model_name = "qwen2.5:7b-instruct-q4_0"
        
    if system_prompt is None:
        system_prompt = '你是宇树科技G1机器人的语音助手。你的回答必须简洁明了，长度一般不超过50字。直接回答问题要点，不要展开论述。'
    
    # 生成响应
    messages = [
        {
            'role': 'system',
            'content': system_prompt
        },
        {
            'role': 'user',
            'content': user_content
        }
    ]
    
    response = ollama.chat(model=model_name, messages=messages)
    
    # 返回模型的回复内容
    return response['message']['content']

# 示例用法
if __name__ == "__main__":
    # 简单测试
    user_input = "你是谁"
    response_text = chat_with_ollama(user_input)
    print(response_text)