//目前的模型 phi3:3.8b

/**
 * 与Ollama对话的函数封装
 * @param {string} message - 用户发送的消息内容
 * @param {object} [options] - 可选参数
 * @param {string} [options.model='phi3:3.8b'] - 使用的模型名称
 * @returns {Promise<string>} - 返回AI的回复内容
 */
async function chatWithOllama(message, options = {}) {
    const { model = 'phi3:3.8b' } = options;
    
    try {
        const response = await fetch('http://localhost:11434/api/chat', {
            method: 'POST',
            headers: {
                'Content-Type': 'application/json'
            },
            body: JSON.stringify({
                model,
                messages: [
                    {
                        role: 'user',
                        content: message
                    }
                ],
                stream: false
            })
        });

        if (!response.ok) {
            throw new Error(`Ollama API请求失败: ${response.status}`);
        }

        const data = await response.json();
        return data.message?.content || '未收到有效回复';
    } catch (error) {
        console.error('与Ollama对话时出错:', error);
        throw error;
    }
}

// 导出函数
module.exports = {
    chatWithOllama
};