package com.abc.ollama.vo;
import lombok.Data;

/*
    model: （必需）模型名称
    prompt: 生成响应的提示
    suffix: 模型响应后的文本
    images: （可选）一个 base64 编码的图像列表（适用于多模态模型，如 llava）
    高级参数（可选）：

    format: 返回响应的格式。目前唯一接受的值是 json
    options: 文档中列出的 Modelfile 中的其他模型参数，例如 temperature
    system: 系统消息（覆盖 Modelfile 中定义的内容）
    template: 使用的提示模板（覆盖 Modelfile 中定义的内容）
    context: 从先前请求 /generate 返回的上下文参数，可用于保持简短的对话记忆
    stream: 如果为 false，响应将作为单个响应对象返回，而不是一系列对象
    raw: 如果为 true，不会对提示进行任何格式化。如果你在请求 API 时指定了完整的模板提示，可以选择使用 raw 参数
    keep_alive: 控制请求后模型在内存中保持加载的时间（默认：5m）
 */


@Data
public class OllamaGenerateRequest {
    private String model;
    private String prompt;
    private String suffix;
    private String[] images;
    private String format;
    private String options;
    private String system;
    private String template;
    private String context;
    private String stream;
    private String raw;
    private String keep_alive;
}
