// ignore_for_file: constant_identifier_names, non_constant_identifier_names

///
/// 对话模型的可选选项
///
class XChatOptions {
  // 介于 -2.0 和 2.0 之间的数字。如果该值为正，那么新 token 会根据其在已有文本中的出现频率受到相应的惩罚，降低模型重复相同内容的可能性。
  final int frequency_penalty;
  // 介于 1 到 8192 间的整数，限制一次请求中模型生成 completion 的最大 token 数。输入 token 和输出 token 的总长度受模型的上下文长度的限制。如未指定 max_tokens参数，默认使用 4096
  final int max_tokens;
  // 介于 -2.0 和 2.0 之间的数字。如果该值为正，那么新 token 会根据其是否已在已有文本中出现受到相应的惩罚，从而增加模型谈论新主题的可能性。
  final int presence_penalty;
  // 采样温度，介于 0 和 2 之间。更高的值，如 0.8，会使输出更随机，而更低的值，如 0.2，会使其更加集中和确定。 我们通常建议可以更改这个值或者更改 top_p，但不建议同时对两者进行修改。
  final int temperature;
  // 作为调节采样温度的替代方案，模型会考虑前 top_p 概率的 token 的结果。所以 0.1 就意味着只有包括在最高 10% 概率中的 token 会被考虑。 我们通常建议修改这个值或者更改 temperature，但不建议同时对两者进行修改。
  final int top_p;
  // 一个 string 或最多包含 16 个 string 的 list，在遇到这些词时，API 将停止生成更多的 token。默认null
  final dynamic stop;
  // 如果设置为 True，将会以 SSE（server-sent events）的形式以流式发送消息增量。消息流以 data: [DONE] 结尾。【默认false】
  final bool stream;
  /* 
    流式输出相关选项。只有在 stream 参数为 true 时，才可设置此参数。
    boolean include_usage
    如果设置为 true，在流式消息最后的 data: [DONE] 之前将会传输一个额外的块。此块上的 usage 字段显示整个请求的 token 使用统计信息，而 choices 字段将始终是一个空数组。所有其他块也将包含一个 usage 字段，但其值为 null。
   */
  final dynamic stream_options;
  // 模型可能会调用的 tool 的列表。目前，仅支持 function 作为工具。使用此参数来提供以 JSON 作为输入参数的 function 列表。最多支持 128 个 function。
  final dynamic tools;
  /* 
    控制模型调用 tool 的行为。
    none 意味着模型不会调用任何 tool，而是生成一条消息。
    auto 意味着模型可以选择生成一条消息或调用一个或多个 tool。
    required 意味着模型必须调用一个或多个 tool。
    通过 {"type": "function", "function": {"name": "my_function"}} 指定特定 tool，会强制模型调用该 tool。
    当没有 tool 时，默认值为 none。如果有 tool 存在，默认值为 auto。
   */
  final dynamic tool_choice;
  // 是否返回所输出 token 的对数概率。如果为 true，则在 message 的 content 中返回每个输出 token 的对数概率。【默认false】
  final bool logprobs;
  // 一个介于 0 到 20 之间的整数 N，指定每个输出位置返回输出概率 top N 的 token，且返回这些 token 的对数概率。指定此参数时，logprobs 必须为 true。
  final int? top_logprobs;
  /* 
    一个 object，指定模型必须输出的格式。
    设置为 { "type": "json_object" } 以启用 JSON 模式，该模式保证模型生成的消息是有效的 JSON。
    注意: 使用 JSON 模式时，你还必须通过系统或用户消息指示模型生成 JSON。否则，模型可能会生成不断的空白字符，直到生成达到令牌限制，从而导致请求长时间运行并显得“卡住”。此外，如果 finish_reason="length"，这表示生成超过了 max_tokens 或对话超过了最大上下文长度，消息内容可能会被部分截断。
    【默认 { "type": "text" }
   */
  final ReesponseFormat responseFormat;

  const XChatOptions({
    this.frequency_penalty = 0,
    this.max_tokens = 2048,
    this.presence_penalty = 0,
    this.temperature = 1,
    this.top_p = 1,
    this.stop,
    this.stream = false,
    this.stream_options,
    this.tools,
    this.tool_choice,
    this.logprobs = false,
    this.top_logprobs,
    this.responseFormat = ReesponseFormat.text,
  });

  Map<String, dynamic> toMap() => ({
        'frequency_penalty': frequency_penalty,
        'max_tokens': max_tokens,
        'presence_penalty': presence_penalty,
        'temperature': temperature,
        'top_p': top_p,
        'stop': stop,
        'stream': stream,
        'stream_options': stream_options,
        'tools': tools,
        'tool_choice': tool_choice,
        'logprobs': logprobs,
        'top_logprobs': top_logprobs,
        'response_format': {'type': responseFormat.type},
      });
}

///
/// 响应格式
///
enum ReesponseFormat {
  text('text'),
  json_object('json_object');

  const ReesponseFormat(this.type);

  final String type;
}
