// const { OpenAI } ;
import { OpenAI } from 'openai';

// 初始化客户端（配置魔搭社区的接口地址和 Token）
const client = new OpenAI({
  baseURL: 'https://api-inference.modelscope.cn/v1', // 魔搭的 OpenAI 兼容接口
  apiKey: 'ms-3caed294-09b9-4c9a-a20d-940706fe9742', // 你的魔搭 Token
});




async function callModel() {
  try {
    // 调用模型的流式接口
    const stream = await client.chat.completions.create({
      model: 'deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B', // 魔搭模型 ID
      messages: [
        {
          role: 'user',
          content: '你好,帮我翻译一下下面的json为英文和德语'
        },
        {
          role: 'user',
          content: JSON.stringify(zh)
        }
      ],
      stream: true, // 启用流式响应
    });

    let doneReasoning = false;

    // 遍历流式响应的每个 chunk
    for await (const chunk of stream) {
      const delta = chunk.choices[0]?.delta;
      if (!delta) continue;

      // 提取推理过程内容（reasoning_content）
      const reasoningChunk = delta.reasoning_content || '';
      // 提取最终答案内容（content）
      const answerChunk = delta.content || '';

      if (reasoningChunk) {
        // 输出推理过程（不换行）
        process.stdout.write(reasoningChunk);
      } else if (answerChunk) {
        // 首次输出答案时，先打印分隔符
        if (!doneReasoning) {
          process.stdout.write('\n\n === Final Answer ===\n\n');
          doneReasoning = true;
        }
        // 输出答案内容（不换行）
        process.stdout.write(answerChunk);
      }
    }
  } catch (error) {
    console.error('调用失败：', error.message);
  }
}

// 执行调用
callModel();