import { Ollama } from "@langchain/ollama";
import { SecureCache } from "./utils.js";

const sc = new SecureCache();

const model = new Ollama({
  model: "llama3",
  cache: sc, // 使用自定义的缓存算法
});

const start = Date.now();
const res = await model.invoke("请你使用中文介绍一下大象这种动物");
const end = Date.now();
console.log(res);
console.log(`花费的时间为: ${end - start}`);

const start2 = Date.now();
const res2 = await model.invoke("你可以使用中文介绍一下大象这种动物吗？");
const end2 = Date.now();
console.log(res2);
console.log(`花费的时间为: ${end2 - start2}`);
