#docker-compose up -d

docker exec -it ollama  /bin/bash

#粘贴并执行下面代码
#中文的模型包
ollama run llama2-chinese "天空为什么是蓝色的?"
#英文的模型包
ollama run llama2 "Why is the sky blue?"

#curl http://localhost:11434/api/generate -d '{
#  "model": "llama2-chinese",
#  "prompt":"天空为什么是蓝色的?"
#}'

# ollama 存储文件位置： ./

