GitHubSentinel / docs /ollama.md
DjangoPeng's picture
add GitHubSentinel v0.8.2
3851ff8

A newer version of the Gradio SDK is available: 5.6.0

Upgrade

Ollama 安装部署与服务发布

Linux

curl -fsSL https://ollama.com/install.sh | sh

手动安装说明

macOS

下载

Windows 预览版

下载


快速入门

要运行并与 Llama 3.1 进行对话:

ollama run llama3.1

模型库

Ollama 支持在 ollama.com/library 上提供的一系列模型。

以下是一些可以下载的示例模型:

模型 参数 大小 下载命令
Llama 3.1 8B 4.7GB ollama run llama3.1
Llama 3.1 70B 40GB ollama run llama3.1:70b
Llama 3.1 405B 231GB ollama run llama3.1:405b
Phi 3 Mini 3.8B 2.3GB ollama run phi3
Phi 3 Medium 14B 7.9GB ollama run phi3:medium
Gemma 2 2B 1.6GB ollama run gemma2:2b
Gemma 2 9B 5.5GB ollama run gemma2
Gemma 2 27B 16GB ollama run gemma2:27b
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Solar 10.7B 6.1GB ollama run solar

命令行工具

创建模型

ollama create 用于从 Modelfile 创建模型。

ollama create mymodel -f ./Modelfile

拉取模型

ollama pull llama3.1

此命令还可用于更新本地模型。仅会拉取差异部分。

删除模型

ollama rm llama3.1

复制模型

ollama cp llama3.1 my-model

多行输入

对于多行输入,可以使用 """ 包裹文本:

>>> """Hello,
... world!
... """

这将输出一个包含“Hello, world!”消息的简单程序。

多模态模型

ollama run llava "这张图片中有什么? /Users/jmorgan/Desktop/smile.png"

图像中显示的是一个黄色的笑脸,可能是图片的中心焦点。

以参数传递提示

$ ollama run llama3.1 "总结此文件: $(cat README.md)"

Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。


REST API

Ollama 提供 REST API 来运行和管理模型。

生成响应

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.1",
  "prompt":"为什么天空是蓝色的?"
}'

与模型对话

curl http://localhost:11434/api/chat -d '{
  "model": "llama3.1",
  "messages": [
    { "role": "user", "content": "为什么天空是蓝色的?" }
  ]
}'

有关所有端点(Endpoint)的详细信息,请参阅 API 文档


Docker 支持

Ollama 官方提供了 Docker 镜像 ollama/ollama,可以在 Docker Hub 上找到。

使用 CPU 运行

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

使用 Nvidia GPU 运行

要使用 Nvidia GPU,首先需要安装 NVIDIA Container Toolkit:

# 配置仓库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update

# 安装 NVIDIA Container Toolkit 包
sudo apt-get install -y nvidia-container-toolkit

# 配置 Docker 使用 Nvidia 驱动
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

启动容器:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

使用 AMD GPU 运行

要使用 AMD GPU 运行 Ollama,可以使用 rocm 标签,并运行以下命令:

docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm

本地运行模型

现在,你可以运行一个模型:

docker exec -it ollama ollama run llama3

请根据以上内容进行 Ollama 的安装和配置,使用 CLI 工具和 Docker 镜像来管理和运行各种模型。如需更多信息,请访问 Ollama GitHub 仓库