File size: 5,135 Bytes
3851ff8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
## Ollama 安装部署与服务发布

### Linux

```bash
curl -fsSL https://ollama.com/install.sh | sh
```

[手动安装说明](https://github.com/ollama/ollama/blob/main/docs/linux.md)

### macOS

[下载](https://ollama.com/download/Ollama-darwin.zip)

### Windows 预览版

[下载](https://ollama.com/download/OllamaSetup.exe)

---

## 快速入门

要运行并与 [Llama 3.1](https://ollama.com/library/llama3.1) 进行对话:

```bash
ollama run llama3.1
```

---

## 模型库

Ollama 支持在 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型。

以下是一些可以下载的示例模型:

| 模型               | 参数  | 大小  | 下载命令                       |
| ------------------ | ----- | ----- | ------------------------------ |
| Llama 3.1          | 8B    | 4.7GB | `ollama run llama3.1`          |
| Llama 3.1          | 70B   | 40GB  | `ollama run llama3.1:70b`      |
| Llama 3.1          | 405B  | 231GB | `ollama run llama3.1:405b`     |
| Phi 3 Mini         | 3.8B  | 2.3GB | `ollama run phi3`              |
| Phi 3 Medium       | 14B   | 7.9GB | `ollama run phi3:medium`       |
| Gemma 2            | 2B    | 1.6GB | `ollama run gemma2:2b`         |
| Gemma 2            | 9B    | 5.5GB | `ollama run gemma2`            |
| Gemma 2            | 27B   | 16GB  | `ollama run gemma2:27b`        |
| Mistral            | 7B    | 4.1GB | `ollama run mistral`           |
| Moondream 2        | 1.4B  | 829MB | `ollama run moondream`         |
| Neural Chat        | 7B    | 4.1GB | `ollama run neural-chat`       |
| Starling           | 7B    | 4.1GB | `ollama run starling-lm`       |
| Code Llama         | 7B    | 3.8GB | `ollama run codellama`         |
| Llama 2 Uncensored | 7B    | 3.8GB | `ollama run llama2-uncensored` |
| LLaVA              | 7B    | 4.5GB | `ollama run llava`             |
| Solar              | 10.7B | 6.1GB | `ollama run solar`             |

---

### 命令行工具

#### 创建模型

`ollama create` 用于从 Modelfile 创建模型。

```bash
ollama create mymodel -f ./Modelfile
```

#### 拉取模型

```bash
ollama pull llama3.1
```

> 此命令还可用于更新本地模型。仅会拉取差异部分。

#### 删除模型

```bash
ollama rm llama3.1
```

#### 复制模型

```bash
ollama cp llama3.1 my-model
```

#### 多行输入

对于多行输入,可以使用 `"""` 包裹文本:

```bash
>>> """Hello,
... world!
... """
```
这将输出一个包含“Hello, world!”消息的简单程序。

#### 多模态模型

```bash
ollama run llava "这张图片中有什么? /Users/jmorgan/Desktop/smile.png"
```
图像中显示的是一个黄色的笑脸,可能是图片的中心焦点。

#### 以参数传递提示

```bash
$ ollama run llama3.1 "总结此文件: $(cat README.md)"
```
Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。

---

### REST API

Ollama 提供 REST API 来运行和管理模型。

#### 生成响应

```bash
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.1",
  "prompt":"为什么天空是蓝色的?"
}'
```

#### 与模型对话

```bash
curl http://localhost:11434/api/chat -d '{
  "model": "llama3.1",
  "messages": [
    { "role": "user", "content": "为什么天空是蓝色的?" }
  ]
}'
```

有关所有端点(Endpoint)的详细信息,请参阅 [API 文档](./docs/api.md)。

---

### Docker 支持

Ollama 官方提供了 Docker 镜像 `ollama/ollama`,可以在 Docker Hub 上找到。

#### 使用 CPU 运行

```bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
```

#### 使用 Nvidia GPU 运行

要使用 Nvidia GPU,首先需要安装 NVIDIA Container Toolkit:

```bash
# 配置仓库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update

# 安装 NVIDIA Container Toolkit 包
sudo apt-get install -y nvidia-container-toolkit

# 配置 Docker 使用 Nvidia 驱动
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
```

启动容器:

```bash
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
```

#### 使用 AMD GPU 运行

要使用 AMD GPU 运行 Ollama,可以使用 `rocm` 标签,并运行以下命令:

```bash
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
```

### 本地运行模型

现在,你可以运行一个模型:

```bash
docker exec -it ollama ollama run llama3
```

---

请根据以上内容进行 Ollama 的安装和配置,使用 CLI 工具和 Docker 镜像来管理和运行各种模型。如需更多信息,请访问 [Ollama GitHub 仓库](https://github.com/ollama/ollama)。