Spaces:
Sleeping
Sleeping
File size: 5,135 Bytes
3851ff8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 |
## Ollama 安装部署与服务发布
### Linux
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
[手动安装说明](https://github.com/ollama/ollama/blob/main/docs/linux.md)
### macOS
[下载](https://ollama.com/download/Ollama-darwin.zip)
### Windows 预览版
[下载](https://ollama.com/download/OllamaSetup.exe)
---
## 快速入门
要运行并与 [Llama 3.1](https://ollama.com/library/llama3.1) 进行对话:
```bash
ollama run llama3.1
```
---
## 模型库
Ollama 支持在 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型。
以下是一些可以下载的示例模型:
| 模型 | 参数 | 大小 | 下载命令 |
| ------------------ | ----- | ----- | ------------------------------ |
| Llama 3.1 | 8B | 4.7GB | `ollama run llama3.1` |
| Llama 3.1 | 70B | 40GB | `ollama run llama3.1:70b` |
| Llama 3.1 | 405B | 231GB | `ollama run llama3.1:405b` |
| Phi 3 Mini | 3.8B | 2.3GB | `ollama run phi3` |
| Phi 3 Medium | 14B | 7.9GB | `ollama run phi3:medium` |
| Gemma 2 | 2B | 1.6GB | `ollama run gemma2:2b` |
| Gemma 2 | 9B | 5.5GB | `ollama run gemma2` |
| Gemma 2 | 27B | 16GB | `ollama run gemma2:27b` |
| Mistral | 7B | 4.1GB | `ollama run mistral` |
| Moondream 2 | 1.4B | 829MB | `ollama run moondream` |
| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` |
| Starling | 7B | 4.1GB | `ollama run starling-lm` |
| Code Llama | 7B | 3.8GB | `ollama run codellama` |
| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` |
| LLaVA | 7B | 4.5GB | `ollama run llava` |
| Solar | 10.7B | 6.1GB | `ollama run solar` |
---
### 命令行工具
#### 创建模型
`ollama create` 用于从 Modelfile 创建模型。
```bash
ollama create mymodel -f ./Modelfile
```
#### 拉取模型
```bash
ollama pull llama3.1
```
> 此命令还可用于更新本地模型。仅会拉取差异部分。
#### 删除模型
```bash
ollama rm llama3.1
```
#### 复制模型
```bash
ollama cp llama3.1 my-model
```
#### 多行输入
对于多行输入,可以使用 `"""` 包裹文本:
```bash
>>> """Hello,
... world!
... """
```
这将输出一个包含“Hello, world!”消息的简单程序。
#### 多模态模型
```bash
ollama run llava "这张图片中有什么? /Users/jmorgan/Desktop/smile.png"
```
图像中显示的是一个黄色的笑脸,可能是图片的中心焦点。
#### 以参数传递提示
```bash
$ ollama run llama3.1 "总结此文件: $(cat README.md)"
```
Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。
---
### REST API
Ollama 提供 REST API 来运行和管理模型。
#### 生成响应
```bash
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt":"为什么天空是蓝色的?"
}'
```
#### 与模型对话
```bash
curl http://localhost:11434/api/chat -d '{
"model": "llama3.1",
"messages": [
{ "role": "user", "content": "为什么天空是蓝色的?" }
]
}'
```
有关所有端点(Endpoint)的详细信息,请参阅 [API 文档](./docs/api.md)。
---
### Docker 支持
Ollama 官方提供了 Docker 镜像 `ollama/ollama`,可以在 Docker Hub 上找到。
#### 使用 CPU 运行
```bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
```
#### 使用 Nvidia GPU 运行
要使用 Nvidia GPU,首先需要安装 NVIDIA Container Toolkit:
```bash
# 配置仓库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
# 安装 NVIDIA Container Toolkit 包
sudo apt-get install -y nvidia-container-toolkit
# 配置 Docker 使用 Nvidia 驱动
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
```
启动容器:
```bash
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
```
#### 使用 AMD GPU 运行
要使用 AMD GPU 运行 Ollama,可以使用 `rocm` 标签,并运行以下命令:
```bash
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
```
### 本地运行模型
现在,你可以运行一个模型:
```bash
docker exec -it ollama ollama run llama3
```
---
请根据以上内容进行 Ollama 的安装和配置,使用 CLI 工具和 Docker 镜像来管理和运行各种模型。如需更多信息,请访问 [Ollama GitHub 仓库](https://github.com/ollama/ollama)。 |