<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
	<link href="css/body.css" rel="stylesheet" type="text/css"   />
    <title>通过Ollama来本地部署DeepSeek R1</title>
</head>
<body id="Wi">
		<div>
			<H1>前言：</H1>
			<P>在当今人工智能飞速发展的时代，大语言模型的应用与探索不断拓展着科技边界。Ollama 作为一款开源且极具创新性的工具，为本地部署大语言模型开辟了便捷通道。它操作简便，极大降低了模型部署门槛，让开发者无需复杂云端配置，就能在本地轻松运行各类模型，在模型部署领域占据重要地位。而 DeepSeek - R1 则是 DeepSeek 公司推出的性能卓越的大语言模型。凭借先进算法与强大算力支撑，它在自然语言处理任务中表现优异，在成本控制与性能优化上成果显著，训练成本远低于同类模型。无论是文本生成、问答交互，还是语义理解，都能提供高质量输出。</P>
			<P>本文将深入探讨如何在 Ollama 这一得力工具基础上，成功部署 DeepSeek-R1模型，为大家解锁更高效、更个性化的人工智能应用体验。</P>
			<P>DeepSeek 则来自中国杭州，由浙江对冲基金 High-Flyer 出资，于 2023 年 7 月成立。创始人梁文峰同时担任公司 CEO，团队积极从国内顶尖高校招募 AI 人才，还广纳计算机科学领域外的专家。</P>
			<P>Ollama 诞生于美国加利福尼亚州帕洛阿尔托，由 Michael Chiang 和 Jeffrey Morgan 创立的独立初创团队开发，是一款开源项目。它致力于让用户在本地设备便捷运行大型语言模型，代码遵循 MIT 开源协议，赋予用户查看、修改和分发权限，极大降低了模型本地部署门槛，在模型部署领域占据重要地位。</P>
			<P></P>
			
			环境：
			系统IOS：Windows 10
			AI盒子：OllamaSetup_v0.5.7.0.exe
			模型：deepseek-r1:1.5b ----也可以根据配置灌相应模型，支持全血 2@2

			<P></P>
			<P>一句话概括：Ollama 是一个允许您在计算机上本地运行开源大语言模型（LLM）的工具</P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			<P></P>
			
			
		</div>
        <div>
            <H1>Ollama的下载、安装（命令和双击安装）</H1>
            <P>首先我们到Ollama官网去下载安装包，此处我们下载的是Windows版本的安装包，如下图所示：</P>
            <P>官网地址：https://ollama.com/download</P>
			<P>归属国外资源，这个下载速度，大家都懂的，建议可以打包或从其他资源库获取。</P>
			<P>我们选择Windows版本直接下载（推荐64位系统），安装包约745M，支持Win10/11系统。点击"Download for Windows"按钮即可开始下载。</P>
			<P>OllamaSetup.exe</P>
			
			<P>通过网盘分享的文件：OllamaSetup.exe链接: https://pan.baidu.com/s/1_3C6tEPZmRvw9dpn9mmzxA?pwd=t2tq 提取码: t2tq</P>
			<P>下面提供两种安装方式：</P>
            <P>A.通过命令安装（推荐）；</P>
            <P>B.通过鼠标双击安装（不推荐）。</P>
            <P>安装Ollama的时候，推荐使用命令【2.1、🥪通过命令安装（推荐）】来安装，好处是可以修改安装的目录位置。</P>
            <P>而【通过鼠标双击安装（不推荐）】是不能修改安装的目录位置的（默认安装在C盘）。</P>
            <P>因此安装的时候强烈推荐选择【2.1、🥪通过命令安装（推荐）】方式进行安装。</P>

            <P>1.以管理员身份运行CMD，并定位到OllamaSetup.exe所在的目录（假设OllamaSetup.exe在D:\Temp目录下），</P>
			<P>打开cmd窗口然后执行如下命令：</P>

            <P>OllamaSetup.exe /DIR="D:\Net_Program\Net_Ollama"</P>
            <P>上述命令中DIR的值为D:\Net_Program\Net_Ollama，该值就是安装的目录位置。</P>
            <P>2.执行上述命令后，会弹出OllamaSetup.exe安装窗体界面，此时我们点击Install按钮等待安装完成即可，如下图所示：</P>
            <P>注意：安装完成后，Ollama默认为打开状态，此时我们先退出Ollama（鼠标右键点击任务栏的Ollama图标然后选择退出即可）。</P>

            <P>我们直接双击安装包，然后点击Install按钮等待安装完成即可，如下图所示：</P>
            <P>上图中，Ollama默认安装在C盘的C:\Users\quber\AppData\Local\Programs\Ollama目录下，如下图所示为默认安装的文件，大小大概有4.56GB：</P>
            <P>Ollama安装完成后，在桌面上是没有快捷启动图标的，我们可以在开始菜单中查找或在搜索框中搜索，如下图所示：</P>
            <P></P>
            <P></P>
            <P></P>

        </div>
        <div>
            <H1>安装目录迁移</H1>
            <P>1.如果不想将Ollama安装到C盘，可以将安装的所有文件全部剪切到其他盘的目录内，如转移到D盘的D:\Net_Program\Net_Ollama目录下，这样可以节约C盘的空间，如下图所示：</P>
            <P>2.转移后，我们还需要修改Ollama的环境变量。</P>
            <P>打开环境变量，双击用户变量中的Path，我们会看到最后一条信息就是Ollama安装完成后默认添加进来的，如下图所示：</P>
            <P>我们双击最后一条信息进入编辑状态，修改为我们转移的目录D:\Net_Program\Net_Ollama，然后点击确定按钮关闭所有窗体即可，如下图所示：</P>
            <P>上述步骤完成后，我们可以打开CMD/PowerShell，输入ollama -v命令，如果出现如下图所示的内容就代表Ollama安装成功了：</P>
            <P>ollama --version</P>
			<P>结果出现相应版本号类似ollama version is 0.5.7即表示安装成功。</P>
			<P>查看任务栏，有ollama小羊驼图标意味着 ollama已经启动。</P>
			<P>同样我们输入ollama -h命令可以查看Ollama其他操作命令，如下图所示：</P>
        </div>
        <div>
            <H1>大模型存储位置修改</H1>
            <P> 🎄修改大模型存储位置</P>
            <P>接下来我们需要配置大模型下载存储的目录位置（默认存储在C盘的C:\Users\quber\.ollama\models目录下）。</P>
            <P>同样我们打开环境变量，然后在用户变量中点击新建按钮，变量名为OLLAMA_MODELS，</P>
           <P>变量值为D:\Net_Program\Net_Ollama\Models，</P>
            <P>其中的变量值就是大模型下载存储的目录位置，最后点击确定即可，如下图所示：</P>
            

        </div>
        <div>
            <H1>下载DeepSeek</H1>
			<p>Ollama是一个运行开源大模型的平台，它提供了仓库存放非常多的开源模型，比如阿里通义千问, Meta llama等等。我们这次要探索的DeepSeek R1模型。</p>
			<p>我们回到 ollama 官网，在搜索栏搜索 deepseek-r1或访问下述链接来获取相应模型。</p>
			<P>https://ollama.com/library/deepseek-r1</P>
			<P>有1.5b, 7b, 8b,14b, 32b, 70b,671b等不同参数的模型。图中671b是DeepSeek R1模型，671b代表6710亿参数。所有版本均支持中英文双语，1.5b版实测可在8GB内存设备运行。</P>
			<P></P>
			模型            显存支撑     精度
			deepseek-r1:1.5b     4G        FP16
			deepseek-r1:7b      18G        FP16
			deepseek-r1:8b      21G        FP16
			deepseek-r1:14b     36G        FP16
			deepseek-r1:32b     82G        FP16
			deepseek-r1:70b     181G       FP16
			deepseek-r1:671b   771.5G       FP8
			显存查看：
			按下键盘上的“Win + R”组合键，打开运行窗口。
			在运行窗口中输入“dxdiag”，然后点击“确定”或按下回车键。
			使用DirectX诊断工具查看显示-总内存。
			<P></P>
			<P>deepseek-r1:1.5b  ---基础版（1.1GB），适合低配试玩（i5/8G内存/4G显存）起步</P>
			<P>deepseek-r1:7b   ---平衡版（4.7GB），主流（i7/16G内存/16G显存）起步</P>
			<P>deepseek-r1:14b  ---增强版（9.0GB），进阶版（i7/16G内存/32G显存）起步</P>			

            <P>同样我们打开Ollama官网，点击顶部的Models链接，此时我们就会看到deepseek-r1模型排在第一位，如下图所示：</P>
            <P>点击deepseek-r1链接进去，此时我们会看到下拉框中有各个版本的大模型，越往后对电脑硬件的要求越高，</P>
            <P>显卡要求：</P>
            <P>版本	````````````````````要求</P>
            <P>DeepSeek-R1-1.5b	NVIDIA RTX 3060 12GB or higher</P>
            <P>DeepSeek-R1-7b	NVIDIA RTX 3060 12GB or higher</P>
            <P>DeepSeek-R1-8b	NVIDIA RTX 3060 12GB or higher</P>
            <P>DeepSeek-R1-14b	NVIDIA RTX 3060 12GB or higher</P>

            <P>DeepSeek-R1-32b	NVIDIA RTX 4090 24GB</P>
            <P>DeepSeek-R1-70b	NVIDIA RTX 4090 24GB *2</P>
            <P>DeepSeek-R1-671b	NVIDIA A100 80GB *16</P>
            <P>随后我们复制下拉框后面的命令ollama run deepseek-r1:1.5b，</P>
			<P>粘贴到新打开的CMD窗口中回车执行（耐心等待下载完成），如下图所示：</P>
			启动交互界面，在Terminal命令窗口中执行该命令下载、运行大模型，比如最近大火的mistral，4G左右。：
			
			ollama run mistral
			ollama run deepseek-r1:1.5b
            <P>注意：上述下载命令需要在新打开的CMD窗口中执行（因为我们在【5、🎄修改大模型存储位置】中修改了大模型存储的位置），</P>
            <P>否则下载的文件存储在C:\Users\quber\.ollama\models位置，</P>
            <P>就不是我们修改的D:\Net_Program\Net_Ollama\Models这个位置了。</P>
            <P>温馨提示：下载过程中，最开始下载速度可能要快一些，下载到后面可能就几百KB了，此时我们可以按Ctrl+C停止下载，然后再重新复制命令执行下载，此时的下载速度又恢复到了几MB了（此操作可能会遇到重新下载的情况，但是几率很小），如此往复操作即可，如下图所示：</P>
			第一次运行，ollama会自动尝试从他们的仓库下载deepseek模型文件，当出现 success 时即表示部署成功，您可在本地进行信息检索和提问。


        </div>
        <div>

            <H1>🎀验证DeepSeek</H1>
            <P>在DeepSeek下载完成后，我们就可以在CMD中输入内容进行对话了，如输入：你好，如下图所示：</P>
            <P>假设我们安装了多个DeepSeek模型，我们可以通过ollama list命令查看已安装了的模型，如下图所示：</P>
            <P>如果我们想运行某个模型，我们可以通过ollama run 模型名称命令运行即可，如下图所示：</P>
            <P>ollama run deepseek-r1:14b</P>
            <P>如果我们想退出对话，我们可以通过/bye命令退出，如下图所示：</P>
            <P>     /bye      </P>
            <P>如果需要重新进入模型交互界面，可以在 PowerShell 中输入以下命令：</P>
            <P>ollama run deepseek-r1:1.5b</P>
            <P>ollama run deepseek-r1:7b</P>
            <P>ollama run deepseek-r1:8b</P>
            <P>ollama run deepseek-r1:14b</P>
			PS:如下载了多套模型，可以在命令窗台输入运行指令即可实现无缝切换。
			<P>ollama run deepseek-r1:32b</P>
			<P>ollama run deepseek-r1:70b</P>
			<P>ollama run deepseek-r1:671b </P>
			<P></P>
            <P>到此，DeepSeek R1的部署就基本告一段落。</P>
            <P>下载完成后，模型会自动运行，您可以在终端与模型进行交互，输入问题或任务，模型将提供相应的响应。</P>
            <p>模型加载时间过长：可能是由于硬件性能或网络速度限制。请确保系统满足模型的硬件要求，并检查网络连接。</p>

            <P>内存不足错误：考虑使用较小的模型版本或升级硬件配置。</P>
            <P>模型响应不准确：确保按照推荐的配置使用模型，例如将温度设置在 0.5-0.7 之间，并避免添加系统提示符。</P>
            <P>启动Ollama报错：Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.</P>
            <P>netstat -aon | findstr 11434：查找占用端口的进程。</P>
            <P>tasklist | findstr "6892"：查看该进程的详细信息。</P>
            <P>taskkill /PID 5580 /F：杀死该进程。</P>
            <P>taskkill /PID 6872 /F：杀死该进程。</P>————————————————



        </div>
        <div>

            <H1>通过Web UI来对话</H1>
            <P>虽然我们可以通过CMD窗口进行对话，但是相对不那么直观，于是我们可以通过第三方Web UI来实现对话效果。</P>
			目前只能在命令控制台与DeepSeek交互，这时我们可以部署开源软件Open WebUI来提升用户体验，其界面和ChatGPT和DeepSeek类似。
			Open WebUI是一个可扩展、功能丰富、用户友好的自托管AI平台，旨在完全离线运行。它支持各种LLM运行程序，如Ollama和OpenAI兼容的API，内置RAG推理引擎，使其成为一个强大的AI部署解决方案。
			ollama serve --host 127.0.0.1:11434
			ollama serve --host 0.0.0.0:11434

			<h2>8.1🎨Chrome插件-Page Assist</h2>
            <P>首先我们通过谷歌浏览器官方插件地址搜索Page Assist，点击Page Assist - 本地 AI 模型的 Web UI，如下图所示：</P>
            <P>然后添加到Chrome：</P>
            <P>安装完成后，我们可以将该插件固定（钉）到浏览器顶部，方便使用，如下图所示：</P>

             <P>随后我们点击该插件，就会出现如下图所示的界面：</P>
            <P>在界面中出现了Unable to connect to Ollama的提示，是因为我们安装的Ollama没有启动，此时我们只需要启动Ollama软件即可，启动后的界面效果如下图所示：</P>
            <P>Http://127.0.0.1:11434</P>
            <P>设置中文：点击界面右上角的Settings按钮，将语言设置为简体中文，如下图所示：</P>
             <P>设置完成后返回主界面，此时就是中文界面了。</P>
            <P>选择模型：点击主界面中的第一个下拉框，选择我们刚才下载的模型deepseek-r1:1.5b，如下图所示：</P>
            <P>到此，配置就完成了。</P>
            <P>对话演示：接下来我们就可以愉快的对话了，效果如下图所示</P>
             <P>温馨提示：上述演示效果等待时间可能有点长，和电脑的配置有一定的关系，仅供参考。</P>

            <h2>8.2、👑chatboxai在线对话</h2>
            <P>我们也可以通过在线Web UI https://web.chatboxai.app/ 进行对话。</P>
            <P>首先我们打开https://web.chatboxai.app/，打开后界面中间会有一个弹出框，我们点击阴影处即可取消该弹框的显示。</P>
            <P>设置中文：我们点击左下角的Settings，在弹出框中点击DISPLAY，在第一个下拉框中选择简体中文，随后点击右下角的SAVE即可显示为中文了，如下图所示：</P>
            <P>配置环境变量：在用户环境变量中，我们点击新建，分别新建下面两组变量，如下所示：</P>
            <P>OLLAMA_HOST       0.0.0.0    --任何IP都可以访问</P>
            <P>OLLAMA_ORIGINS    *</P>
            <P>重启Ollama：配置好环境变量后，我们重启下Ollama，目的是让https://web.chatboxai.app/能自动识别连接到Ollama服务，然后刷新下https://web.chatboxai.app/。</P>
            <P>设置模型提供方和模型：点击左下角的设置按钮，然后在模型选项卡中选择模型提供方为OLLAMA API，模型选择deepseek-r1:1.5b，然后点击保存，如下图所示：</P>
            <P>对话演示：接下来我们就可以愉快的对话了，效果图下图所示：</P>
            <P>到此，DeepSeek R1模型的本地部署以及简单对话应用就完成了！！！</P>
            <P></P>
            <P></P>
            <P></P>


        </div>


</body>
</html>