<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>DeepSeek R1 on POOROPS</title><link>https://blog.20231106.xyz/tags/deepseek-r1/</link><description>Recent content in DeepSeek R1 on POOROPS</description><generator>Hugo -- gohugo.io</generator><language>en-us</language><managingEditor>poorops@163.com (poorops)</managingEditor><webMaster>poorops@163.com (poorops)</webMaster><lastBuildDate>Fri, 06 Mar 2026 09:00:00 +0800</lastBuildDate><atom:link href="https://blog.20231106.xyz/tags/deepseek-r1/index.xml" rel="self" type="application/rss+xml"/><item><title>DeepSeek R1 本地部署实战：用 Ollama 跑通你的离线 AI 工作流</title><link>https://blog.20231106.xyz/posts/2026-03-06/deepseek-r1-%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E5%AE%9E%E6%88%98%E7%94%A8-ollama-%E8%B7%91%E9%80%9A%E4%BD%A0%E7%9A%84%E7%A6%BB%E7%BA%BF-ai-%E5%B7%A5%E4%BD%9C%E6%B5%81/</link><pubDate>Fri, 06 Mar 2026 09:00:00 +0800</pubDate><author>poorops@163.com (poorops)</author><guid>https://blog.20231106.xyz/posts/2026-03-06/deepseek-r1-%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E5%AE%9E%E6%88%98%E7%94%A8-ollama-%E8%B7%91%E9%80%9A%E4%BD%A0%E7%9A%84%E7%A6%BB%E7%BA%BF-ai-%E5%B7%A5%E4%BD%9C%E6%B5%81/</guid><description>&lt;p&gt;那天晚上 11 点，客户突然丢来一句话：“明早 9 点前，把竞品策略分析给我。”办公室的 Wi‑Fi 正好抽风，云端模型连不上，我盯着屏幕发愣：如果我能在本地把 AI 跑起来，就不会被网络卡住。第二天早上，我开始折腾 DeepSeek R1 + Ollama，本来只是救火，最后却发现——&lt;strong&gt;离线 AI 工作流，已经成了新的生产力杠杆&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;下面是我把它从“概念”跑到“可用”的全过程。&lt;/p&gt;
&lt;h2 id="效果展示离线也能随叫随到"&gt;效果展示：离线也能随叫随到&lt;/h2&gt;
&lt;p&gt;当你把 DeepSeek R1 在本地跑通，最直观的感受是“稳定”：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;断网可用&lt;/strong&gt;：不依赖云端，不怕临时网络崩溃&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;响应可控&lt;/strong&gt;：模型就跑在你的机器上，延迟可预测&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;数据更安全&lt;/strong&gt;：敏感资料不出内网&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;可持续复用&lt;/strong&gt;：一套脚本跑通，长期可持续产出&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从这次救火开始，我把本地 AI 变成了一个“随时能调的工具箱”。&lt;/p&gt;
&lt;h2 id="问题描述为什么云端并不总是可靠"&gt;问题描述：为什么云端并不总是可靠？&lt;/h2&gt;
&lt;p&gt;要理解为什么本地部署会成为热点，先看看现实问题：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;网络依赖太强&lt;/strong&gt;&lt;br&gt;
临时加班、外出会议、临时断网……云端模型的稳定性并不是 100%。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;成本与隐私压力&lt;/strong&gt;&lt;br&gt;
大量调用 API 不便宜，企业内部更在意数据出境问题。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;场景控制力不足&lt;/strong&gt;&lt;br&gt;
云端模型升级、限流、服务波动，都可能影响你的输出质量与节奏。&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;所以当 DeepSeek R1 这种高性能模型出现时，“把它搬到本地”就成了真正的热点。&lt;/p&gt;
&lt;h2 id="步骤教学用-ollama-跑通-deepseek-r1实战版"&gt;步骤教学：用 Ollama 跑通 DeepSeek R1（实战版）&lt;/h2&gt;
&lt;blockquote&gt;
&lt;p&gt;下面是可复用的落地流程，你可以按自己的机器配置做适配。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="步骤-1准备环境与基本条件"&gt;步骤 1：准备环境与基本条件&lt;/h3&gt;
&lt;p&gt;你至少需要一台性能尚可的机器（GPU 更佳，但 CPU 也能跑小模型）。准备好：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;操作系统：macOS / Linux / Windows 均可&lt;/li&gt;
&lt;li&gt;可用磁盘：预留 30GB 起步（不同模型大小差异大）&lt;/li&gt;
&lt;li&gt;命令行工具（Terminal / PowerShell）&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="步骤-2安装-ollama"&gt;步骤 2：安装 Ollama&lt;/h3&gt;
&lt;p&gt;Ollama 是最省心的本地推理工具之一，安装完成后就能直接拉模型：&lt;/p&gt;</description><content>&lt;p&gt;那天晚上 11 点，客户突然丢来一句话：“明早 9 点前，把竞品策略分析给我。”办公室的 Wi‑Fi 正好抽风，云端模型连不上，我盯着屏幕发愣：如果我能在本地把 AI 跑起来，就不会被网络卡住。第二天早上，我开始折腾 DeepSeek R1 + Ollama，本来只是救火，最后却发现——&lt;strong&gt;离线 AI 工作流，已经成了新的生产力杠杆&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;下面是我把它从“概念”跑到“可用”的全过程。&lt;/p&gt;
&lt;h2 id="效果展示离线也能随叫随到"&gt;效果展示：离线也能随叫随到&lt;/h2&gt;
&lt;p&gt;当你把 DeepSeek R1 在本地跑通，最直观的感受是“稳定”：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;断网可用&lt;/strong&gt;：不依赖云端，不怕临时网络崩溃&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;响应可控&lt;/strong&gt;：模型就跑在你的机器上，延迟可预测&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;数据更安全&lt;/strong&gt;：敏感资料不出内网&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;可持续复用&lt;/strong&gt;：一套脚本跑通，长期可持续产出&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从这次救火开始，我把本地 AI 变成了一个“随时能调的工具箱”。&lt;/p&gt;
&lt;h2 id="问题描述为什么云端并不总是可靠"&gt;问题描述：为什么云端并不总是可靠？&lt;/h2&gt;
&lt;p&gt;要理解为什么本地部署会成为热点，先看看现实问题：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;网络依赖太强&lt;/strong&gt;&lt;br&gt;
临时加班、外出会议、临时断网……云端模型的稳定性并不是 100%。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;成本与隐私压力&lt;/strong&gt;&lt;br&gt;
大量调用 API 不便宜，企业内部更在意数据出境问题。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;场景控制力不足&lt;/strong&gt;&lt;br&gt;
云端模型升级、限流、服务波动，都可能影响你的输出质量与节奏。&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;所以当 DeepSeek R1 这种高性能模型出现时，“把它搬到本地”就成了真正的热点。&lt;/p&gt;
&lt;h2 id="步骤教学用-ollama-跑通-deepseek-r1实战版"&gt;步骤教学：用 Ollama 跑通 DeepSeek R1（实战版）&lt;/h2&gt;
&lt;blockquote&gt;
&lt;p&gt;下面是可复用的落地流程，你可以按自己的机器配置做适配。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="步骤-1准备环境与基本条件"&gt;步骤 1：准备环境与基本条件&lt;/h3&gt;
&lt;p&gt;你至少需要一台性能尚可的机器（GPU 更佳，但 CPU 也能跑小模型）。准备好：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;操作系统：macOS / Linux / Windows 均可&lt;/li&gt;
&lt;li&gt;可用磁盘：预留 30GB 起步（不同模型大小差异大）&lt;/li&gt;
&lt;li&gt;命令行工具（Terminal / PowerShell）&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="步骤-2安装-ollama"&gt;步骤 2：安装 Ollama&lt;/h3&gt;
&lt;p&gt;Ollama 是最省心的本地推理工具之一，安装完成后就能直接拉模型：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#75715e"&gt;# macOS/Linux 示例&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;curl -fsSL https://ollama.com/install.sh | sh
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#75715e"&gt;# 启动服务&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama serve
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;Windows 用户可从官网下载安装包，完成后同样执行 &lt;code&gt;ollama serve&lt;/code&gt;。&lt;/p&gt;
&lt;h3 id="步骤-3拉取-deepseek-r1-模型"&gt;步骤 3：拉取 DeepSeek R1 模型&lt;/h3&gt;
&lt;p&gt;以 7B 模型为例，先体验流程：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama pull deepseek-r1:7b
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama run deepseek-r1:7b
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;如果你有更强的 GPU，可以尝试更高参数版本。建议从小模型起步，先跑通流程，再逐步升级。&lt;/p&gt;
&lt;h3 id="步骤-4把本地模型接进你的工作流"&gt;步骤 4：把本地模型接进你的工作流&lt;/h3&gt;
&lt;p&gt;一旦模型跑起来，你就可以把它接进自己的“生产线”：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;写作/报告&lt;/strong&gt;：本地生成大纲、段落、总结&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;代码助手&lt;/strong&gt;：快速解释日志与错误信息&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;知识库问答&lt;/strong&gt;：把公司资料接进本地向量库&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;示例（调用本地模型）：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama run deepseek-r1:7b &lt;span style="color:#e6db74"&gt;&amp;#34;用 5 条要点总结我们本周的销售会议&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;这一步才是关键：&lt;strong&gt;从“跑通模型”升级到“能交付结果”&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="步骤-5性能与稳定性优化进阶"&gt;步骤 5：性能与稳定性优化（进阶）&lt;/h3&gt;
&lt;p&gt;当你发现模型开始“慢”或“卡”，可以从三件事入手：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;选择合适的量化版本&lt;/strong&gt;（Q4/Q5/Q8）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;监控内存与显存占用&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;把重复任务脚本化&lt;/strong&gt;，避免频繁人工输入&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;最终你会得到一个小型、可复用、可扩展的离线 AI 工作流。&lt;/p&gt;
&lt;h2 id="升华总结离线部署不是炫技而是掌控力"&gt;升华总结：离线部署不是“炫技”，而是掌控力&lt;/h2&gt;
&lt;p&gt;DeepSeek R1 本地部署的热度，并不只是技术热潮，而是一种更可控的工作方式：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;从“依赖云端”到“本地自给”&lt;/li&gt;
&lt;li&gt;从“临时调用”到“稳定交付”&lt;/li&gt;
&lt;li&gt;从“单次体验”到“流程化工具链”&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果你也经历过“网络一断就失控”的时刻，本地 AI 会成为你真正的保险。真正的价值不是模型参数有多大，而是&lt;strong&gt;它在关键时刻能不能帮你把事情交付完&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;参考链接：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://www.sitepoint.com/deepseek-r1-local-deployment-guide-2026/"&gt;https://www.sitepoint.com/deepseek-r1-local-deployment-guide-2026/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.36kr.com/p/3162062358637056"&gt;https://www.36kr.com/p/3162062358637056&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.poorops.com/"&gt;https://www.poorops.com/&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</content></item></channel></rss>