律页科技 Logo
首页
解决方案
效能律所私有AI中枢AI 智能作业系统
品牌AI影响力升级数字人代运营
资源观点
资源文书资源法律导航
观点法律社区律页声音
有关律页
团队介绍加入律页联系律页
律页科技 Logo
首页
律页

产品与解决方案

首页律所私有AI中枢AI 智能作业系统AI 影响力升级 (GEO)AI数字人代运营

资源与观点

文书资源法律导航法律社区律页声音

关于律页

团队介绍加入律页联系律页

用户协议

数据使用声明Cookie使用政策文档发布协议隐私条款用户服务条款

关注我们

律页公众号

律页公众号

律页微博

律页微博

2023-2026 北京律页网络科技有限公司版权所有ICP经营许可 京B2-20254773京ICP备2023007930号-4京公网安备11010502056436号
北京律页网络科技有限公司 联系方式: 400-966-9558地址: 北京市朝阳区新华科技大厦13层1316室
全部问题
话题
话题
标签
榜单

看到了一个 Deepseek 本地部署教程,手动分享

Deepseek
/avatar/system/0x29.jpg
小绿叶
发表于 2025 年 02 月 12 日修改于 2025 年 02 月 12 日

部署流程

本地部署只需要三步:

  1. 安装Ollama
  2. 下载DeepSeek-R1大模型
  3. 使用Cherry Studio调用模型

Ollama的模型库里的40多种开源模型,比如阿里云通义千问推出的大模型Qwen2.5,Meta公司最新的大模型Llama 3.3等等,都可以通过这套流程来本地部署。

接下来我们一步一步还原一下本地部署DeepSeek-R1大模型的全过程。

1.安装Ollama
Ollama是一个在本地计算机上运行大模型的命令行工具,有了它,你就可以在本地跑大模型。

进入Ollama官网登录,点击Download。
Ollama安装包给大家打包好啦,扫码关注公众号回复:Ollama 领取

我用的是Windows系统,所以直接选择Windows的版本下载。

下载完点击安装,会默认安装在C盘,Windows版本不支持修改安装位置,所以我们无脑点“下一步”就行啦!

注意,安装完成后右下角会弹出提示框,点击“确认”,点击即可弹出窗口。

Ollama就安装成功啦。

部署DeepSeek R1模型
我们回到Ollama官网,点击左上角的“Models”进入模型库,点击DeepSeek-R1大模型。

Ollama提供7种不同参数的模型可供下载。

R1的模型参数是671B,差不多需要1300个G的显存,你才能跑得动满血版R1。

1.5B到70B是R1的蒸馏版,模型能力虽然不如满血版(参数数字越大能力越强),但是对硬件要求更低,在同规模的开源模型里表现也是很突出的,适合个人或企业本地部署。

我总结了一份DeepSeek-R1每个版本的配置要求的表格,大家可以对照选择:

这里我选择1.5B的模型,复制后面口令:ollama run deepseek-r1:1.5b

把口令粘贴进Ollama弹出的窗口中,按回车,就会开始下载模型。

静静等待进度条到100%,最后提示“success”,就说明下载完成了。

我们在命令行输入ollama run deepseek-r1:1.5b+问题,就能直接与AI对话。

但是这个界面看着太简陋了,而且每次提问都要复制一行命令,也不太方便。

接下来我们通过客户端来优化这个问题。

通过Cherry Studio调用模型
Cherry Studio是一款开源的多模型桌面客户端。它可以直接调用主流的大模型,比如OpenAI、Gemini,和本地模型。

像这样开源、好用的客户端还有Chatbox AI、AnythingLLM等等。

官方也整理过一份实用集成文件,可以帮我们更好地应用DeepSeek。

这里我们以Cherry Studio为例,一起操作一下。

进入Cherry Studio官网的下载界面,可以点击立即下载,或者从网盘链接下载。

安装步骤也是直接点下一步即可。

安装后点击左下角的设置。

在模型服务里选择Ollama,点亮右上角的启用,API密钥会自动填写,然后点击管理。

可以看到本地已经安装好的DeepSeek-R1模型,点击右边的+号。

我们返回到首页,点击页面上方显示的模型名称。

点击选择我们本地部署的DeepSeek-R1:1.5B。

就可以跟AI正常对话啦。

1.5B的模型泛用性不是太强,适合做一些简单的问答,如果想要将本地部署的R1应用在工作中,推荐7B或者更高参数的版本。

本地部署DeepSeek,有响应及时、免费、个性化程度高的优势,但是对配置有一定的要求,有合适的设备可以试试。

学会这个步骤,你可以在本地部署任意一款开源的大模型,快去试试吧!

本文涉及的所有工具:
Ollama:https://ai-bot.cn/sites/5973.html

Cherry Studio:https://ai-bot.cn/cherry-studio/

 

本地部署只需要三步:

Ollama的模型库里的40多种开源模型,比如阿里云通义千问推出的大模型Qwen2.5,Meta公司最新的大模型Llama 3.3等等,都可以通过这套流程来本地部署。

图片

操作简单,0基础有手就会,而且完全免费!

接下来我们一步一步还原一下本地部署DeepSeek-R1大模型的全过程。

Ollama是一个在本地计算机上运行大模型的命令行工具,有了它,你就可以在本地跑大模型。

进入Ollama官网登录,点击Download。

图片

 

图片

Ollama安装包给大家打包好啦,扫码关注公众号回复:Ollama 领取

 

我用的是Windows系统,所以直接选择Windows的版本下载。

图片

下载完点击安装,会默认安装在C盘,Windows版本不支持修改安装位置,所以我们无脑点“下一步”就行啦!

图片

注意,安装完成后右下角会弹出提示框,点击“确认”,点击即可弹出窗口。

Ollama就安装成功啦。

图片

我们回到Ollama官网,点击左上角的“Models”进入模型库,点击DeepSeek-R1大模型。

图片

Ollama提供7种不同参数的模型可供下载。

R1的模型参数是671B,差不多需要1300个G的显存,你才能跑得动满血版R1。

1.5B到70B是R1的蒸馏版,模型能力虽然不如满血版(参数数字越大能力越强),但是对硬件要求更低,在同规模的开源模型里表现也是很突出的,适合个人或企业本地部署。

我总结了一份DeepSeek-R1每个版本的配置要求的表格,大家可以对照选择:

图片

这里我选择1.5B的模型,复制后面口令:ollama run deepseek-r1:1.5b

图片

把口令粘贴进Ollama弹出的窗口中,按回车,就会开始下载模型。

图片

静静等待进度条到100%,最后提示“success”,就说明下载完成了。

图片

我们在命令行输入ollama run deepseek-r1:1.5b+问题,就能直接与AI对话。

图片

但是这个界面看着太简陋了,而且每次提问都要复制一行命令,也不太方便。

接下来我们通过客户端来优化这个问题。

Cherry Studio是一款开源的多模型桌面客户端。它可以直接调用主流的大模型,比如OpenAI、Gemini,和本地模型。

像这样开源、好用的客户端还有Chatbox AI、AnythingLLM等等。

官方也整理过一份实用集成文件,可以帮我们更好地应用DeepSeek。

图片

这里我们以Cherry Studio为例,一起操作一下。

进入Cherry Studio官网的下载界面,可以点击立即下载,或者从网盘链接下载。

图片

安装步骤也是直接点下一步即可。

安装后点击左下角的设置。

图片

在模型服务里选择Ollama,点亮右上角的启用,API密钥会自动填写,然后点击管理。

图片

可以看到本地已经安装好的DeepSeek-R1模型,点击右边的+号。

图片

我们返回到首页,点击页面上方显示的模型名称。

图片

点击选择我们本地部署的DeepSeek-R1:1.5B。

图片

就可以跟AI正常对话啦。

图片

1.5B的模型泛用性不是太强,适合做一些简单的问答,如果想要将本地部署的R1应用在工作中,推荐7B或者更高参数的版本。

本地部署DeepSeek,有响应及时、免费、个性化程度高的优势,但是对配置有一定的要求,有合适的设备可以试试。

学会这个步骤,你可以在本地部署任意一款开源的大模型,快去试试吧!

Ollama:https://ai-bot.cn/sites/5973.html

Cherry Studio:https://ai-bot.cn/cherry-studio/

编辑于 2025 年 02 月 12 日
相关话题
暂无