主题
DeepSeek + Dify 本地部署私有化知识库
Dify 链接直达 ->背景:公司开发产品,由于产品特性不能对外开源,其使用文档也不开源,为了更好地进行技术支持,所以需要本地部署私有化知识库。另外 DeepSeek 由于外部攻击和使用人员较多,经常【服务器繁忙,请稍后再试】。
思路:下载 DeepSeek-R1 大模型、Dify 应用框架,在 Dify 应用框架中配置 DeepSeek-R1 大模型,这样就可以实现在本地部署私有化知识库了。由于 DeepSeek-R1 模型下载需要 ollama 命令下载、Dify 应用框架项目需要在 Docker 环境安装项目依赖,所以需要先下载 ollama 和 Docker。
先读为快,看下最终搜索一款我本地文档(@web-kits/table
文档),它的搜索结果:
就问 6 不 6?心动💓了没?那就搞起来~
01
ollama 下载与安装
ollama 下载
ollama是一个开源的本地模型服务,它可以让开发者在本地运行各种模型。如何下载 ollama,如下图:
ollama 安装
和普通应用安装一样,安装成功后,应用栏会出现一个小羊驼。
02
DeepSeek-R1 下载
TIP
终端下载 DeepSeek-R1 模型期间,不能关闭 ollama 客户端(对,就是那个应用栏小羊驼)。
识别下载 DeepSeek-R1 哪款模型
将本地电脑配置设备信息发给 DeepSeek,然后 DeepSeek 会推荐给你一个适合的模型。

提示词如下,可拷贝:
markdown
我现在正在使用 ollama 部署 DeepSeek-R1 模型,但是模型分为 1.5b、7b、8b、14b、32b、70b、671b,我不知道该怎么选择适合我电脑配置模型了,我现在把我电脑的配置信息发给你,你帮我推荐一个适合我的模型。
我的电脑配置信息如下:
芯片:Apple M2 Max
内存:96 GB
markdown
我现在正在使用 ollama 部署 DeepSeek-R1 模型,但是模型分为 1.5b、7b、8b、14b、32b、70b、671b,我不知道该怎么选择适合我电脑配置模型了,我现在把我电脑的配置信息发给你,你帮我推荐一个适合我的模型。
我的电脑配置信息如下:
系统:windows 11
运行内存:32G
专用GPU显存:6G
共享GPU内存:15.9G
模型下载
DeepSeek-R1 模型下载
进入 ollama 官网,点击 DeepSeek-R1,如下图:
选择上一步你咨询 DeepSeek 推荐的模型,然后选择(我选择 32b,为了速度,我也选了 14b),然后点击右侧【复制】按钮,如下图:
打开本地终端,粘贴刚刚复制的命令,如下图:
下载完成后,在本地终端输入你的问题,键盘按回车,终端也是能回答的,如下图。由于不是界面,操作很不方便,所以需要搭建 Dify,Dify 是什么,后面会介绍。
Embedding 向量模型下载
后面会用到,这里一并下载了,这里推荐 bge-m3 Embedding 向量模型, 点击【复制】按钮,如下图:
打开本地终端,粘贴刚刚复制的命令,如下图:
03
Docker 下载与安装
Docker 下载
Docker 是一个开源的应用容器引擎,它可以让开发者将应用程序及其依赖项打包成一个可移植的容器,然后在任何支持 Docker 的平台上运行。如何下载 Docker,如下图:
Docker 安装
安装 Docker 客户端后,如下图:
04
Dify 项目下载与安装
Dify 项目下载
Dify 是一个开源的 AI 应用开发平台,它可以让开发者快速搭建自己的 AI 应用。打开官网,如下图:
点击 Github 图标,进入 Dify 项目 Github 地址,然后下载 ZIP 包,如下图:
Dify 项目修改配置
Dify ZIP 包解压后,进入 dify-main 项目根目录 dify-main/docker
,将 .env.example
复制一份,命名为 .env
,打开 .env
文件,滚动条滚动到底部,新增如下内容:
shell
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 ollama 的 API 地址(根据配置环境调整 IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
Dify 项目依赖安装
进入 dify-main 项目根目录 dify-main/docker
,执行如下命令:
shell
docker compose up -d
终端命令行输出如下:
也可以通过 Docker 客户端查看:
Dify 管理员设置
- 设置邮箱字段。
- 设置用户名字段。
- 设置密码字段。

Dify 项目在线查看
在地址栏输入 127.0.0.1/install
,如下图:
05
Dify 配置与使用
大模型配置
DeepSeek-R1 模型配置
点击用户中心,选择【设置】,如下图:
设置弹框左侧菜单选择【模型供应商】,如下图:
看到 Ollama 后,点击其下面【添加模型】按钮,如下图:
表单填写:
- 【模型类型】字段选择
LLM
。 - 【模型名称】字段填写
deepseek-r1:32b
。- 是否为 32b 模型,根据你下载的模型选择,这个可复制在 ollama 选择 DeepSeek-R1 时选择时拷贝的命令截图。
- 【模型地址】字段填写
http://host.docker.internal:11434
。
填写好的表单,如下图:
Embedding 向量模型配置
配置界面还是按照之前步骤打开,之前下载的 bge-m3 Embedding 向量模型。
表单填写:
- 【模型类型】字段选择
Text Embedding
。 - 【模型名称】字段填写
bge-m3
。 - 【模型地址】字段填写
http://host.docker.internal:11434
。
填写好的表单,如下图:
创建应用
选择【工作室】选项卡,点击【创建空白应用】,选择【聊天助手】,如下图:
- 填写【应用名称/图标】。
- 填写【描述】。
- 点击【创建】按钮。
切换到【探索】选项卡,选择【工作助手】,如下图:
💯 :)再也不用担心【服务器繁忙,请稍后再试】了。
TIP
你会发现此时它是不知道 @web-kits/table
是什么,因为我们还没有创建和绑定私有文档文档。
创建私有化知识库
就是私有文档,这里以 Markdown 文档为例,其他文档格式要看 Dify 是否支持。
- 选择【知识库】选项卡,点击【创建知识库】,如下图:
- 点击【创建一个空知识库】,填写【知识库名称】,如下图:
- 点击【添加文件】,如下图:
- 选择【导入已有文本】,点击【选择文件】,如下图:
- 选择一个我本地还在开发的产品
@web-kits/table
,外部网络是无法访问的,再点击下一步,如下图: - 有个【索引方式】,有个【高质量(推荐)】选项初始是置灰的,但是这时候可以选中,是我们配置了 bge-m3 Embedding 向量模型,所以可以使用。其他配置默认,然后点击【保存并处理】,如下图:
- 会看到【文件已上传】,点击【前往文档 ->】如下图:
- 进入文档列表管理界面,可对文档做【重命名、删除等操作】,如下图:
绑定私有化知识库
- 切换到【工作室】选项卡,选择【工作助手】工作室,如下图:
- 进入【工作助手】工作室,在【上下文】模块中,点击【添加】刚刚创建的【工作助手-知识库】,点击保存,如下图:
- 然后【工作助手-知识库】就会出现在【上下文】模块中,点击右上角【发布】,在点击【更新】,如下图:
- 在右侧【调试与预览】进行提问,提问与知识库相关内容。
06
快乐地使用私有化知识库
切换到【探索】选项卡,选择【工作助手】,提问输入框输入: 什么是@web-kits/table?
,就会看到私有化知识库的回答了,如下图:
作者说
想要了解更多关于 DeepSeek、Dify 以及 AI 知识,欢迎在评论区留言。我会结和自己的节奏,持续更新。
若要了解最新 AI 动态,可戳 AI资讯。
(完,祝好~)