本文将详细介绍如何使用DifyDeepSeek搭建属于自己的本地知识库问答系统,其实就是将deepseek接入到dify即可。通过这一系统,你可以实现高效的知识检索与问答,可以用于个人学习、工作以及企业内部知识管理等等。接下来,让我们一步步深入了解搭建过程。

一、相关技术与工具介绍

在开始搭建之前,先了解一下本文涉及的关键技术和工具:

  • Dify:它是一个开源的AI应用开发框架,就像是一个“智能应用搭建工厂”。借助它,我们不用从头开始编写复杂的代码,通过可视化编排AI工作流,就能轻松实现知识库管理、模型集成等功能,极大降低了开发门槛。
  • Docker:这是一个容器化部署工具。打个比方,它就像一个个“软件集装箱”,把软件及其运行所需的各种依赖都打包在一起,确保在不同环境中,软件都能以相同的方式运行,有效解决了环境不一致和依赖管理的难题。
  • DeepSeek:这是一款国产的高性能大语言模型,有多种参数规格可供选择,能为我们的问答系统提供强大的语言理解和生成能力。
  • Ollama:它是本地大模型运行框架,支持部署主流的开源模型,让我们可以在本地轻松运行大模型,减少对外部服务器的依赖。

此外,还有两个重要概念需要理解:

  • 知识库:简单来说,就是一个存储、检索和传播大量知识信息的“仓库”。大模型通过学习丰富的对话数据,积累了大量如文本、图片、视频等语料数据,这些就构成了动态的知识库,帮助模型理解用户问题并给出合理回答。
  • 工作流:它描述了大模型处理输入数据的流程步骤,就像工厂里的生产线,从输入到输出,各个环节有序进行数据处理和信息整合,最终生成结果。

二、安装Dify的详细步骤

具体步骤参考如下文章:

三、在Dify中添加模型

登录Dify工作台后,在首页右上角找到个人信息处,点击进入设置页面。切换到“模型供应商”Tab页签,在这里可以添加各种模型。找到Ollama,点击“添加应用”。在弹出的表单中,填写以下内容:

  • 模型名称:在终端执行ollama list命令,查看自己在Ollama中已下载的模型,选择要添加的模型名称填写。如果还没有安装Ollama,可以查阅相关文档进行安装。
  • 基础URL:这一项需要特别注意。对于Windows或macOS系统的Docker用户,填写http://host.docker.internal:11434Linux Docker用户则填写http://172.17.0.1:11434
  • 模型类型:选择“对话”。
  • 模型上下文长度最大token上限:根据实际需求填写,本文示例中设置为4096。
  • 是否支持Vision是否支持函数调用:根据模型实际情况选择,这里示例中都选择“是”。

接着添加文本模型:

四、创建聊天应用

在Dify的工作室中,点击“创建空白应用”。在弹出的窗口中,选择应用类型为“聊天助手”,这是一种简单配置就能搭建基于大语言模型的对话机器人的应用类型。接着,为应用命名并添加描述(描述可选),然后选择之前添加的模型,如deepseek-r1:latest。还可以在提示词设置中,根据需求调整温度、Top P、Top K等参数,也可以导入知识库作为上下文,增强机器人的回答效果。设置完成后,点击右上角的“发布应用”,就能在“工作室”看到刚创建的应用了。

五、创建知识库

Dify支持多种方式导入知识库,这里以“同步自Web站点”为例。选择该方式后,会涉及到Jina Reader工具。如果Jina Reader未配置,需要先在jina.ai/reader/注册账号,然后在左下角复制自己的密钥,填写进Dify进行配置。配置完成后,选择要爬取的站点,可以是自己的博客、他人的博客,或者官方技术文档等可信内容。设置好爬取选项,如是否爬取子页面、是否使用sitemap、限制数量等,然后点击“运行”。接下来进行文本分段和清洗,这里会用到之前添加的Embedding模型,其他参数可使用默认值,完成设置后点击“保存并处理”,成功创建知识库。

六、测试引用知识库

进入之前创建的聊天应用,绑定创建好的知识库作为上下文。然后向应用提出包含知识库相关字眼的问题,应用会结合知识库内容和自身的理解生成回答。例如,询问“怎么做一个升降桌”,应用会根据知识库中的信息,给出制作升降桌的建议和步骤,包括材料选择、工具准备、组装方法等内容。这就展示了知识库问答系统如何利用知识库为用户提供有价值的信息。

七、使用siliconflow接入模型(可选)

如果你追求更高的性能和更大参数的模型,可以通过Dify接入硅基流动(siliconflow)的模型。硅基流动提供了一些免费模型,注册还会赠送一定额度。接入方法和之前添加模型类似,先在cloud.siliconflow.cn/注册账号,然后在模型广场筛选免费的DeepSeek模型,如deepseek-ai/DeepSeek-R1-Distill-Llama-8B。找到模型后,点击在线体验,通过F12开发者工具找到Payload参数中的model,获取免费模型名称。在Dify中添加模型时,填写好模型相关信息,包括从硅基流动获取的API Key,其他步骤和之前添加模型相同。这样就可以测试更高参数模型对知识库的引用效果,体验不同模型的表现。

通过以上步骤,你就成功使用Dify和DeepSeek搭建了本地知识库问答系统。这个系统不仅可以满足个人对知识管理和问答的需求,还可以应用于企业内部,如作为文档小助手嵌入系统,提升工作效率。大家可以根据自己的实际情况和需求,进一步优化和扩展这个系统。