今天我们来探讨一下如何使用DeepSeeK和AnythingLLM快速构建一个本地知识库系统。
如果你是一位程序员,常常被堆积的数据和文档困扰,希望能够找到一个智能工具来帮助你整理和快速提取关键信息。那么,本文将会是你的最佳选择!
1. 部署前提条件
首先,确保你已经在本地完成DeepSeeK的部署。如果还没有部署,别担心,我已经准备了一篇详细的教程供你参考,点击【如何安装DeepSeek本地模型】,按指示一步步操作即可。部署完成后,我们才能顺利安装AnythingLLM。
2. 下载与安装 AnythingLLM
安装AnythingLLM其实相当简单。你需要从官网下载与自己系统版本匹配的安装包。为了方便你,我已经整理好了安装包,你只需直接从网盘下载即可。
点击下方公众号卡片,回复关键字:deepseek,可获取网盘链接。
-
Windows用户:下载完成后,直接运行安装程序,根据提示完成安装。如果需要联网下载依赖库,确保网络连接畅通。
-
Mac用户:和Windows步骤相似,下载后打开安装包,跟随提示进行操作。如果系统要求授权,根据提示操作即可。
安装完成后,启动AnythingLLM,你将看到一个极简的界面,基本上零学习成本!只需根据右侧箭头的指示轻松推进。
有时候,你可能需要输入邮箱等信息,别担心,依照需求填写后继续点击右侧箭头即可。
3. 创建你的工作区
安装完成后,下一步是创建一个工作区,这将成为你管理所有知识库文档的中心。可以想象,这个工作区就如同我们的“知识大脑”。
-
打开AnythingLLM,给你的工作区命个名字,比如“本地知识库”。 -
点击确认,工作区便创建成功。
这一环节其实十分简单,无需复杂设置。接下来,我们进入配置模型的重点步骤。
4. 模型配置
创建工作区后,我们需要对模型进行配置,以确保DeepSeeK和AnythingLLM之间的无障碍沟通,这样才能顺利执行对话任务。
-
在界面的左下角,点击“扳手”图标,进入设置页面。
在“LLM首选项”中选择Ollama,作为你的对话模型。这是因为我们之前部署的就是Ollama本地实例,确保匹配选择模型。
-
然后配置DeepSeeK的IP地址。通常情况下,若你是本地运行DeepSeeK实例,IP地址应为
http://127.0.0.1:11434
。务必包括http://
,以确保正常连接。
-
配置完成后,点击保存。返回工作区页面,根据你的设置查看本地模型。
-
配置完成后,你便可以开始智能对话了!
5. 上传你的知识库文档
在有了工作区和配置好的模型后,下一步便是上传你的知识库文档。这个步骤至关重要,因为上传文档的质量直接影响模型回答的精准度。
-
在工作区界面,找到上传按钮,点击进入文件管理页面。
-
将本地文档拖拽至上传区域,或者如果是网页内容,你也可以直接输入网页链接,让系统同步内容。
-
上传完成后,选择需要的文档,点击“Move to Workspace”,将其移入工作区。
-
文档上传后,点击“Save and Embed”,将其解析并存储。解析速度可能会因文档大小而异,但耐心等待,很快就会完成!
-
解析完成后,所有上传的文档会显示在工作区文件面板中。
如果上传了多个文档,系统会自动处理较长的文件,并对其进行分段存储,从而避免信息冗余。
6. 将文档关联到会话
接着,我们需要将上传的文档关联到当前会话,以便DeepSeeK能够根据这些内容进行回答。
-
在工作区文件面板,找到需要关联的文档。
-
点击文档右侧的图钉按钮,将其绑定到当前会话。
-
返回对话页面,你就可以根据文档内容提出问题了。
如果不再需要文档帮助,你可以随时取消关联,恢复正常对话状态。
7. 开始对话!
到此为止,一切准备就绪,开始提问吧!通过输入问题,DeepSeeK会根据你关联的文档内容进行回答。例如,如果上传了某个领域的技术文档,DeepSeeK能提供精准的解答。
每当上传新的知识库文件时,记得输入/reset
指令,清空当前对话上下文,以免旧文档内容干扰新对话。
获取资源
为了方便大家,我已经将教程中涉及到的所有软件资源整理到网盘内,你可以直接下载所需文件。
以上就是使用DeepSeeK和AnythingLLM构建本地知识库的全攻略!别担心,虽然步骤看似繁琐,但其实都很简单,特别适合喜欢动手的程序员小伙伴们进行尝试。你可以将公司知识库、技术文档及学习资料全都整合进来,随时提问,立即获答,既省时又高效!
最后,我为大家准备了一份deepseek从入门到精通的免费教程:https://www.songshuhezi.com/deepseek
同时,欢迎加入下方的交流群,大家一起探讨deepseek的最新玩法!
发表回复