DeepSeek本地部署教程+chatbox可视化页面附ollama自定义安装路径

2025-02-14 21:31:35 3点赞 25收藏 1评论

DeepSeek本地部署教程+chatbox可视化页面附ollama自定义安装路径

添加图片注释,不超过 140 字(可选)

方法一:Chatbox客户端(适合小白)

适用系统:Windows/Mac/Linux 核心步骤

  1. 安装Ollama

  • 官网下载安装包(需翻墙可替换为国内镜像源)

  • 验证安装:命令行输入ollama --version显示版本号

  • 安装包国内备用下载:mix688.com

  1. 下载模型 ollama pull deepseek-r1:1.5b-instruct # 低配设备选1.5B版本

  2. 配置Chatbox

优势:界面简洁,5分钟完成部署 缺陷:不支持知识库扩展

DeepSeek本地部署教程+chatbox可视化页面附ollama自定义安装路径

添加图片注释,不超过 140 字(可选)

方法二:浏览器插件Page Assist(免安装客户端)

适用浏览器:Chrome/Edge 操作流程

  1. 安装Ollama并下载模型(同方法一步骤1-2)

  2. 获取Page Assist插件

  • Chrome商店搜索安装 或 手动下载.crx文件(需开启开发者模式)

  • 如果下载失败,可以使用备用地址:mix688.com

  1. 插件配置

  • 点击插件图标 → 设置 → 模型选择deepseek-r1:1.5b → API地址保持默认

  • 语言切换为中文后保存

实测效果:响应速度比Chatbox快20%,支持多标签页对话 注意:Edge需手动加载Chrome插件

方法三:Open WebUI(开发者推荐)

技术栈:Docker + Python 部署步骤

  1. 安装Docker Desktop

  1. 启动Open WebUI容器 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

  2. 连接Ollama服务

方法四:Cherry Studio(企业级方案)

适用场景:需连接私有知识库 配置要点

  1. 下载客户端:mix688.com

  2. 添加本地模型: ollama list # 获取已安装模型名称

  • 在Cherry Studio设置中粘贴模型名称(如deepseek-r1:14b)

  1. RAG扩展

  • 上传PDF/TXT文档 → 自动生成向量索引

  • 对话时勾选"启用知识库检索"

硬件要求

  • 14B模型需≥16GB内存

  • 知识库索引需预留文档体积3倍存储空间

Ollama默认安装到C盘,我们也可以通过命令强制安装到其他盘符下

DeepSeek本地部署教程+chatbox可视化页面附ollama自定义安装路径

添加图片注释,不超过 140 字(可选)

DeepSeek本地部署教程+chatbox可视化页面附ollama自定义安装路径

添加图片注释,不超过 140 字(可选)

默认安装到D盘方法参考原文→自定义Ollama安装路径

作者声明本文存在利益相关性,请大家尊重作者及分享的内容,友善沟通,理性决策~

展开 收起

文章很值,打赏犒劳作者一下

打赏“首席”打赏官正虚席以待!
1评论

  • 精彩
  • 最新
  • 举报吧

    校验提示文案

    提交
提示信息

取消
确认
评论举报

相关文章推荐

更多精彩文章
更多精彩文章
最新文章 热门文章
25
扫一下,分享更方便,购买更轻松

举报成功

该举报信息「小小值」会优先核实并处理哦!