百元显卡 P106 “大战” DeepSeek R1 7B/8B 大模型

2025-02-11 10:52:48 27点赞 157收藏 19评论

前言

最近 DeepSeek 非常火爆,和 22 年 ChatGPT 横空出世一样,官方的服务器动不动就会“服务器繁忙,请稍后再试”。但和 ChatGPT 不同的是,DeepSeek 的官方 API 价格便宜,并且开源模型权重,允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。

这也就意味着在官方网站或者 API 繁忙时,我们还可以使用第三方的 API,甚至是本地运行蒸馏后的模型来运行 DeepSeek R1。

对于习惯使用 API 的用户,最近 DeepSeek 官方暂停了 API 服务的充值,大家可以先选择第三方的 API 使用,目前像是 NVIDIA 、腾讯云这些大厂都有限时的免费 API 可以使用,不用充值,用来简单体验下也够用了。

这次我们先来尝试一下本地部署蒸馏后的模型。

本地部署 DeepSeek R1 折腾为主,普通家用显卡部署的 7B/8B、14B 基本不可用,即便高端显卡部署的 32B 和 70B 勉强能用,和官方的 671B 模型相比也有非常大的差距。

配置要求

配置要求来源于网络,仅供参考

  • 1.5B:CPU最低4核,内存8GB+,若GPU加速可选4GB+显存,适合低资源设备部署等场景。

  • 7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。

  • 8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。

  • 14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。

  • 32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适合高精度专业领域任务等场景。

  • 70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,适合科研机构等进行高复杂度生成任务等场景。

P106-100 只有 6G 显存,最多只能运行 7B/8B 的模型,再往上的模型显存就不够用了。

部署

推荐使用 Ollama 部署 DeepSeek,可以一行命令直接部署完成,首先前往官网下载 Ollama

Ollama 官网Ollama 官网

点击 Download 后,选择系统下载相应版本的 Ollama

下载对应版本下载对应版本

安装流程很简单,直接点击 Install 就会自动安装

安装流程安装流程

Ollama 安装完成后,打开命令行,先运行 ollama -v 查看版本号,确认 Ollama 是否安装成功,然后就可以直接运行以下命令下载 DeepSeek R1 的模型,冒号后面的具体模型根据自己硬件调整,可以参考上面的配置要求

ollama run deepseek-r1:8b

下载 DeepSeek下载 DeepSeek

效果展示

可以看到 8B 的效果一言难尽,14B 相比 8B 效果要好一些,但总的来说都不太好用。

8B

8B8B

14B

14B14B

GPT-4o

GPT-4oGPT-4o

显存占用

6G 显存运行 7B/8B 模型勉勉强强够用,生成的速度也比较快,而运行的 14B 的话就有些力不从心了,有一大半都要依靠内存,生成速度比较慢。

7B / 8B

7B/8B7B/8B

14B

14B14B

删除模型

网上的很多教程都是“只管生不管养”的,教完安装不教怎么卸载的,第一次接触 Ollama 的安装几个模型之后不知不觉硬盘空间就没有了。

Ollama 可以通过 ollama list 查看安装的所有模型,再通过 ollama rm 删除。

删除模型删除模型

总结

总的来说,本地部署 DeepSeek 还是体验折腾为主,真正使用还是要用官网的版本或者调用 API 使用。况且现在都是在命令行中直接使用 DeepSeek,体验就更差了,下一期分享如何使用 WebUI 和客户端调用 DeepSeek 的 API,感兴趣的可以持续关注!

作者声明本文无利益相关,欢迎值友理性交流,和谐讨论~

展开 收起

文章很值,打赏犒劳作者一下

打赏“首席”打赏官正虚席以待!
19评论

  • 精彩
  • 最新
  • 有啥用我觉得使用场景还是有待优化和开发 [欢呼]

    校验提示文案

    提交
    确实 本地部署主要还是折腾着玩 真用还得官网的或者 API

    校验提示文案

    提交
    收起所有回复
  • 如果用hx40呢,有8g显存

    校验提示文案

    提交
    40HX 吗?显存更大肯定更好

    校验提示文案

    提交
    收起所有回复
  • p104可以不

    校验提示文案

    提交
    可以

    校验提示文案

    提交
    我是p106-100,如何调用gpu呢

    校验提示文案

    提交
    收起所有回复
  • 这款是越狱版,小心使用,不受语言限制。 [脸红]

    校验提示文案

    提交
  • 70b免费随便用,只有更高的需要自架,但架不起

    校验提示文案

    提交
    70b如何随便用?

    校验提示文案

    提交
    download distill

    校验提示文案

    提交
    收起所有回复
  • 能不能上2块p106?

    校验提示文案

    提交
  • 非常负责人的说,32b的那个配置只能说能用而已。实际上速度非常捉急。

    校验提示文案

    提交
  • r1的70b、660b、671b这些才是DS原生核心,小尺寸的都是蒸馏wwen llama这些得到的,一样笨

    校验提示文案

    提交
  • 别择腾了,除了满血版,其他都挺像小学生的

    校验提示文案

    提交
  • 我操作后怎么显卡一直百分之零

    校验提示文案

    提交
  • DS最近体验很差,十次有十次服务器繁忙,已经换回ChatGPT

    校验提示文案

    提交
    换别家的deepseek,有好几个腾讯版的,科大讯飞版的

    校验提示文案

    提交
    跟问的问题有关,换简单的就不忙

    校验提示文案

    提交
    收起所有回复
提示信息

取消
确认
评论举报

相关文章推荐

更多精彩文章
更多精彩文章
最新文章 热门文章
157
扫一下,分享更方便,购买更轻松

举报成功

该举报信息「小小值」会优先核实并处理哦!