Mac mini m4 丐版本地部署 Deepseek r1 开源模型

2025-01-29 19:59:34 2点赞 57收藏 16评论

1.下载ollama。进入ollama官网https://ollama.com,直接点击download,download for macOS,下载完毕后正常安装。

Mac mini m4 丐版本地部署 Deepseek r1 开源模型

2.下载模型。在ollama官网顶端的搜索框输入“deepseek-r1”,进入之后默认选中的是“7b”模型,选择你想要的模型,丐版可以先选默认7b模型安装,后续熟练了可以测试其他模型是否可用。我最大测试过14b模型,相比小模型首次输出时间长一点,但可用。请自行尝试。选择完毕后右边自动给出命令,直接点击右边的复制按钮复制命令,然后“cmd + 空格”输入“终端”(打开“终端”),将复制的命令直接粘贴进去回车,即可开始下载。下载完成后直接可以在终端窗口中开启聊天。

Mac mini m4 丐版本地部署 Deepseek r1 开源模型

3.下载软件对接模型。进入chatbox官网https://chatboxai.app/zh,点击下载适用于Apple silicon版本的chatbox安装,安装完毕后会自动选中之前已经下载好的模型,可以直接和本地部署完成的模型对话。如果有多个模型,可以自行选择需要使用哪个模型,开始对话。

Mac mini m4 丐版本地部署 Deepseek r1 开源模型
展开 收起

文章很值,打赏犒劳作者一下

打赏“首席”打赏官正虚席以待!
16评论

  • 精彩
  • 最新
  • 测试下来,7b的数据库好像很过时,我问apple M4处理器介绍,他直接来个M1的介绍,还硬说M4就是M1 pro。是不是文件越大的版本数据库越新?另外我想问问这个下载的模型都下载到mac本机的什么路径, 能不能装到外部ssd下面啊?

    校验提示文案

    提交
    我问了他的数据库截止日期是2024年的7月 [皱眉] 不过可以通过其他方式配合联网查询

    校验提示文案

    提交
    模型越大能力越强,就是可以理解成他的思考深度更深,回答的质量更好,同时思考速度也会增加。用ollama下载的模型要通过直接输入文件路径的方式打开,不过可以存放在外置的ssd上,这个我还没试过。我想等华强北的硬盘成熟之后直接把内置256替换掉 [邪恶]

    校验提示文案

    提交
    还有6条回复
    收起所有回复
  • 使用速度啥的你都没说啊

    校验提示文案

    提交
    使用速度是指的输出速度吗?我使用时候比网页版慢一点点,但基本感受不出差距,你可以自己部署一个亲自尝试,方法给你了哈

    校验提示文案

    提交
    我用m1 air跑14b,速度都可以接受

    校验提示文案

    提交
    收起所有回复
  • 学习了,正好要部署公文写作的本地库

    校验提示文案

    提交
    但还是不如在线的强大,本地部署的就感觉像是小学生,在线的是博士生

    校验提示文案

    提交
    试了下7b的确实太弱了,还不如线上的好用。

    校验提示文案

    提交
    还有1条回复
    收起所有回复
提示信息

取消
确认
评论举报

相关文章推荐

更多精彩文章
更多精彩文章
挂件

猪皮猪皮

Ta还没有介绍自己

关注 打赏
相关好价
最新文章 热门文章
挂件

猪皮猪皮

Ta还没有介绍自己

关注 打赏
57
扫一下,分享更方便,购买更轻松

举报成功

该举报信息「小小值」会优先核实并处理哦!