DeepSeek本地部署指南!Mac、Windows都能用,内含详细教程

山已高水已长 2025-02-11 09:09:47

DeekSeek 火得一塌糊涂,但由于访问用户数量太多,导致服务器经常宕机:

得益于其开源模型,解决办法很简单,那就是把 DeekSeek 部署在本地设备,这样以来即便断网也能使用。

下面我将详细给大家分享把 DeekSeek 部署在本地电脑设备的教程,下面图文教程是以 Mac 为例,但实际上 Windows 同样适用。

下载 LLM 平台和 DS 模型

运行 DeekSeek 需要用到大型语言模型(LLM)平台,目前比较火我个人也比较推荐的是 Ollama:旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

首先我们进入 Ollama 官网 ollama.com 下载对应的 Mac 或者 Windows 客户端:

之后打开客户端,点击 install 即可大功告成,记住后续使用过程中 Ollama 不要关闭后台:

接着就是最重要的,在 Ollama 官网下载 DeekSeek 模型,目前第一个就是:

可以看到 DeepSeek 包含多个多个模型,简单来说数值越大就越聪明但需要的资源也越多:

具体如何选择呢?如果你的是 Mac 电脑,那么可以参考下图:

比如我的是 M1 Max 芯片 32GB 的 Mac Studio,那么就选择 14b 模型。选好模型之后右侧就有对应的命令行,一键复制:

接下来打开 Mac 上的终端 App:

粘贴刚才的命令行,然后回车输入开机密码之后再回车:

之后终端就会开始下载刚才选好的 DeepSeek 的模型,如上如图我这个 14b 模型有 9GB 大小,耐心等待下载即可。如果提示其他错误,有可能是网络问题,可尝试下科学上网。

终端 App 提示安装完成之后,就可以直接在终端上进行对话了。不过在终端 App 对话,每次都需要打开终端然后运行相应的指令,并且都是 markdown 纯文本显示不够美观,这时候就需要用到可视化操作界面了。

本地 DeekSeek 可视化

这种类型的工具都是建立在上述 Ollama 和模型安装完成基础之上的,所以上面的步骤一定要完成。这里一般有两种工具,一种是浏览器插件,另一种是 App 客户端。首先我们介绍浏览器插件:Page Assist。

直接在 Chrome 商店搜索 Page Assist 安装到浏览器,插件默认是英文可以修改改成中文,然后在 RAG 设置里面的文本嵌入模型选择 deepseek,这样就可以开启联网搜索:

最后回到主页面,在对话框输入你的问题,必要时候勾选联网开关:

不过由于我的是的 14b 模型,确实显得不够聪明,很多低级错误:

接下来介绍 AI 可视化客户端,类似的产品很多,目前比较火的是 Chatbox:

直接在官网 chatboxai.app 下载对应的客户端,安装完成之后打开,选择本地模型 - Ollama API,在模型里面选择 deepseek:

之后在对话框里面正常输入即可,由于不支持联网,信息知识截止到 2023 年 12 月:

另外这个客户端还有一些其他的提示词,感兴趣的可以自己探索:

3 阅读:557