2025年春节,国产AI大模型DeepSeek以“开源免费+高性能”横扫科技圈,成为继ChatGPT后又一现象级工具。
然而,面对服务器频繁宕机的窘境,如何在手机和电脑上实现本地部署,享受离线流畅的AI体验?本文为你带来保姆级教程,附详细步骤与避坑指南!
一、手机端:安卓/iOS双平台部署指南📱安卓用户:Termux模拟Linux环境部署(推荐高性能机型)步骤1:安装基础工具
1.下载Termux(通过F-Droid或GitHub获取最新版,避免使用Google Play旧版)
2.打开Termux,更新软件源:
安装依赖工具:
pkg install wget curl git proot -y
(wget用于下载文件,git拉取代码,proot模拟Linux环境)
步骤2:安装Ubuntu子系统(解决兼容问题)
1.安装Ubuntu:
pkg install proot-distro
proot-distro install ubuntu
2.进入Ubuntu环境:
proot-distro login ubuntu
(此时手机已进入虚拟Linux系统)
步骤3:部署DeepSeek-R1模型
1.安装Python环境:
apt update && apt install python3 python3-pip -y
2.拉取模型(以7B参数版为例):
pip install deepseek
deepseek pull deepseek-r1
(需预留至少4GB存储空间)
3. 运行模型:
deepseek chat
(成功启动后,浏览器访问localhost:5000即可交互)
🍎iOS用户:iSH Shell轻量部署1.下载iSH Shell(App Store搜索安装)
2.安装Python与依赖:
apk add python3 py3-pip
pip install torch numpy
3.下载轻量版模型并运行(需从官网获取指令)
二、电脑端:Windows/Mac一键部署教程💻核心工具:Ollama平台(支持GPU加速)步骤1:安装Ollama
访问Ollama官网,下载对应系统版本
双击安装包,默认设置一键完成(无需注册)
验证安装:
ollama -v
(显示版本号即成功)
步骤2:下载DeepSeek模型
选择模型版本(根据电脑配置):
1.5B:4GB内存入门款
7B:8GB内存+4GB显存推荐款
32B:32GB内存+12GB显存高性能款
运行命令(以7B为例):
ollama run deepseek-r1:7b
(自动下载模型,7B版约4.7GB)
步骤3:可视化交互(可选)
ChatBox客户端:安装后设置API密钥为ollama run deepseek-r1:7b,实现图形化对话
浏览器插件:安装Open-WebUI插件,通过localhost:3000访问
模型选择:手机端优先选1.5B轻量版,电脑端7B版性价比最高
性能优化:关闭后台程序,定期清理缓存(手机建议预留10GB空间)
进阶玩法:
结合Docker部署Open-WebUI,实现多模型管理
通过Python脚本调用API,开发自动化工具
硬件门槛:7B模型需8GB内存,复杂任务响应可能延迟(轻薄本慎用)
网络问题:模型下载依赖稳定网络,失败时可手动替换国内镜像源
安全提示:警惕仿冒DeepSeek的钓鱼网站,仅从官网下载资源
AI平民化时代的到来DeepSeek的本地化部署,标志着AI技术从“云端神坛”走向“个人设备”。
尽管当前体验仍受硬件限制,但其开源特性与社区生态的快速发展,正不断降低技术门槛。
正如网友调侃:“以前觉得AI是科幻,现在连手机都能跑大模型——这才是真正的科技平权!”