当前,Deep Seek火爆全球,越来越多的公司和个人将该模型私有化部署。知名网安公司“奇安信”监测显示,国内接入Deep Seek的5669个服务器,88.9%未设置访问控制,直接暴露于公网,面临巨大数据泄露风险。专家分析,Deep Seek要想强劲发展,技术创新、商业化落地是两个关键,而大模型的自身数据安全,以及接入者的数据安全,则是关键中的要害;如何化解接入者“裸奔”危机、防止数据泄露,成Deep Seek 发展“命门”。蘑菇云对有关问题进行了梳理和分析。

全国工商联副主席、奇安信集团董事长齐向东一、事件回顾----AI安全防护的“三重困境”

Deep Seek接入服务器的数据泄露风险,并非中国独有、或是Deep Seek独有,是全球AI应用中普遍现象的具体案例。(一)全球AI应用的安全防护现状:繁荣背后有隐忧近年来,Deep Seek、ChatGPT等生成式AI技术爆发式增长,推动医疗、金融等领域加速智能化转型。然而,全球范围内AI安全防护能力严重滞后。奇安信监测数据显示,全球8971个Ollama大模型服务器中,有6449个活跃服务器,其中近九成“裸奔”在互联网上,导致任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,有可能导致数据泄露和服务中断。

ChatGPT功能强大(二)人工智能模型的共性安全挑战:从“算法黑箱”到“权限炸弹”AI模型的安全威胁,已从单一技术漏洞演变为系统性风险。例如,Ollama框架的远程命令执行漏洞(CVE-2024-37032),允许攻击者通过路径遍历实现任意文件读写;而OpenWebUI的文件上传漏洞(CVE-2024-6707),可被用于植入恶意代码。此类问题并非孤例,全球30%的开源AI工具存在高危漏洞,且修复周期长达数月。(三)DeepSeek的本地化部署风险:“裸奔”成常态Deep Seek凭借开源生态和低成本优势快速普及,但其默认配置的安全短板被严重低估。例如,攻击者通过扫描暴露的Ollama服务(默认端口11434),可窃取模型权重、投毒替换正常模型,甚至利用算力资源发起DDoS攻击。国内某医院部署Deep Seek后,因未关闭公网访问权限,导致患者隐私数据遭泄露,面临百万级罚款。

Deep Seek 公司的标识二、威胁渠道分析----AI安全攻击的“三驾马车”

Deep Seekt等AI大模型被用户接入后,安全攻击主要有3个方面。第一驾马车,暴露的服务器风险:算力与数据的双重失守攻击者通过Shodan等工具,扫描公网开放的AI服务(如Ollama、ComfyUI),利用默认无鉴权接口发起攻击。攻击者可构造恶意请求调用模型推理接口,占用GPU算力资源,导致服务崩溃。奇安信监测数据显示,6449个活跃Ollama服务器中,超5000个因未加密传输导致模型权重泄露。奇安信监测数据显示,大概有8971个IP运行了Ollama第二驾马车,模型与数据泄露:逆向工程与权限滥用通过侧信道攻击提取模型权重,或利用AI助手过度宽松的权限(如Microsoft Copilot)访问敏感数据。某金融机构部署的DeepSeek模型因未加密固件,遭攻击者逆向解析,窃取内部风控逻辑。第三驾马车,供应链攻击:从开源生态到恶意插件ComfyUI插件生态中的远程代码执行漏洞(如CVE-2023-48021),允许攻击者通过恶意节点控制服务器。腾讯朱雀实验室发现,60%的AI开发框架存在供应链漏洞,修复率不足20%。

仅需IP地址及端口,无需API密钥即可调用deepseek-r1大模型服务三、守住安全底线----构建Deep Seek使用的“护城河”

化解Deep Seek接入者“裸奔”危机、防止数据泄露,是一个系统工程,当前要从5个维度入手。(一)搞好企业规划,坚持顶层设计先行制定AI安全战略,将AI安全纳入企业数字化转型核心目标,明确数据主权和合规要求(如GDPR、中国《数据安全法》)。某银行在部署DeepSeek前,通过《AI风险评估报告》划定敏感数据边界,规避法律风险。(二)制定安全策略,坚持最小权限与纵深防御注重用好技术措施,对Ollama等服务强制启用TLS加密与RBAC权限控制,关闭非必要端口810。推荐使用腾讯AI-Infra-Guard工具,可以一键检测暴露服务,30秒生成修复建议。

技术措施对确保数据安全非常重要(三)强化技术支撑,坚持硬件加密与实时监控用好加密方案采用Intel SGX等安全硬件隔离模型运行环境,防止权重窃取。加强监控体系建设,可以部署威胁分析大模型,实时识别“导出客户清单”等异常提示词。(四)规范运行管理,坚持从“静态防御”到“动态治理”实施定期审计,每季度扫描AI组件漏洞,可利用AI-Infra-Guard自动化同步技术,更新CVE规则库。完善灾备机制,建立模型回滚与数据冷备份方案,应对勒索软件攻击。