AI 领域的竞争不仅限于科技巨头谷歌、Meta 和 OpenAI 等 AI 巨头可能占据了所有头条新闻,但在幕后,一个同样动荡且快速扩张的生态系统正在成形。
本地可运行在家用电脑上的小型和专业化 AI 模型市场正达到白热化程度,这一趋势由个人和企业对 AI 应用几乎无限的需求所推动。
这一市场的兴起始于两年前 Meta 推出的开源 Llama 模型,并在今年 DeepSeek R1 发布后达到高潮。如今,这个“自制 AI”领域正沿着不可阻挡的轨道高速发展。
不仅是因为这些本地 AI 模型更加经济、隐私性更强,它们还可以轻松定制,以满足各种用途。
但它们真的那么有用,还是只是“看上去很美”?我决定测试当前三款主要的本地 AI 模型,看看它们的实际表现。
DeepSeekDeepSeek R1 可能是推动本地 AI 领域飞速发展的最大功臣。这款来自中国的 AI 模型免费、开源且功能强大,是任何想要尝试新 AI 应用的人的完美工具。
它之所以能迅速走红,主要有两个原因:
它可以在低配置硬件上运行,尤其是较小版本的模型。它可以用于训练其他 AI 模型,进而生成更强大的 AI 混合模型,这一过程被称为 AI 蒸馏(AI Distillation)。我目前最喜欢的版本是 DeepSeek R1 Distill Llama 8B,它的大小为 5.3GB,可以在我的台式机上流畅运行,同时提供稳定的性能,足以应对大多数日常任务。
从基本的聊天搜索(例如“如何去除棉质 T 恤上的污渍”),到处理税务问题或其他个人事务,它都能胜任。
因为它在本地运行,不需要联网,所以隐私性很高,这让我很放心。
Qwen另一个不错的选择是 Qwen 系列模型。
目前,我的 PC 上安装了 Qwen 2.5 的三个版本:7B、14B 和 32B。其中,只有最小的 7B 版本 能以可接受的速度运行,而更强大的版本虽然性能更好,但运行速度较慢,只有当我愿意等待时才会使用。
此外,Qwen 还提供了一个专门的代码生成版本,可以用于创建小型应用程序和实用工具,非常适合开发者。
LlamaLlama 作为开创性的 AI 模型,已经被证明是一个稳定、可靠且用途广泛的选择。
它在 视觉处理 方面仍然表现突出。因此,我使用 Llama 3.2-vision 来扫描文档和解析图像。虽然听起来有点“鸡肋”,但实际上这种 AI 视觉能力有着成千上万种应用场景,比如扫描汽车 VIN 码或医学影像分析。
此外,我还定制了一款 Llama 3 调优版本,用于一般知识查询。它的回答通常更详细、准确,体验非常不错。
使用本地 AI 模型需要注意的几点“新”通常意味着“更好”AI 技术发展迅猛,哪怕是 6 个月的更新,都可能带来 巨大 的质量和性能提升。受限于计算能力运行本地 AI 意味着,你的 计算机配置 可能会成为瓶颈。相比云端 AI,本地 AI 的 上下文窗口(context window) 通常较小,也就是说,它一次能处理的文本量有限。除非你的电脑 内存充足且显卡强大,否则处理复杂任务时可能会遇到困难。不过,随着技术进步,这一限制正在逐步改善。总结:推荐的 AI 模型及使用建议目前市场上有大量开源 AI 模型,每个人都可以找到适合自己的选择。
如果你想开始尝试,不妨在 Hugging Face(一个开源 AI 模型库)上搜索合适的模型。大多数模型都可以通过 Ollama 或 LMStudio 应用程序安装并运行,非常方便。
无论你是想要一个 隐私性更强的聊天 AI,还是一个 本地运行的编程助手,这些开源 AI 模型都能为你的日常工作和生活提供强大支持。