谷歌最近放大招了,一口气推出三款新AI模型,号称比市面上大多数AI更安全、更小巧、更透明。这可不是吹牛,而是实打实的技术干货。
这些新模型是谷歌Gemma 2家族的新成员,今年五月才刚亮相的Gemma 2可算是AI圈的新贵。这次推出的Gemma 2 2B、ShieldGemma和Gemma Scope各有侧重,但都瞄准了一个共同目标:安全。
你可别把Gemma和谷歌自家的Gemini搞混了。Gemini是谷歌的亲儿子,技术核心藏着掖着,只给自家产品和部分开发者用。而Gemma则是谷歌为了笼络人心,广交朋友推出的开源AI,有点像Meta的Llama。
Gemma 2 2B这个小家伙身手敏捷,能分析文本,还能在各种硬件上运行,甚至你的笔记本电脑和平板都能驾驭。谷歌大方地把这个模型开源了,研究员、公司、个人都能下载使用,渠道还挺多,谷歌的Vertex AI模型库、Kaggle数据平台和AI Studio工具箱都有。
ShieldGemma这个名字听起来就很硬核,它其实是个安全卫士,专门对付那些讨厌鬼,比如仇恨言论、骚扰信息和色情内容。它基于Gemma 2打造,能给生成式AI当过滤器,过滤输入的信息,也能审查AI生成的内容。
Gemma Scope这个名字有点抽象,其实是个AI显微镜。它能把复杂难懂的Gemma 2模型拆解开来,让我们看清楚AI的内在逻辑。谷歌自己都说,Gemma Scope就像是一群训练有素的神经网络,能把Gemma 2处理的信息放大、展开,方便人类研究。通过这个“显微镜”,科学家能更深入地了解AI的思考过程,发现其中的规律。
谷歌推出这三款新模型的时机也很微妙,正好赶上美国商务部发布了一份报告,力挺开源AI。报告里说,开源AI能让更多小公司、研究机构、非营利组织和个人开发者玩转AI,但同时也强调,必须密切关注这些模型的潜在风险。
谷歌这次的举动,既顺应了开源潮流,又强调了安全,可谓是一箭双雕。但问题来了,开源AI真的能解决安全问题吗?如何平衡开放和安全,考验的不仅是技术实力,还有社会责任。
谷歌的这步棋,无疑给整个AI行业投下了一颗重磅炸弹。未来,AI的发展方向究竟是封闭还是开放,将成为行业内的一大争论焦点。
我们拭目以待。