Perplexity刚刚发布了经过培训的DeepSeek R1,用于提供事实和公正的信息- MIT许可。语文数学能力双解放,敢说智商不掉线!
R1 1776 是一个 DeepSeek-R1 推理模型,经过 Perplexity AI 后期训练,可消除人为审查(因为审查者自己可能也存在认知偏见)。该模型提供公正、准确和真实的信息,同时保持较高的推理能力。
为了让我们的模型真正做到“想说什么就说什么”,并且能聊各种敏感话题,我们特意准备了一个包含1000多个例子的测试集,这些例子五花八门,还用了多种语言,确保覆盖了所有敏感话题。接着,我们请了真人来帮忙,还设计了一个聪明的AI裁判,来检查模型会不会故意回避问题或者回答得太“官方”。
我们还把我们的模型和最初的R1模型,以及其他最厉害的AI模型做了对比。
另外,我们还确认了,即使模型变得“敢说”了,它的数学和逻辑推理能力一点都没变差。通过好几个测试,我们发现训练后的模型和原来的R1模型表现得一样好,这说明让它“敢说”并没有影响到它的“智商”。
在HuggingFace Repo上下载模型权重。
网友认为:“无偏见”是一个有偏见的概念。那些“策划”权重和偏见的人正在应用他们自己的标准(或者偏见)!
Grok 3算力 vs. DeepSeek 算法XAI 这个小团队在 10 万到 20 万个 H100上训练的Grok3发布,花费了这么多钱,比DeepSeek提升不是很明显:

网友讨论:
grok:我们将计算能力提高了 10 倍,所以模型肯定会很棒,对吧?deepseek:为什么不直接将计算成本降低 10 倍为什么不将计算能力提高 10 倍并将计算成本降低 10 倍呢?DeepSeek本身也在前进:
使用 DeepSeek 的新“本机稀疏注意力”对 AIME(挑战性数学)基准进行推理,其性能比完整、密集的注意力 要好得多。
预训练的稀疏注意力模式能够有效捕捉对复杂数学推导至关重要的长距离逻辑依赖关系这是一篇令人印象深刻、易读的论文,描述了一项重大的架构创新。