直接提需求
DeepSeek R1 与主流大模型的区别
指令型 vs 推理型大模型
大多数主流大模型,如 **指令型大模型**,需要用户提供详细的指导和背景信息才能生成令人满意的回答。这类模型依赖于明确的提示词来理解任务需求。
例如,如果你想让一个指令型大模型扮演一位中国妈妈催促孩子相亲,你需要提供具体的场景和对话内容:
请你扮演我妈,用我妈的口气来教育我,批评我,催我结婚,让我回家。给我讲七大姑八大姨家的孩子都结婚了,为啥就我单身,再给我安排几个相亲对象。
这种详细的提示词不仅交代了需求背景(“用我妈的口气来教育我”),还提供了具体的对话流程(“七大姑八大姨家的孩子都结婚了”,“再安排几个相亲对象”)。因此,在指令型大模型盛行的时候,市场上出现了许多提示词模板,并催生了“提示词工程师”这一职业。
相比之下,DeepSeek R1属于推理型大模型。这类模型不需要用户列出过于详细的流程,因为过多的细节反而会限制其表现。DeepSeek R1 对提示词非常敏感,建议用户直接描述问题,以便获得最佳效果。
实例对比
为了更好地理解这些差异,我们可以看一个具体的例子:当老黄看到英伟达的股价因为 DeepSeek R1 暴跌 17% 时,写出他的内心独白。
1. 豆包 的回答:
- 输出较为简单,仅限于心理描述,显得空洞乏味。
2. 某主流大模型 (假设为 GPT-4o) 的回答:
- 相对丰富一些,加入了人物动作,但依然略显单薄。
3. Claude 3.5 Sonnet 的回答:
- 不仅提到了之前的类似情况,还深入分析了英伟达的生态系统,使整个回答更具说服力。
4. DeepSeek R1的回答:
- 自动生成了许多情节,读起来更形象且富有画面感。它不仅理解了问题的核心,还能自行扩展内容,使回答更加生动。
用 DeepSeek R1 的技巧
对于 DeepSeek R1,用户可以将自己想象成老板,而DeepSeek R1 则是专业的助手。你只需提出需求,助手会自行处理并提供高质量的回答,无需详细指示具体步骤。几次交流后,你可能会发现 AI 的博学程度远超预期。
以下是一些让 DeepSeek R1 更好用的技巧:
1. 简洁明了:直接描述问题,避免冗长的提示词。
2. 信任模型:给 DeepSeek R1 更多自由度,让它自行推理和扩展内容。
3. 反复试验:通过多次互动,了解如何更好地与模型沟通,以获得最理想的结果。
通过这些方法,你可以充分发挥 DeepSeek R1 的潜力,使其成为你的得力助手。
万能提问模板
要想更好地与DeepSeek R1交流,可以尝试优化提问方式。单纯提出问题确实能获得不错的回应,但如果稍加技巧.reserveexejec Oops,网页内容无法显示, 似乎出现了一些问题。我们可以重新梳理这些优化提问的建议:
首先是添加背景描述。告诉DeepSeek R1你的身份(如互联网从业者)、当前水平(如新手自媒体)以及希望它扮演的角色(如自媒体运营专家)。
当回答不是理想中的效果时,可以加入约束条件来优化结果。
总结出一个简单实用的提问模板:背景+需求+约束条件(可选)。
示例:我家小孩读初一(背景),如何提升他的英语水平(需求),不涉及口语提升(约束条件)。
DeepSeek R1会提供详细且贴心的回答,包括高效学习方法和实用技巧。
如果对某个点想了解更深入,可以进一步展开。
这个模板能解决90%的常见问题,让DeepSeek R1成为工作学习生活的好帮手。
让DeepSeek "说人话"
当遇到专业领域问题时,用"说人话"、"白话"等提示,让回答更易懂。例如: 问:"DeepSeek成本低的原因是什么?" 用"说人话"后的回答会将专业术语转化为更通俗易懂的解释。
模仿回答
通过"模仿X"这样的提示,调整回答风格。例如:
用知乎回答方式回应DeepSeek影响股价的问题模仿贴吧暴躁老哥的语气模仿李白写春联模仿烽火戏诸侯写小说高级技巧
多模型组合:复杂场景下,结合 Sonnet等模型。 业务分析:开启联网搜索,上传资料分析。例如在小红书运营时,DeepSeek R1能提供详细流程和图表,带来极大帮助。
DeepSeek 不适合做什么?
DeepSeek 碰到一些问题类型时会提示“无法思考这类问题” 。
一般来说,主要是如下几类问题:
1. 敏感内容:国产审核比较严,这里不说多了,懂得也懂。
2. 长文本内容:现在 DeepSeek 模型上下文长度最长为 6 万 4 千个 token,最大输出长度为 8 千个 token,默认输出长度为 4 千个 token。这里科普下,一个 token 指的是一个语义单元,如一个单词或单词的一部分结构(词根或后缀)或标点符号等。而上下文长度包括输入长度(如用户问题、对话历史等)和输出长度。
目前主流大模型服务商提供的最大上下文长度如下:
1. 豆包:25.6 万 token
2. GPT-4o、GPT-o1:12.8 万个 token
3. Claude Pro:20 万个 token (约 500页文本或 100 张图片)
4. Gemini 1.5 Flash:100 万个 token
5. Gemini 1.5 Pro:200 万个 token
不知不觉写了这么多,由于篇幅有限,这里就先聊到这。其实还有很多内容还没写出来,大家可以先关注我,后续会持续给大家带来一些干货。
最后再说一句,从去年 ChatGPT 的爆火到现在的 DeepSeek R1 的轰动,AI 就像当年的智能手机一样,开始慢慢渗透进我们的生活,以后肯定会成为你我日常生活中的一部分。大家应该很难相信,人类现在没有手机会变成什么样。同样的,我相信再过 10 年,我们也离不开 AI。
所以,如果你觉得本文对你有帮助,请转给你身边需要使用 AI 的家人朋友,让他们也能像你一样,更好地使用 AI 工具。