周鸿祎称DeepSeek被市场严重低估鳄鱼十三称DeepSeek,最大的价值是

雷频谈商业 2025-01-26 15:07:06

周鸿祎称DeepSeek被市场严重低估

鳄鱼十三称DeepSeek,最大的价值是推动Ai普及

会不会利空英伟达的股价?先说结论:

- **单任务层面**:

DeepSeek类模型能显著降低算力需求。  

- **行业整体层面**:算力需求是否下降取决于**技术优化速度**与**应用扩张速度**的竞争。当前趋势更倾向于“优化推动应用扩张,总需求仍可能增长”,但单位计算成本会持续下降。  

- **关键价值**:高效模型的核心意义在于**让AI更普惠**(更低门槛、更广部署),而非单纯追求算力总量减少。

DeepSeek这类高效AI模型的设计目标之一通常是**在保持或提升性能的同时降低算力需求**,但其对整体AI算力需求的影响需要辩证看待。以下是具体分析:

---

**1. 直接降低单任务算力需求的可能**

- **模型轻量化**:  

  若DeepSeek通过模型剪枝、量化、蒸馏等技术减少参数量或计算复杂度,可显著降低单个任务的算力消耗。例如,将FP32精度模型量化为INT8,算力需求可能降低4倍以上。

- **推理优化**:  

  高效的推理框架(如TensorRT、ONNX Runtime)结合硬件加速(GPU/TPU),可进一步压缩推理时的资源占用。

- **案例支持**:  

  类似的高效模型(如TinyBERT、MobileNet)已在自然语言处理和视觉任务中证明,轻量化模型能在性能损失较小的情况下减少90%以上的计算量。

---

 **2. 可能间接推高整体算力需求的场景**

- **应用场景扩展**:  

  算力需求下降可能促使AI技术更广泛落地(如部署到边缘设备或低端硬件),导致**总需求因应用数量激增而上升**。例如,手机端AI应用普及后,整体算力消耗可能不降反增。

- **模型规模持续增长**:  

  部分领域(如大语言模型)仍存在“越大越好”的趋势。若DeepSeek推动模型能力上限提升,可能刺激更大规模模型的研发,抵消单模型效率优化的收益。

- **训练成本居高不下**:  

  即使推理效率提升,训练高效模型(如DeepSeek)仍可能依赖大规模计算资源。若追求更高精度,训练阶段的算力消耗未必减少。

---

 **3. 行业算力需求的长期趋势**

- **短期局部下降**:  

  在特定场景(如边缘计算、实时处理)中,高效模型会直接降低算力需求。

- **长期动态平衡**:  

  算力需求取决于**技术优化**与**应用规模扩张**的博弈。历史经验显示,硬件效率提升(如摩尔定律)常被激增的计算需求(如深度学习崛起)迅速覆盖,形成“杰文斯悖论”。

---

 **4. 如何最大化降低算力成本?**

- **协同优化**:  

  结合高效模型(如DeepSeek)、专用硬件(TPU/ASIC)和分布式计算,实现端到端的算力节省。

- **需求分级**:  

  对性能要求低的场景使用轻量模型,高要求场景保留大模型,避免“一刀切”的资源浪费。

- **开源生态**:  

  通过社区共享优化后的模型和工具,减少重复训练和开发成本。

0 阅读:58
雷频谈商业

雷频谈商业

感谢大家的关注