离散型制造行业智能工厂标准解决方案离散型制造行业的智能工厂解决方案是推动国家智能制造产业升级的关键。1. 集中优势资源:
浅谈GPU集群网络、集群规模和集群算力引言在生成式AI(GenAI)和大模型时代,不仅需要关注单个GPU卡的算力,更要关
训练大模型有多烧钱?(含常用GPU规格比较)训练大模型有多烧钱?解锁大型语言模型的运行秘诀大型语言模型 (LLM) 对硬
高速光芯片产业格局全景梳理全球AI加速爆发,光模块技术迭代加快,驱动高速光芯片国产替代进入快车道。高速光模块的BOM(即
大模型部署综述1 背景部署生成式大语言模型 (LLM) 面临挑战,因为它们需要高性能系统才能实现低延迟和高吞吐量。从 M
开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4扎克伯格:「有了 Llama 3,全世界就能
重磅!Llama-3,最强开源大模型正式发布!202年4 月 19 日,Meta 发布开源大模型 Llama-3,助力研
Llama-3正式发布,社区狂欢!重磅发布:Meta推出大语言模型Llama,包括80亿和700亿参数模型,更强劲的40
英伟达Blackwell平台网络配置详解AI算力研究:英伟达B200再创算力奇迹,液冷、光模块持续革新突破性的GB200
英伟达NVLink技术深度分析NVLink,NVIDIA 专属互连技术,在 HPC 和 AI 领域举足轻重。NVLink
深度解读RoCE v2网络技术RDMA技术革新网络数据传输,提升效能。RoCE v2作为其第二代,融合以太网与RDMA,
高性能GPU服务器硬件拓扑与集群组网01、术语与基础大模型训练采用集群式架构,每台主机配备 8 块高性能 GPU,包括
浅谈容器网络原理我们将深入探讨容器和 Kubernetes 的网络原理,以全面了解 Kubernetes Network
大模型剪枝概述近年来,Transformer和MOE架构的崛起,推动了深度学习模型参数规模的飙升,轻松突破上万亿。面对模
浅谈 Nvidia H20 的实用价值一、引言站在这个时间点上看,2024年国内通过合规渠道能采购的英伟达的高端显卡只有
NVIDIA GPU 架构梳理近期深入研究并行计算,需探究底层硬件精髓。高性能计算界,英伟达显卡稳居霸主地位。本文旨在梳
AI芯片激战正酣!Meta震撼发布全新AI推理芯片,性能飙升300%,强效支撑Llama高负荷运算,引领行业新潮流!微软
AI大模型推理过程和优化技术一 推理过程主流大模型均根植于Transformer架构,其核心精髓在于注意力机制。简而言之
企业构建和采购生成式AI方面的16项改变生成式 AI 领域趋势洞察:企业构建和采购生成式 AI 的方式正在发生重大转变,
一颗万能的RISC-V芯片: 将CPU和GPU整合到一个核中X-Silicon 推出创新的 RISC-V 芯片架构,将
签名:薪科技评说,发现技术的点滴,记录科学的飞跃!