在 AI 技术日新月异的今天,底层基础设施的革新正成为推动行业进步的关键力量。随着大模型训练对计算量和复杂度的需求呈指数级增长,传统 GPU 所面临的成本高、算力利用率低、能耗大等挑战日益严峻。在此背景下,AI 芯片,特别是 TPU 芯片的崛起,正逐步改变这一格局。
中昊芯英作为国内唯一掌握 TPU 架构 AI 芯片核心研发技术的公司,于 9 月 4 日在北京举办了一场主题为「TPU All Explained:大模型基础设施新纪元」的闭门技术分享会。此次分享会汇聚了来自 AI 领域的投资机构、科技媒体、行业协会与学会专家、行业客户与合作伙伴等众多嘉宾,旨在深入探讨 AI 大模型基础设施的技术与产业变革,以及 TPU 技术如何开启 AI 算力基础设施的新时代。
中昊芯英 TPU 闭门技术交流会现场
会上,赛智伯乐投资合伙人蔡哲文首先向与会嘉宾分享了《投资视角下 AI 芯片产业的发展与未来》。作为国内最早投资 TPU 芯片赛道的投资人之一,蔡哲文从投资及产业视角分享了他关于 AI 芯片产业的近年变革、当前市场格局以及未来的发展机遇的观察。蔡哲文剖析了当下 AIGC 产业包括算力不足、缺乏杀手级应用、能耗过大等在内的六大现有痛点,他所认为的国产芯片发展的三个阶段及相应值得投资的项目类型和投资节点,他投资 AI 芯片创业公司的考量及评判标准,硅谷的「产学投」生态可以为中国 AI 芯片行业发展提供的借鉴思路等。
投资人蔡哲文演讲
随后,中昊芯英创始人及 CEO 杨龚轶凡,以其在硅谷的十多年高性能芯片研发经验,做了题为「见证·创造·变革—TPU 在 AI 计算领域的生命力」的主题演讲。作为前 Google TPU 核心研发人员和国内最早的 TPU 创业者,杨龚轶凡分享了其亲历的 AI 大模型基础设施的演进历程、计算芯片54架构从通用向专用演进的历史规律以及他的观察与思考,详细分析了 TPU 与 GPU 在核心数据类型、芯片主要架构、片间互联方式、AI 软件生态等技术全维度上的关键差异,CPU、GPU、TPU、ASIC 在芯片类型、资源利用率、灵活性、适用场景四大方面的对比,TPU 在面向 AI 计算场景时因架构优势而带来的先进性能,以及他对 AI 算力硬件未来趋势的观点和看法。
中昊芯英创始人及CEO杨龚轶凡演讲
中昊芯英销售副总裁赵桂林在会上向与会嘉宾详细介绍了中昊芯英全自研 TPU 架构 AI 芯片「刹那®」及「泰则®」计算集群如何为 AI 大模型提供具备生产变革能力的全新算力基础设施。「刹那®」芯片是中国首枚已量产的高性能 TPU 架构 AI 芯片,综合测算算力性能、成本、能耗后,单位算力成本仅为海外领先 GPU 的 50%。且「刹那®」多达 1024 片芯片间的直接高速互联以构建的大规模计算集群「泰则®」,其系统集群性性能可远超传统 GPU 数倍。赵桂林表示,这些创新成果不仅提升了 AI 算力的效率与性能,更为 AI 大模型的广泛应用奠定了坚实的基础。
中昊芯英销售副总裁赵桂林演讲
会议最后,与会嘉宾围绕 TPU 的发展趋势、技术生态、市场应用及未来挑战等议题进行了深入的互动与交流。大家纷纷表示,中昊芯英举办的这次分享会不仅让大家对 TPU 的技术特性及其在 AI 领域的潜力和应用有更加清晰、深刻的了解,更是让大家通过与同业人士的交流,激发了更多关于 AI 芯片与算力的思考。
记者提问、现场交流环节
随着 AI 技术的不断成熟与普及,以 TPU 为代表的 AI 芯片作为底层基础设施的重要组成部分,正逐步展现出其巨大的市场潜力和社会价值。未来,中昊芯英将继续深耕 AI 芯片领域,不断在算力上实现对现有技术的超越,为 AI 领域的深度学习和复杂模型提供强大的算力硬件支持,并以更加高效智能的人工智能软硬件一体化解决方案推动 AI 产业升级,为 AI 技术的广泛应用贡献力量。
关于中昊芯英
中昊芯英(杭州)科技有限公司成立于 2018 年,致力于为 AIGC 时代的超大规模 AI 模型训练提供高性能 AI 芯片与计算集群,是国内唯一掌握 TPU 架构训推一体 AI 芯片核心技术的公司。中昊芯英以自研的专为 AI 训练而生的高性能 TPU 训练芯片「刹那®」为基石,打造支持 1024 片芯片片间高效互联、可支撑超千亿参数大模型训练的大规模 AI 计算集群 「泰则®」,同时自研 AIGC 预训练大模型并携手行业合作伙伴进行金融、教育、医疗等垂直领域专业大模型的探索落地。通过「自研 AI 训练芯片 + 超算集群 + AIGC 预训练大模型」的三位一体化方案,为全球客户提供具备生产变革能力的 AI 创新技术方案,加速 AI 工程落地与产业化进程。