全能商务、AI加持酷睿Ultra新领航

科技有点奇谱 2024-05-21 05:40:19

AI不仅能够改变个人生活,对工作和生产方式的影响更大。随着AI PC产品规模上市,硬件逐步完备,而随着商业应用的AI化迭代,软件环境也准备好了。

关于AI应用的共识,产业界早已达成。而2022年底开始爆发的AIGC应用,更是调动起每个个体对AI前景的期待。从云端到边端,不同类型的设备提供着不同类型的AI应用,而对个人用户和企业用户来说,手机与PC,特别是后者,AI应用场景更加丰富。

2023年,还无人放言AI PC时代即将到来之时,英特尔推出了AI PC加速计划。同时作为应用层面的支撑——不能只有硬件功能而没有软件可用,英特尔将通过与本土超过35家ISV合作伙伴深度合作,在音频效果、内容创建、安全、视频协作等领域提供AI加速功能,以强化PC的体验。

与相对分散的消费类应用不同,面向商用领域应用与设备,在应用可靠性、功能完整性以及软硬件平台兼容性上的要求更高。随着面向商用领域的AI PC硬件产品与行业应用解决方案于3月正式发布,有关性能与功能的较量,进一步蔓延开来。

高效能的硬件架构

AI PC产品均最先以具有轻薄外形、长电池续航能力的笔记本电脑最先示人。与强调“高性能”的云端AI计算能力有着显著差异的是,他们无不采用CPU+GPU+NPU的多硬件加速器架构,分别面向“性能并行和吞吐量(GPU)”、“快速响应(CPU)”和“专用低功耗(NPU)”等3类不同AI计算特质而提供讲求能效比的硬件加速能力。

然而,即便是类似甚至同样的AI商业应用,在类似甚至同样的xPU架构平台上,有着类似或者同样的“算力(TOPS)”,AI PC的实际应用表现却相去甚远。如今酷睿Ultra全系列已推出12款产品(最新推出的入门产品Core Ultra 5-115U未出现在上表中),全部集成有NPU,且硬件规格均为4核1.4GHz,同时这些产品全部具备英特尔vPro平台,AI算力不仅能够服务消费级应用,同时满足商业使用环境对安全、管理以及ISV兼容性的要求。

其他性能方面,酷睿Ultra家族产品提供9W、15W、28W和45W等4个基本功耗级别,P Core、E Core与LP E Core 三丛处理器核心架构组合灵活,提供10~22线程的并行计算能力;Arc核显Xe核心数量、运行频率也有多种组合。酷睿Ultra产品的总体格局偏向轻薄产品,从掌机到移动工作站均可覆盖,CPU、GPU与NPU功能是现在芯片的不同tile上,架构与散热都不会相互干扰,全新的NPU能更好的发挥功用。

软硬件生态构成

完善的硬件及开发平台,再加上ISV和IHV推进计划,AI PC产业快速成长,英特尔携手合作伙伴打造并锚定了包括AI Chatbot、AI 助理、AI Office助手、AI本地知识库、AI图像视频处理与AI PC管理六大场景,助力行业应用率先落地,促进企业技术革新。

为方便这些AI应用的开发,英特尔提供了更多可选的软件架构,从打穿自家各种加速器、一次变成随处使用的OpenVINO,到微软(WindowsML及DirectML)和第三方(ONNX RT)通用框架,到基于Web亦可提供加速的WebGPU,更以PyTorch基金会Premier会员身份提供该生态拓展,开发者选择非常多样。

不同硬件加速器能为AI带来不同的加速效果,无论是开发平台的多样性,还是异构计算的分配/迁移的平滑/透明与兼容性,对操作系统、软件框架及应用开发都提出了更多挑战。特别是全新的NPU架构将颠覆现有的软硬件生态,其自身优化水平,以及多加速器异构优化水平,直接影响到新生的AI PC的终端性能表现。

AI应用的多样性已初露端倪,6B乃至13B参数的LLM、RAG训练,文生图等AIGC应用均可以部署到PC终端上。而硬件平台要发挥更佳功效,平台与ISV、IHV的协作优化作用,远高于硬件规格指标的意义。

多位ISV负责人表示,商业应用产品需要更多时间来打磨,商业的信任比个人的信任建立周期会更长,所以也更需要英特尔作为一个原厂和ISV之间要长时间的配合和互动,并承诺持续在中国市场增加投入。

英特尔中国区技术部总经理高宇则表示,搭载了英特尔酷睿Ultra处理器的英特尔vPro平台在生产力、稳定性、安全性和可管理性方面有着不可或缺的优势。在部署商业应用之前,英特尔会与软件合作商(ISV)做深度测试,与OEM厂商(IHV)合作所累积的流程经验也可借鉴,消费类的产品和商业类的产品的测试合格流程和方法均不相同。在AI时代,AI应用程序和传统的应用程序的不同,如数据存储位置以及软硬件系统能否完全保证数据的应用性、安全性、隐私性,这也是英特尔和ISV合作伙伴一起解决的问题。

更高质量的文生图

驱动人生的AIGC助手与酷睿平台进行了适配。该软件可选包括Stable Diffusion在内的多种文生图引擎,酷睿Ultra笔记本电脑可提供更高AI算力,用户可获得质量更高的1024×1024分辨率图片,且生成时间仅为6秒。这款应用还支持超分辨率算法,可在基本的1024×1024分辨率基础上,利用Arc核显能力生成更高质量、更高分辨率的图片,从而用于更广泛的领域。由于它原生支持PyTorch拓展模块,可充分发挥酷睿Ultra核显的算力,带来更好的性能表现。

精准控制AI绘画

比通用的Stable Diffusion文生图更进一步,就是更精准地控制AI绘制出想要的内容画面。英特尔ISV绘世启动器已经率先支持酷睿Ultra核显进行AI绘画创作,如上图所示,用“老虎的轮廓及景深信息绘制全新的狮子”。

该软件可调用包括开源的Stable Diffusion WebUI项目在内的引擎,可使用其社区中众多开源的辅助AI绘画创作功能,实现以上功能的ControlNet就是其中之一。将老虎画面中所需保留的轮廓及景深参数锁定,重新生成狮子的1024×1024高质量照片,时间仅需1秒,只有全新生成图片时间的1/6。这一工具可以很好地帮助图像内容创作者快速、多次地生成所需不断微调设计的图片,生成效率更高、精确度更高。

多模态大模型更智慧

听得懂语言,看得懂画面甚至视频的“含义”,是多模态大模型应用的重要领域,也是机器拥有人的经验与智慧的直接体现。在“看图说话”应用中,AI不仅能够懂得图片自身的信息——红烧肉,并且可以由此引申到一道菜、材料以及加工方法,堪称经验丰富的美食主播。

对AI PC来说,将巨量模型部署至PC、压缩载入主流容量的内存,实现了从云端到本地化部署,可用性与用户体验都得到极大改善。

文字AIGC比延迟

相比之下,基于大语言模型(LLM)的文字AIGC的“聪明”就是小case了,它主打一个“快”字。衡量其快的核心指标是低延迟,包括首字(token)延迟与平均token延迟等两个。

6B(60亿)参数本地化部署,日渐流行。该规模是LLM从云端向终端迁移部署规模的甜蜜点,更高的13B规模也有不错的性能表现。这得益于英特尔构建的BigDL-LLM库,它对各主流大语言模型均进行优化和支持,甚至可以在16GB内存的酷睿Ultra轻薄笔记本电脑本上运行参数量高达160亿的大语言模型,支持的模型包括LLaMA/LLaMA2、ChatGLM/ChatGLM2等,极大地降低了AIGC本地化部署、私域训练的门槛。

大语言模型应用调用ChatGLM-6b参数,在酷睿Ultra轻薄笔记本上的生成结果的首字延迟,从训练上之初的300ms量级下降到多次训练后的60ms,而后续token平均生成速度也从80ms进一步下降到72ms,较英特尔首次公开展示该大模型应用时,使用Core i9-13900H平台的性能。

法务专业助手

借助自身BigDL-LLM库固然可以提升ChatGLM-6b的运行速度,但是其参数均为开源,难以服务于特定领域,如法务这样专且案例特性明显、文书规范要求高、注重隐私的应用场景,就需要用户或应用构建私域数据,并与云端数据形成适当的协作。

基于酷睿Ultra平台,魔方智能法务助手这款AI聊天机器人,基于基础语言大模型,结合百万条法律大数据训练而成的AI PC端侧大模型,可针对法务这一特定行业和领域提供更加专业的问答、法律案件分析、法律文书撰写、法律建议等法律相关功能,提升法务人员办公效率,降低普通人获取法律相关信息服务的门槛。

类似专业领域的应用场景还包括医疗问诊、程序代码助手等,为相关行业提高效率提供了可能。这样的超级助手,你想不想也拥有呢!

Office助手更“Ku”

虽然微软已经将其智能副驾(Copilot)集成到Windows、浏览器以及Office中,但目前国内无法使用。但是,这并不妨碍ExtendOffice的Kutools AI这样的工具使用。该应用以Office争效插件形态无缝融入Office系列办公软件,以大语言模型为基础、以生成式人工智能(AIGC)技术为突破口,辅助用户高效完成日常工作。

Kutools AI有着非常好的实时性反馈体验,既可如向导般指导用户使用公式、宏等不熟悉操作实现功能,也可生成PPT页面、RAG生成文档概要,降低工作难度和强度。

AI PC之野望

在诸多平台及终端产品厂商推动下,AI PC已渐成风潮,它为商业应用提供了一种不同的可能,没有AI加持时甚至无法想象的可能。随着硬件与软件相互推进发展,AI带给商用领域的改变将更加深入与细致,深刻改变着PC生态。

0 阅读:0

科技有点奇谱

简介:感谢大家的关注