2024年被视为AI PC元年,根据群智咨询的预测,全球AI PC整机出货量将达到约1300万台。而作为AI PC的算力中枢,集成了神经处理单元的计算处理器(NPU)将在2024年大规模推向市场。英特尔、AMD等第三方处理器供应商及苹果等自研处理器厂商均表示将在2024年推出搭载NPU的电脑处理器。与此同时,如何在电脑处理器中发挥出NPU的最大功效,也成为了业内热议的话题。
据了解,NPU可以根据网络运算的特点,通过软件或硬件编程,实现多种特定用途的网络功能。相比传统CPU和GPU,NPU能够以更高的效率、更低的功耗执行神经网络任务。
相比FPGA,NPU更具成本优势。业内专家告诉《中国电子报》记者,FPGA虽然也在灵活性和可编程性方面有优势,但主流FPGA芯片的制程节点通常在14nm~45nm之间,而NPU的制程节点往往在10nm以下,更加适合小型、低功耗的PC、手机等消费级设备。
在软件方面,NPU具备与主流软件兼容性强的优势。“NPU能够通过标准化的接口,如OpenCL、CUDA、OpenVX等与AI框架交互,轻易集成到不同的软件环境中。因此NPU通常与主流的AI框架和软件栈有更好的兼容性,使开发者更容易利用这些硬件加速器。”业内专家表示。
2017年,华为最先将NPU处理器集成到手机CPU中,使得CPU单位时间计算的数据量和单位功耗下的AI算力得到显著提升,让业内看到了NPU应用于终端设备的潜力。随着AI应用越来越广泛,PC用户对于AI能力的需求也在增加,业内开始尝试将NPU集成到PC中。这不仅可以让用户在本地进行AI模型的训练和推理,不必依赖云端的计算资源,还支持用户根据自己的需要进行模型的训练和优化,符合当前软件和服务的个性化、定制化发展趋势。
目前来看,各家处理器供应商对内置NPU的电脑处理器表示出极大的兴趣,纷纷推出相关产品。英特尔在近期发布了内置NPU的第14代酷睿Ultra移动处理器。英特尔官方表示,2024年,将有230多款机型搭载酷睿Ultra。苹果将在2024年发布搭载M3处理器的MacBook,并透露其M3处理器的NPU性能相较于M1提升了60%。AMD首次加入独立NPU的锐龙8040处理器将于2024年初正式发布。AMD表示,加入NPU后,处理器的大语言模型性能提升了40%。
业内普遍认为,未来“CPU+NPU+GPU”的组合将成为AI PC的算力基座。CPU主要用于控制和协调其他处理器的工作、GPU主要用于大规模并行计算、NPU专注于深度学习和神经网络的计算。三种处理器协同工作可以充分发挥各自的优势,提高AI计算的效率和能效比。
在未来的PC发展中,NPU作为AI计算的核心部件将会在PC上得到广泛应用,高端产品线用户将率先尝鲜。
业内专家认为,在PC处理器中集成NPU需要一定的技术和资源投入,而这也会导致成本上升。因此NPU在发展前期会集中在消费级PC的高端产品线。
“目前搭载NPU的处理器主要集中在消费级PC上。这是由于消费级PC用户的需求和使用场景相对灵活,对产品性能、功能和使用体验的重视程度超过了对可靠性和使用寿命的关注。因此,消费级PC厂商通常更愿意尝试新技术。而企业用PC对可靠性和使用寿命的要求更加严苛,用户更倾向于采用已经经过验证的技术,以确保系统的稳定性。因此,NPU在企业级PC的应用会晚一些。”业内专家向《中国电子报》记者表示。
以英特尔最新发布的两款AI PC处理器为例,英特尔针对企业级PC用户的第五代至强可扩展处理器中,既没有采用最新工艺制程,也没有集成NPU,而是稳打稳扎继续沿用CPU处理器,并依旧采用较为成熟的Intel 7工艺制程。而在针对消费级的酷睿Ultra处理器中,不仅采用了最新的Intel 4制程,还首次在处理器中加入了NPU。
NPU的使用难点在于如何能释放出有效的算力。
英特尔公司中国区技术部总经理高宇表示,想让NPU充分发挥性能,不能光靠堆积来实现,而要了解NPU的理论算力和实际应用算力。在此基础上,再对现有的编程模型进行优化,使其更好地适应NPU的并行处理架构。这需要开发者和工程师深入了解NPU的工作原理和特性。除了编程模型优化外,还需要对硬件设备本身进行优化,例如散热、功耗管理等。这些因素都会影响到NPU的实际性能和算力。
为了进一步实现NPU在AI PC中的普及并释放出有效算力,还需要建设针对NPU的生态。“为了推动NPU在PC领域的发展,还需要建立一个完善的生态系统,包括硬件供应商、软件开发者、PC应用厂商等。当这个生态系统变得健康、活跃,NPU技术才能得到更好的发展。”业内专家说。