可以确定的是,手机已经先于电脑开启了AI计算时代,新发布的手机几乎都集成了AI处理器,那为什么你还需要更大的内存呢,下面我们来探讨下这个问题。
虽然目前新发布的手机并不都集成了AI处理器,但AI处理器已经成为了一种趋势和特色,越来越多的手机厂商开始开发和使用AI处理器来提升手机的性能和智能化。AI处理器是一种专门用于AI计算的芯片,它可以加速图像、语音、文本等数据的分析和处理,实现多种AI功能和任务,例如人脸识别、图像分类、语音识别、机器翻译、对话系统等。
目前,已经有一些手机搭载了AI处理器,例如iPhone X、华为Mate 10/V10、Google Pixel 2等,它们分别使用了苹果的A11 Bionic、华为的麒麟970、Google的Pixel Visual Core等AI处理器。这些AI处理器都有各自的架构、性能和应用。除了这些手机,还有一些手机也采用了一些支持AI计算的芯片,例如高通的骁龙8系列、联发科的天玑系列等。
根据一些专家和业内人士的预测,2024年将成为全球AI智能手机的关键元年,届时将有更多的手机集成AI处理器,实现更多的AI应用和创新。AI处理器将为手机带来更快的速度、更低的功耗、更好的用户体验和更高的安全性。
AI模型是一种利用人工智能技术,对数据进行分析、处理和预测的数学模型,它可以应用于各种领域和场景,实现多种功能和任务。目前,有许多实用的AI模型,根据不同的任务类型和数据模态,可以分为以下几类:
骁龙7自带的AI处理器是高通的Hexagon 770,它是一款专门用于AI计算的DSP(数字信号处理器),能够支持INT8、INT16、FP16等多种数据格式,以及TensorFlow Lite、ONNX、Caffe2等多种框架。Hexagon 770的AI性能达到了15TOPS(万亿次运算),相比上一代Hexagon 690提升了两倍。
骁龙7自带的AI处理器能够运行的AI模型的参数数量,取决于模型的类型、结构、精度、输入输出等因素,因此没有一个固定的答案。不过,根据高通的官方介绍,骁龙7自带的AI处理器可以运行一些复杂的AI模型,例如Stable Diffusion、MobileBERT、EfficientNet等,这些模型的参数数量都在几亿到几十亿之间。因此,我们可以大致估计,骁龙7自带的AI处理器能够运行的AI模型的参数数量的上限,可能在几十亿左右。
手机AI处理器可以运行的AI模型的容量,取决于手机的硬件配置、内存空间、电池寿命等因素。一般来说,手机AI处理器可以运行的AI模型的容量在几百兆到几个G之间,不同的手机和模型有不同的容量要求。
手机AI模型运行需要的运行内存的大小,取决于模型的类型、参数量、输入数据等因素。一般来说,大模型的推理阶段,模型加载、分析数据需要直接占用运行内存,而目前主流手机市场最大的16GB运行内存,也并不能完全满足大模型所需的空间。因此,一些优化方法被提出,如减少闪存传输的数据量,提高每次传输的吞吐量,使用滑窗技术等。
一个粗略的计算方法是,每10亿个参数,占用4G显存。但这只是一个估算,实际的运行内存需求可能会更高,因为训练需要存储中间激活,通常会比参数(不含嵌入)数量增加3-4倍的内存。
除了手机因为相机像素提升,游戏应用包巨大,软件越来越臃肿以及短视频兴起的原因之外,你还需要更多的内存以备AI模型的存储与运行所用,因为各种数据的处理等等越来越依赖AI模型,各种软件也会陆陆续续的绑定一些AI模型,以至于未来可能会出现百G的app。