PCIe 5.0在塑造未来AI基础设施中的关键作用

发布时间:2023年12月23日

随着人工智能(AI)技术持续快速普及,公司预测PCIe 5.0基础设施将为AI工作负载的一致性提供高性能、可持续的支持,尤其是在快速扩展的采用过程中。基于PCIe 5.0的NAND闪存解决方案将成为一个平衡良好的硬件生态系统的核心,而诸如本地大型语言模型(LLMs)等私有AI部署将推动日常AI及其所需基础设施的显著增长。

“我们正在超越对AI的初始兴奋,转向更广泛的日常部署。在这种配置中,高质量的AI输出必须通过旨在安全且经济实惠的基础设施来实现。利用AI提高生产力的组织将取得巨大成功,”Phison美国首席技术官Sebastien Jean表示。“在AI应用的广泛普及基础上,基础设施提供商将负责确保AI模型不会受到内存限制的影响——而NAND闪存将成为我们如何配置数据中心架构以支持当前发展中的AI市场,并为我们在快速发展的数字未来中取得成功奠定基础的关键。”

2023年的方向已经明确:人工智能将继续渗透到我们的生活中,未来一年数字基础设施的主要目标将是支持这些关键模型在生产环境中运行。随着AI变得越来越日常化,数据中心架构师将面临挑战,既要维持大规模语言模型(LLMs)等应用的普及,又要构建能够长期维护和扩展这些操作的系统。

Phison的数据科学家和数字基础设施专家认为,未来的成功AI实施将保持对已知和未知数据威胁的警惕,同时减少对加速器技术的过度依赖,从而形成更加平衡的系统。Phison的预测包括:

  1. SSD、GPU、DRAM和其他关键数据中心组件将越来越多地包含设备级别的加密识别、证明和数据加密,以更好地保护数据免受攻击,因为AI部署揭示了新的数字威胁。
  2. 为了在不暴露与云相关的安全漏洞的情况下在专有数据上运行AI模型训练,将采用私有、本地的LLMs基础设施部署。
  3. AI和LLMs的超快速进步将挑战AI基础设施对GPU和DRAM的依赖,导致出现更多利用高容量NAND闪存的新架构方法。
  4. 在这些系统中,PCIe 5.0 NAND闪存将得到更广泛的应用,以在最高速度和效率下为生产环境中的应用程序提供动力,从而释放GPU和DRAM分别运行AI推理模型,最大限度地提高资源效率和生产力。
  5. 初始阶段,私有LLMs将专注于不受严格上市时间限制的基本活动,如改进专业人员的聊天机器人交互和专利产品的渐进式改进。
  6. 随着这些私有部署取得积极成果,应用程序将被适应于相邻的操作和程序,进一步推动这些日常基础设施解决方案在AI中的普及。

“通过利用既定和新兴的安全策略,并拥抱基础设施硬件设计的进步,2024年最成功的公司将认识到,强大而平衡的基础设施可以提供战术和战略机会,同时进一步推动由AI驱动的数据生态系统的创新,”国立阳明交通大学人工智能学院副院长、Phison总部首席技术官、Phison AI研发负责人Dr. Wei Lin表示。“随着关键基础设施不断发展以支持AI的快速进步,NAND闪存存储解决方案将在其中发挥核心作用,通过在构建平衡系统时针对GPU和DRAM实现更大的架构平衡,从而最大化正在进行的、长期AI部署的好处。”

文章来源:https://blog.csdn.net/zhuzongpeng/article/details/135175488
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。