软件海 免费vpn
最新的加速器提供市场领先的HBM3E内存容量,并得到包括戴尔科技、惠普、联想、超微等合作伙伴和客户的支持
基于AMD CDNA 3架构,AMD Instinct MI325X加速器专为卓越的性能和效率而设计,适用于要求苛刻的AI任务,包括基础模型训练、微调(fine-tuning)和推理。这些产品使AMD客户和合作伙伴能够在系统、机架和数据中心级别创建高性能和优化的人工智能解决方案。
“AMD将继续按照我们的路线图,为客户提供他们所需的性能和选择,以更快的速度将人工智能基础设施大规模推向市场。”AMD数据中心解决方案业务部执行副总裁兼总经理Forrest Norrod表示:“凭借新的AMD Instinct加速器、EPYC处理器和AMD Pensando网络引擎,我们开放软件生态系统的持续增长,以及将所有这些整合到优化的人工智能基础设施中的能力,强调了构建和部署世界级人工智能解决方案的关键专业知识。”
AMD正在利用最广泛部署的超大规模可编程DPU为下一代人工智能网络提供动力。AI网络分为两个部分:前端,向AI集群提供数据和信息,后端,管理加速器和集群之间的数据传输,对于确保CPU和加速器在AI基础设施中得到有效利用至关重要。
为了有效地管理这两个网络,并在整个系统中推动高性能、可扩展性和效率,AMD为前端引入了AMD Pensando Salina DPU,为后端引入了AMD Pensando Pollara 400,这是业界首款支持超以太网联盟(UEC)的AI网卡。
AMD Pensando Salina DPU是世界上性能最高的第三代可编程DPU,与上一代相比,性能、带宽和规模提高了两倍。AMD Pensando Salina DPU支持400G吞吐量,可实现快速数据传输速率,是AI前端网络集群的关键组件,可为数据驱动的AI应用优化性能、效率、安全性和可扩展性。
AMD Pensando Pollara 400采用AMD P4可编程引擎,是业界首款支持uec的AI网卡。它支持下一代RDMA软件软件海 免费vpn,并以开放的网络生态系统为后盾。AMD Pensando Pollara 400对于在后端网络中提供加速器到加速器通信的领先性能、可扩展性和效率至关重要。
AMD继续在驱动软件功能和开放生态系统方面进行投资,以在AMD ROCm开放软件堆栈中提供强大的新特性和功能。
在社区之外,AMD继续推进其ROCm开放软件堆栈,以最新功能支持生成式人工智能工作负载的领先训练和推理。ROCm 6.2提供包括对关键AI功能的支持,如FP8数据类型、Flash Attention 3、内核融合等。有了这些新功能,ROCm 6.2比ROCm 6.0在推理方面提供了2.4倍的性能改进,在各种大模型的训练方面提供了1.8倍的性能改进。(发自旧金山)