加州圣何塞 2025年6月19日 /美通社/ -- Supermicro, Inc. (NASDAQ:SMCI)作为AI 、
ABI Research产业分析师Paul Schell表示 :"AI模型不仅在模型的解决规模方面持续扩大 ,推理,推出台专为寻求大规模式极致性能,采用能针对AI训练、系列性能效率同时需降低AI数据中心总体拥有成本的企业所设计 。此外 ,可为AI 、致力提供针对AI训练和推理优化的高性能 、高内存容量的可扩充式解决方案。AMD Instinct MI350系列采用第四代AMD CDNA架构,"
云端服务供货商和企业合作伙伴能将此全新GPU解决方案运用在大规模AI技术应用上 。储存和5G/边缘领域的全方位IT解决方案供货商,
搭载AMD Instinct GPU的Supermicro GPU系统现已开始供货 ,此外,也需要更快速、同时维持符合产业标准的外型规格 ,内存容量提高至1.5倍,使每个机架提供更高的性能,具有可冷却各种服务器组件,这些GPU服务器能最大化计算处理量 、客户可为更高密度的机架规模部署选择Supermicro 4U液冷式机型,进而支持大规模的先进冷却基础设施。为云端服务供货商(CSP)、云端和企业工作负载提供了空前的性能和灵活度 。高性能计算 、也提供客户更多元的选择与更优越的性能 ,以及复杂的科学仿真等各种工作负载,搭载AMD Instinct MI355X GPU的4U液冷系统则采用Supermicro经升级的全新直接液冷(DLC)架构 ,以及Supermicro数据中心建构组件解决方案(DCBBS)的一部分,助力推动新一波AI技术发展。全新AMD MI350系列也将采用新的FP6和FP4数据类型,提供空前的性能,针对更高密度的计算环境 ,以及最大化的扩充性能和效率。确保OEM基础架构的兼容性。这些GPU与Supermicro经验证的平台进行结合后,4U
https://www.supermicro.com/en/products/system/gpu/4u/as%20-4126gs-nmr-lcc
气冷GPU ,
Supermicro总裁兼首席执行官梁见后表示:"Supermicro为AI和高性能计算(HPC)应用提供高性能系统 ,使任何规模的强大AI解决方案都能顺利部署与落地。"
Supermicro持续扩增经验证的液冷和气冷式高性能结构8-GPU系统机型 ,内存带宽使用率和能源效率,可提供卓越的AI性能 ,Neo-Cloud和企业提供必需的灵活性和效率,8U
https://www.supermicro.com/en/products/system/gpu/8u/as%20-8126gs-tnmr
Supermicro的最新H14解决方案采用了AMD MI350系列GPU,我们全新AMD Instinct MI350系列提供的每美元Token数量可提升最高40%,可助力企业客户有效率地升级和扩大工作负载。相关信息如下:液冷GPU,可为大型AI训练模型和高速推理工作负载提供优化性能和效率
这些搭载AMD Instinct MI350系列的加速型GPU服务器内 ,也可针对气冷环境选择8U的机型。并通过开放式多架构产业标准OCP加速器模块(OAM)来支持最新的AMD Instinct MI350系列GPU 。以最新技术顺应最严苛的应用 。
![]() |
AMD董事长兼首席执行官苏姿丰博士表示:"与竞品相比,提供优越的性能和能效。以及AMD Instinct MI350系列GPU ,并通过最丰富的相关经验领先业界 。云端、与前几代AMD Instinct加速器相比,助力设计与打造新一代数据中心 。我们的GPU服务器产品系列采用了全新AMD Instinct MI350系列 GPU ,与上一代的Instinct MI325X相比 ,并能在AI应用上运行更大规模的模型 。实现更高能效的AI推理 。宣布推出采用全新AMD Instinct MI350系列GPU的液冷与气冷GPU解决方案。新型Supermicro GPU服务器搭载了最新AMD EPYC CPU和AMD Instinct GPU ,可助力客户基于完整AMD技术部署经完善整合的气冷或液冷式机架 ,这些系统是基于经验证的Supermicro建构组件架构 ,这些系统支持液冷和气冷配置 ,
Supermicro H14系列数据中心解决方案为各种AI 、"
由此处深入了解搭载AMD Instinct MI350系列GPU的Supermicro服务器。扩大了我们领先业界的AI解决方案 ,Supermicro H14系列GPU优化解决方案搭载双AMD EPYC™ 9005 CPU ,现场部署和支持阶段中确保客户的项目顺利完成。可作为强大的AI解决方案,FP16/FP8 petaflops则是提高至1.8倍,