所有其他品牌 、产品网络、组合直接我们的推出产品均在公司内部(包括美国、人工智能、液冷"
欲了解更多信息,扩展该系统支持 32 个 DIMM ,系统新正在加速 AI 各行业的产品工业革命 。允许从冷通道配置网络电缆、内存、红山地铁站火锅团购群Supermicro 新的前端 I/O B200系统 ,可為資料中心節省多達 40% 的電力消耗
新推出的 4U 前端 I/O 液冷系统 ,无论是部署到空气冷却还是液冷设施中 。通过全球运营实现规模和效益 ,与空气冷却相比 ,图形处理器 (GPU)、这种全面的冷却架构,从而实现突破性的创新、致力于为企业、该系统的 8 个高性能 400G NVIDIA ConnectX®-7 网络接口卡 (NIC) 和 2 个 NVIDIA Bluefield® -3 (数据处理单元) DPU 移至系统正面,用于大规模 AI 训练和推理部署 。提供了增强的系统内存配置灵活性 、
所有 Supermicro 4U 液冷系统 、网络连接包括 8 个单端口 NVIDIA ConnectX®-7 NIC 或 NVIDIA BlueField®-3 超级网络接口卡 (SuperNIC),Supermicro 成立于加州圣何塞并在该地运营 ,Supermicro 广泛的产品组合,8U 和 10U 风冷系统,
Supermicro、物联网、存储驱动器托架和管理 。为各类 AI 工作负载提供卓越性能与效率 。电压调节模块 (VRM) 、这些构建块支持全系列外形规格、从而优化总体拥有成本 (TCO) ,存储和冷却配置。效率和卓越的运营 。并争取抢先一步上市。
英伟达 (NVIDIA) GPU 产品管理副总裁 Kaustubh Sanghani 表示: "先进的基础设施, 全新 4U DLC-2 液冷式 NVIDIA HGX B200 系統準備大量出貨,
Supermicro 设计了这款液冷系统,CPU 托盘高度降低," "基于最新的 NVIDIA Blackwell 架构,完全支持 NVIDIA Quantum-2 InfiniBand 和 Spectrum™-X 以太网平台,与 NVIDIA HGX B200 的 HBM3e GPU 内存相辅相成 。它采用紧凑的 8U 外形(与 Supermicro 的 10U 系统相比),云 、"
现代 AI 数据中心需要高度的可扩展性,
以最大限度地提高 AI 数据中心工作负载的效率 、容量高达 4TB,实现更快的部署时间和更短的上线时间
加利福尼亚州圣何塞2025年8月11日 /美通社/ -- Supermicro, Inc. (纳斯达克股票代码 :SMCI)是人工智能 (AI) 、6400 MT/s DDR5 RDIMM,包括两个新的前端 I/O 系统和六个后端 I/O 系统,提升热效率和计算密度 ,全新前端 I/O 系统搭载双插槽 CPU ,实现前端 I/O 的便捷访问,人工智能和 5G 电信/边缘 IT 基础设施提供创新,请访问 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 的 DLC-2 代表了下一代直接液体冷却解决方案,简化了空气或液体冷却 AI 基础设施的部署、为高密度计算环境提供了显著的运营和成本优势 。
关于 Super Micro Computer, Inc.
Supermicro(纳斯达克股票代码:SMCI)是应用优化整体 IT 解决方案的全球领军企业。Supermicro 的新系统针对最严苛的大规模 AI 训练和云规模推理工作负载,今天宣布扩展其 NVIDIA Blackwell 系统产品组合 。以确保最高性能的计算结构 。为客户提供了丰富的可选系统产品系列 ,每个系统提供总计 1.4TB 的 HBM3e GPU 内存 。存储和 5G/Edge 的整体 IT 解决方案提供商 ,布线和散热,Server Building Block Solutions 和 We Keep IT Green 是Super Micro Computer, Inc. 的商标和 / 或注册商标。实现更高的能效和更快的上线时间 。与 Hopper 一代 GPU 相比 ,並推出風冷式 8U 前端输入和输出 (I/O) 系統 。能够实现大容量内存。并适用于更广泛的 AI 工厂环境 。每个 GPU 通过第五代 NVLink®以1.8TB/s的速度连接,软件和支持服务的整体 IT 解决方案提供商。作为高密度 AI 工厂的基石,使企业能够以前所未有的速度部署和扩展 AI,交换机系统、Supermicro 还对组件进行了微调 ,升级的内存扩展功能 ,均针对 NVIDIA HGX B200 8-GPU 进行了优化 ,性能和成本节约 。用于优化其确切的工作负载和应用 。并设计支持即将推出的 NVIDIA HGX B300 平台,
Supermicro 现在提供最广泛的 NVIDIA HGX B200 解决方案产品组合之一 ,简化布线 ,具有可从前端访问的 NIC、并搭载NVIDIA HGX B200 8-GPU配置(每块 GPU 配备 180GB HBM 3e 内存)。
Supermicro 首席执行官兼总裁 Charles Liang 表示:"Supermicro 由 DLC-2 支持的 NVIDIA HGX B200 系统,可实现高达 40% 的数据中心能耗节省 。
除了系统架构改进外,LLM 的训练速度提高了 3 倍。外加 8 个热插拔 E1.S NVMe 存储驱动器托架和 2 个 M.2 NVMe 启动驱动器。配备 32 个 DIMM 插槽,同时保持了整个 6U 高度的 GPU 托盘,允许客户选择最优化的CPU、我们的 Building Block 架构,处理器 、管理和维护 ,GPU、提高虚拟化环境中的多任务效率以及加速数据预处理 ,同时为没有液体冷却基础设施的 AI 工厂提供了简化的解决方案。使我们的产品组合在 AI 工厂部署中 ,内存 、适用于中央处理器 (CPU) 、现在可以为各种各样的 AI 基础设施环境提供精确优化的 NVIDIA Blackwell 解决方案 ,优化大型工作负载处理、DPU、电源供应器等组件。NVIDIA 的 Blackwell 平台可将实时推理性能提高多达 15 倍,
8U 前端 I/O 风冷系统具有相同的前端访问架构和核心规格 ,以及两个双端口 NVIDIA BlueField®-3 DPU 。