SuperX重磅推出全新XN9160-B200AI服务器性能堪比超级计算机

  九游新闻     |      2025-07-31 14:53

  7月30日晚,Super X AI Technology Limited(纳斯达克代码:SUPX)(以下简称“公司”或“SuperX”)发布公告称,公司正式发布其最新旗舰产品——SuperX XN9160-B200 AI服务器。该服务器搭载NVIDIA最新一代Blackwell架构GPU(B200),旨在满足客户对人工智能(AI)、机器学习(ML)和高性能计算(HPC)应用程序的高性能和可扩展性的算力需求。

  根据公告,XN9160-B200 AI服务器专为加速大规模分布式训练与推理任务而设计,可加速各种支持GPU的工作负载,特别适合于使用强化学习(RL)和蒸馏法对基础模型进行大规模分布式人工智能训练及推理、多模态训练和推理,以及气候建模、药物发现、地震分析和保险风险建模等HPC应用程序的推理,一台该服务器性能堪比超级计算机。该服务器的推出标志着SuperX在AI基础设施领域迈出关键一步,能够为全球AI工厂客户提供更加强大的算力支持,为加速人工智能技术创新与落地注入战略性的支撑动力。

  在2025年全球AI算力竞赛白热化的关键节点,训练性能直接决定了科技企业的核心竞争力。这一时代背景下,SuperX XN9160-B200 AI服务器凭借突破性的计算架构,实现了业界领先的精度算力,成为当前AI基础设施中最具竞争力的训练平台解决方案。

  从技术参数来看,SuperX此次推出的全新XN9160-B200产品拥有强大的核心动力和训练性能,可谓是专为AI而生:8组NVIDIA Blackwell B200 GPU,搭载第五代NVLink技术,提供高达1.8TB/s的GPU间超高带宽。这就显著的加速了其大规模AI模型训练能力,能够实现最高3倍的速度提升,从而大幅缩短万亿参数模型预训练、模型微调等任务的研发周期。

  在推理性能上,XN9160-B200 AI服务器更是实现了跨越式飞跃,在1440GB高性能HBM3E显存在FP8精度下,针对GPT-MoE 1.8T模型,可实现单卡每秒58个Token的惊人吞吐量,相较上一代H100平台每秒3.5个Token的吞吐量,这代表着高达15倍的极致性能跃升。

  不仅如此,XN9160-B200 AI服务器还搭载了第六代Intel® Xeon®处理器,协同5,600-8,000 MT/s的 DDR5内存和NVMe全闪存储,这些关键配置有效加速了数据预处理、保障了高负载虚拟化环境的流畅运行、提升了复杂并行计算的效率,能够支撑AI大模型的训练和推理任务高效稳定完成。

  在人工智能算力需求爆炸式增长的背景下,AI服务器面临着训练性能与可靠性协同设计的核心矛盾。典型千亿参数模型的训练周期往往需要持续数周,期间需保持GPU/TPU集群在90%以上负载率下稳定运行,任何超过5分钟的意外中断都可能导致巨大的计算资源浪费及项目周期延迟,这就要求AI服务器需要在长时间内保持可靠的运算能力。

  针对这一痛点,XN9160-B200 AI服务器采用了先进的多路电源冗余方案,配备了1+1的12V冗余电源和4+4的54V GPU冗余电源,有效规避了单点电源故障风险,确保在意外情况下系统也能持续稳定运行,为关键AI任务提供无间断的动力保障,保障了系统运行的极致可靠性。

  强大的模型训练能力、广泛的应用适应性、高效的计算性能,以及极致的稳定可靠性,使SuperX XN9160-B200 AI服务器专为算力密集型场景设计,能够覆盖五大核心客户群体:针对大型科技公司,可支撑企业训练和部署基础模型与生成式 AI 应用;对于科研机构与大学,可支持复杂的科学计算与模拟任务提供;在金融与保险行业领域,可以帮助其用于风险建模与实时数据分析;在制药与医疗方面,能够显著缩短药物分子筛选周期并提升生物信息处理效率;政府与气象机构;同时该系统还能够为政府级气候预测与灾害预警系统提供超算级支持。

  有公司内部人士表示,此次新品发布是SuperX技术实力的又一次集中呈现。XN9160-B200内置AST2600智能管理系统,支持便捷的远程监控与管理,每台服务器均通过超48小时满载压力测试、冷热启动验证与高低温老化筛选,结合多项生产质控流程,确保可靠交付。同时提供三年质保与专业技术支持,以全生命周期的服务保障。

  在AI算力成为核心竞争力的2025年,SuperX正在通过构建和完善AI基础设施矩阵,强化一站式AI数据中心解决方案提供商核心战略。展望未来,公司还将持续深耕AI服务器研发、超大规模训练等前沿领域,以突破性的架构创新推动AI全场景落地,赋能千行百业智能化转型,SuperX期待与全球合作伙伴携手,共同定义下一代AI基础设施标准,加速人工智能时代的全面到来。