Scale-up 网络|GPU–GPU 光互连(AI 超节点)
面向 AI 超节点的 GPU–GPU 光互连

随着 AI 大模型训练与推理规模持续扩大,系统性能瓶颈正逐步从单 GPU 计算能力转向 GPU 之间的互连能力。


Scale-up 网络通过 GPU-GPU 间长距离、高带宽、低时延的光互联技术,大幅扩张 AI 超节点规模,成为高性能 AI 计算系统的关键技术。

行业核心痛点
算力规模增长,正在被互连能力所限制
电互连在带宽与距离上接近物理极限
GPU 数量增加导致通信时延与开销迅速放大
系统级功耗与散热约束显著增强
电互连
受距离与功耗约束
可插拔光模块
在模块级实现更优能效
光 I/O 芯粒
面向高密度、低功耗规模化互连
行业核心痛点
奇点的解决思路
用于 Scale-up 网络的芯粒级光 I/O

针对 Scale-up AI 网络的系统级挑战,PhotonicX AI 采用芯粒级光 I/O 架构,极大提升 GPU-GPU 互连效率。

光 I/O 前移至计算核心
将光互连能力前移至计算核心附近,显著缩短电互连路径,突破传统电互连在带宽与距离上的物理限制。
高密度光电集成
通过高密度光电集成,实现可扩展、低时延的 GPU 互连,同时降低 AI 超节点中的系统功耗与散热压力。
多形态架构适配
基于芯粒的光 I/O 架构支持多种封装与系统配置,灵活适配不同 AI 超节点的架构设计需求。
相关产品
光 I/O 芯粒( NPO/CPO/XPO )
光 I/O 芯粒( NPO/CPO/XPO )
面向 AI 计算的芯粒化光 I/O 方案,实现高带宽密度、低时延与低功耗光互连。
芯粒化光 I/O 架构
支持 NPO/CPO/XPO 等多种封装形式
高带宽密度、低时延、低功耗
了解更多
定义 AI 光互连的未来
面向 AI 超节点的 GPU-GPU 光互连,与奇点光子技术团队展开深度交流。
联系我们
首次名称
现名称
邮箱
公司
职位
手机号
留言