首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏6G

    OCS 四大技术缺陷!

    分享一篇早期关于OCS的文章。 谷歌在2022年引入了光交换机以替代主干层电交换机,强调了OCS的几大优势,如数据速率和波长无关、低延迟和高效节能等等。 由于OCS具备全带宽处理能力,当谷歌将leaf switch升级至1.6T/3.2T光模块时,现有OCS设备无需更换,这种可持续使用特性有效抵消了初期投资。 若按谷歌规划的3代设备升级周期计算,OCS单代前期成本约为EPS的3.5倍(考虑到每代EPS的平均售价持续上涨)。若OCS能支持4代设备升级,则两者的资本性支出差异可能高达六倍! 另外,传统OCS在进行光路切换时耗时较长。打个比方,OCS 就像一个铁路道岔。它们可以有多条路径,但火车一次只能穿过一条特定的轨道/路径。为了改变火车的行驶路径,必须手动重定向轨道。 文档参考: 光是通信的必由之路,OCS已成功应用.pdf AI网络光交换机技术报告.pdf

    98601编辑于 2025-03-24
  • 来自专栏光芯前沿

    UCB的硅光MEMS OCS控制技术

    光交换(OCS)类似传统电话交换机,只不过它传输的是光信号。与EPS相比,OCS的直接光连接能降低功率损耗和延迟,但需要提前规划连接路径,适用于流量较为稳定、可预测的场景。 这一实践展示了OCS在大规模数据中心中的可行性和优势,也引发了业界对OCS技术的更多关注。 (三)OCS技术的发展方向 未来,分布式AI/ML工作负载对网络性能提出了更高要求,需要更频繁的拓扑优化。然而,目前OCS的ms级切换速度仍限制了其在这方面的应用。 因此,开发更快切换速度的OCS技术成为了未来的重要研究方向。 (四)现有OCS技术的优劣势 目前的OCS技术主要包括3D MEMS镜子技术、压电式开关、硅光OCS等。 硅光OCS虽然切换速度快且成本潜力低,但存在插入损耗和串扰等问题。基于InP的OCS虽有无损切换的优势,但工艺不成熟、成本高、规模做不大。

    2.1K12编辑于 2025-04-23
  • 来自专栏AI与算力

    为什么谷歌要发展OCS光交换机?

    因此,为了高效地将多个计算芯片连接起来,谷歌在通用解决方案基础上,创造性地引入OCS光交换机(Palomar)。那么为何要发展OCS光交换机? TPU v4时期首次引入Palomar OCS提升计算集群性能 谷歌从TPU v2版本开始构建超级计算机集群:谷歌在2017年发布TPU v2的同时,宣布计划研发可扩展云端超级计算机TPU Pods,通过新的计算机网络将 ◼ TPU v3集群(Pod):2018年与TPU v3芯片一同推出,每个Pod最多拥有1024个芯片; ◼ TPU v4集群首次引入OCS:首次引入Palomar OCS(Optical Circuit 本文内容源引于中泰证券的研究报告"AI系列:光是通信的必由之路,OCS已成功应用"

    1.7K11编辑于 2024-04-09
  • 来自专栏光芯前沿

    Drut Technologies:CPO+OCS打破静态机架算力局限

    Drut Technologies成立于2018年,总部位于美国新罕布什尔州纳舒厄,业务覆盖美国、印度及欧洲市场,是OCS光子解聚合技术领域的先驱企业之一。 而实现服务器解耦的关键,在于低延迟、高带宽的动态互连技术——这正是Drut 2500系列光子架构与光交换(OCS)的核心应用场景。 ◆ OCS与CPO技术:实现低延迟光子互连的关键 Drut报告强调,“PCIe remoting over Optical Circuit Switch(OCS)”是服务器解耦的技术核心—— 即通过OCS(光电路交换机)构建动态光子fabric,实现PCIe信号的长距离、低延迟传输;而CPO技术则是提升光子互连密度、降低功耗的关键突破。 OCS的作用:动态光路由 Drut的光子fabric基于OCS实现“动态互连”:OCS作为Layer-1层交换机,可实时调整iFIC 2500与tFIC 2500之间的光子通路,无需依赖传统以太网或

    50911编辑于 2025-10-13
  • 来自专栏光芯前沿

    光子集成OCS技术:从单材料平台到异质集成平台

    剑桥大学的Richard Penty教授在OCP EMEA 2025上做了题目为Photonic Integrated Switch Fabrics:from homogeneous integration to heterogeneous integration的报告,介绍了多年来项目组所研发的多种光子集成光开关技术及其在AI数据中心中的潜在应用及未来演进。 一、光开关技术在AI数据中心的应用背景

    64911编辑于 2025-05-17
  • 来自专栏光芯前沿

    OFC 2026前瞻:AI 数据中心光交换OCS相关成果梳理

    一、产业界特邀报告 本章节聚焦谷歌、英伟达、阿里云等全球 AI 与算力产业龙头发布的 OCS 相关特邀报告、高分论文,覆盖 OCS 在 AI 超算集群的规模化落地实践、AI 工厂网络架构级方案 二、OCS 核心器件与芯片级技术突破 本章节覆盖 OCS 核心光器件、硅光子集成芯片、交换矩阵与调度芯片的技术突破,是 OCS 实现高性能、高可扩展性、低成本落地的核心底座。 三、面向 AI 大模型训练 / 推理的 OCS 架构与调度优化 本章节聚焦 OCS 与 AI 大模型训练、推理场景的深度融合,覆盖 LLM 训练流量感知的 OCS 重配置、集体通信加速、推理性能阈值分析 四、数据中心与算力网络 OCS 规模化研究 本章节覆盖 OCS 在 AI 数据中心组网、跨集群扩展、算力网络资源池化等规模化落地场景的创新方案,旨在解决 OCS 商用部署的扩展性、能效、兼容性等核心问题 完成单位:上海交通大学 核心摘要:本文提出了 ocs-DRP 方案,一种基于 OCS 的扁平化、可扩展 AI 数据中心网络架构,通过双资源池化实现灵活的轨内与轨间连接。

    1.2K20编辑于 2026-03-10
  • 来自专栏光芯前沿

    Cignal AI研讨会:面向AI扩展和数据中心自动化的光交换OCS技术

    一、OCS基础定义与核心信息 1. 二、OCS应用场景 1. 三、OCS市场规模 - Cignal AI预计到2029年,光交换OCS的总潜在市场规模(TAM) 将超过16亿美元。 软件与系统架构 - 软件支持:SONiC作为开源软件,原定义为Layer-2/3标准,现OCS的SONiC子组项目将其扩展到包含Layer-1 OCS电路。 总结 当前因新技术出现,OCS适用于AI/ML等场景,随着用例发展,OCS架构及与数据中心网络的集成也将演进。

    2.3K12编辑于 2025-07-24
  • 来自专栏xingoo, 一个梦想做发明家的程序员

    记录安装oracle的那些事(四)之oracle 缺包安包

    \admin\OCS4J.properties”,点击忽略也能完成安装,但是又担心有不妥,于是四处查找答案,不过也没有看到对这个东东的解释。 原因是 Oracle 安装版本中 \DISK1\stage\Components\oracle.ocs4j\2.1.0.0.0a\1 \DataFiles\Expanded\OCS4J_conf_nt 下缺少 OCS4J.properties.tmp 文件。 如果安装遇到这个,可以自己创建 OCS4J.properties 文件, 然后拷贝到提示的路径,如 D:\oracle \ora92\ocs4j\admin 然后点击retry即可。 = %s_hostName%:%s_cachePort% diskPath = %s_diskPath% logFileName = %s_ocs4jAdmin%\logs\ocs4j.log Oracle

    1.7K70发布于 2018-01-17
  • 来自专栏光芯前沿

    港科大MixNet入选SIGCOMM 2025:区域重构OCS光交换让MoE训练成本效率显著提升1.2-2.3倍

    基于此,MixNet提出“区域可重构OCS+静态EPS”的混合架构,在无需全局重构的情况下适配动态流量。 域:每个区域连接80-250台服务器(基于毫秒级OCS的端口限制),专门承载EP的动态区域通信,通过实时重构适配流量热点,单个OCS单元支持576×576端口规模; - 全局静态EPS域:基于以太网/ 2.2 区域OCS的部署智慧 - 部署位置:区域OCS连接一组GPU服务器,每台服务器将部分网络接口卡(NIC)分配给OCS(其余保留给EPS),例如每台服务器配置4张NIC时,2张接入OCS、2张接入 3.2 贪心拓扑重构算法 为最大化高带宽链路利用率,MixNet采用贪心策略生成OCS拓扑: 1. 优先分配电路:为瓶颈链路分配OCS电路,直至端口资源用尽,单区域OCS最多可同时支持288条高带宽电路; 3.

    96421编辑于 2025-08-12
  • 来自专栏存储公众号:王知鱼

    SK hynix:基于对象的计算型存储分析系统

    OCS:在OCS架构中,查询以SQL的形式直接发送到OCS系统。OCS能够在存储层筛选出相关数据,将符合条件的数据直接返回给客户端。这样避免了读取不必要的数据,减少了数据移动量,提高了查询效率。 OCS 系统架构 • OCS系统由OCS前端服务器和基于对象的计算存储阵列(OCSA)组成 通过NVMe over Fabrics将后端存储(OCSA)解耦 • OCS是一个垂直优化的分布式分析系统 支持基于标准的对象和查询下推接口 计算与存储的整合 - OCSOCS不仅是一个存储系统,还在存储层加入了计算能力,可以在数据存储的同时进行数据过滤、查询下推等计算操作。 支持多种异构设备 - OCSOCS架构中的OCSA设备支持异构硬件(如NVMe SSD、CSD、CXL内存等),并通过异构设备管理来高效利用这些硬件资源。 OCS系统具有高互操作性和灵活性,并且可以节省主机资源。 5. 实验结果表明,使用OCS系统可以显著提高数据分析性能,同时减少数据传输和计算网络开销。

    68710编辑于 2025-02-11
  • 来自专栏光芯前沿

    OCP EMEA 2025:Oriole介绍光子网络(OCS)赋能AI的挑战、机遇和演进

    的应用与挑战,以为未来OCS如何做到取代EPS的一些观点。 三、光交换(OCS)的实践困境与突破方向 1. 谷歌的先驱实践:从数据中心核心到推理集群扩展 OCS技术在AI网络中有着重要的应用实践。 因此,OCS技术仅适用于连接持续时间较长的场景,以保证足够的吞吐量,这在很大程度上限制了其应用范围。 为突破这一困境,研究人员致力于将OCS的重新配置速度提升至微秒甚至纳秒级别。 性能对比:OCS vs 电分组交换(EPS) OCS技术面临的另一大挑战是,在集体数据传输过程中,若数据传输时间远短于交换机的重新配置时间、网络控制重新配置时间以及收发器的启动时间,OCS系统的性能将不如快速电分组交换系统 这就引出了一个关键问题:基于OCS的网络能否展现出与传统电分组交换(EPS)系统相媲美的性能? 构建一个能够替代EPS系统的OCS网络,需要解决诸多技术难题。

    1.2K01编辑于 2025-05-13
  • 来自专栏光芯前沿

    OFC 2026 NVIDIA报告:面向AI工厂的光交换(OCS)技术使能、应用场景与落地挑战

    二、OCS在AI数据中心的核心应用场景 OCS的核心价值,在于实现了物理层拓扑的可重构,可针对性解决传统电交换网络在AI场景下的功耗、延迟、灵活性瓶颈。 在电交换层之间插入OCS,配套冗余硬件设计,当网络出现故障时,可通过OCS快速切换链路,剔除故障组件,替换为备用资源,有效缩小故障域,避免大量GPU资源因单点故障被闲置,提升集群整体可用性。 三、OCS规模化部署的核心技术要求与现存缺口 演讲明确指出,当前OCS技术仍无法满足AI集群的规模化商用部署需求,核心需补齐链路预算、集成密度、可靠性、成本四大维度的工程化缺口。 当前的核心缺口是,现有OCS器件的插入损耗过高,无法适配现有标准光模块的链路预算,需开发更低损耗的OCS器件与连接器方案。 当前的核心缺口是,现有OCS设备的故障模式不明确,缺乏适配AI集群高可用要求的冗余设计与热插拔能力。 在成本维度,AI集群的规模化部署要求OCS技术可支撑万级端口的商用落地。

    55520编辑于 2026-04-03
  • 来自专栏python3

    Forefront For Office

    一、创建用户并设置用户 首先我们在域控制器上创建一个用户,这个用户用来启动OCS服务和传达Forefront For OCS服务器的即时消息给各OCS客户端。 三、测试Forefront For OCS 我们打开Forefront For OCS控制台看看是什么样子。桌面清晰,一目了然。 我们在域控制器上用管理员的身份登陆OCS客户端,在OCS服务器上用zhangsan的身份登陆OCS客户端,如下图登陆成功后,我们让管理员给zhangsan发一个病毒文件,来测测试一下Forefront 接下来我们打开Forefront For OCS控制台中设置一下,来阻止OCS客户端来互相传送RAR压缩文件,打开Forefront For OCS服务器,选择“筛选”中的“文件”------“添加”- 发送了一个OCS2007安装包,已经发送了一多半了。 ? 马上就快发送完成了,出现了下面的提示“无法将OCS2007标准版.rar”发送给管理员 ?

    84810发布于 2020-01-06
  • 来自专栏光芯前沿

    OFC 2025 Google报告: OCS技术使能AI集群的高效扩展,显著提升系统可用性和能效

    OCS 通过动态调整网络拓扑,实现灵活的逻辑分组,显著提升系统可用性。 2. OCS 技术细节与优势 架构设计: 3D Torus 模块:每个机架内的 4x4x4 Torus 模块通过 OCS 连接,形成 16x16x16 的逻辑架构,支持灵活任务分割(如 8x8x4 或 16x8x16 OCS 在 AI 集群中的应用 模型训练案例: Palm 模型训练6 个Super Pod动态分配资源,50天内通过 OCS 调整拓扑,应对节点故障和维护,确保训练连续性。 带宽优化:通过 OCS 动态分配,消除跨机架流量瓶颈,降低延迟。 4. 未来展望与行业影响 行业趋势: 超大规模数据中心需求推动 OCS 技术主流化,解决铜缆连接的能效和扩展性瓶颈。 OCS 的动态拓扑调整、WDM 复用和环形器设计,使其成为大规模 AI 训练的关键技术。未来,随着超大规模数据中心的发展,OCS 技术将在行业中发挥更重要作用,推动 AI 基础设施的革新。

    3.2K13编辑于 2025-04-08
  • 来自专栏光芯前沿

    Nvidia探索光交换OCS在数据中心及高性能计算集群中的应用

    然而,高速光交换面临硬件成熟度低、系统时钟同步复杂等挑战,尽管如此,谷歌近期工作推动了OCS在数据中心的部署,最新研究也聚焦于OCS在机器学习应用系统中的使用,如TPU V4的相关研究展示了新的架构优化 ◆ OCS集成的位置与功能 在通用三级胖树拓扑中,OCS有多种集成点,如在叶层和脊层间添加OCS层(脊OCS层)可保持胖树拓扑并实现隔离、冗余和拓扑调整;用OCS替换核心和脊交换机(OCS 本研究利用L1可编程数据平面和OCS,通过在交换层间添加OCS及冗余交换机,动态重配置网络实现高效自动故障恢复。 使用Polatis的320端口商用OCS用于服务器到叶交换机和叶交换机到脊交换机的连接,该OCS由定制的L1控制平面软件控制,用于物理层资源管理。 ◆ 发展方向 需提升光收发器与OCS兼容性,降低OCS成本(遵循成本降低曲线,集成光技术有望带来更大成本收益),提高可靠性(优化各构建模块,考虑芯片增益和放大器设计,改进系统设计),以加速OCS

    2.2K11编辑于 2025-04-08
  • Google TPU架构揭秘:OCS光交换,从4x4x4 Cube到9216卡Ironwood的进化引擎

    数量为:6144 Links ÷ 128 Ports/OCS = 48 台 OCS。 为了在物理层严格控制和适配3D Torus,48台OCS被严格化为为三个正交组分别承载X/Y/Z轴不同维度的流量,以X轴组为例,包含16台OCS,遵循“同维互联”原则,每一台OCS仅仅负责连接和承载所有 OCS不读取数据包头、不进行光电转化,仅仅只是物理层面的“光线反射镜”,在Palomar OCS机箱内部光信号的传输路径呈现出一个经典的“W”形状,最大限度减少插入损耗和实现任意端口间的互联。 那么需要多少OCS呢? 320*320规格的OCS),同时将 OCS 与 Cubes 之间的Twisted 3D Torus连接带宽提升至 800G/1.6T,确保了超大规模集群下的无阻塞通信。

    2.7K11编辑于 2025-12-17
  • 来自专栏全栈程序员必看

    数据库分区表关联

    create table OCS_COLLECT_PEOPLE ( COLLECT_ID VARCHAR2(32) not null, PEOPLE_ID VARCHAR2(20) not null, P,OCS_COLLECT_PEOPLE_PROP PP WHERE PP.OPERATOR_TIME=P.OPERATOR_TIME AND P.COLLECT_ID=PP.COLLECT_ID P,OCS_COLLECT_PEOPLE_PROP PP WHERE PP.OPERATOR_TIME>TO_DATE('2013-01-01','YYYY-MM-DD') AND P.COLLECT_ID create table OCS_COLLECT_PEOPLE ( COLLECT_ID VARCHAR2(32) not null, PEOPLE_ID VARCHAR2(20) not null, P,OCS_COLLECT_PEOPLE_PROP PP WHERE PP.OPERATOR_TIME=P.OPERATOR_TIME AND P.COLLECT_ID=PP.COLLECT_ID

    1.4K10编辑于 2022-08-18
  • Google OCS光路解耦揭秘:寒武纪大爆发,从供应链双轨到CPO百万卡全光计算织物

    AGI小咖 本文基于 Google 十年来的 OCS 研发与部署经验,从 TPUv4 的 48 台 OCS 原型验证,到 TPUv7 Ironwood 的 14 万卡级 Jupiter 网络大规模商用, 1、Google OCS光路解耦演进 世界上唯一大规模商业化应用OCS的估计只有Google,从早期的Apollo 项目探索到Ironwood 架构落地,从 TPUv4 的 3D Torus 拓扑到 Jupiter DCN网络中 Spine 层的全面光化,从48台OCS组建3D Torus的4096颗TPUv4 Pod到1024台OCS支撑起147,456 颗 TPU v7 Pod的超大规模互联网络,OCS成为了 1.1 ICI 网络革命:从 48 台 OCS 构建 TPUv4 Pod 到 3D Torus 范式 在 ICI 专用网络层面,OCS 的引入彻底改变了超算集群的拓扑构建方式 , Google在NSDI 1.3 Jupiter DCN 范式转移:OCS 重构骨干网迈向 14 万卡集群 如果说 ICI 网络是 OCS 在专用超算领域的胜利,那么 Jupiter DCN 的演进则标志着 OCS 在通用数据中心骨干网层面的全面突围

    1.5K10编辑于 2025-12-30
  • 来自专栏光芯前沿

    SC 25:哥伦比亚大学与 NVIDIA 联合提出 ACTINA框架,优化 OCS AI 网络性能与能效

    提出的评估方法提供了一个全面框架,可评估不同 OCS 技术下支持 OCS 的网络性能,为下一代光可重构架构的设计提供指导,以满足新兴 AI 系统的功耗和计算需求。 OCS技术的出现打破了这一僵局。与静态网络不同,OCS可动态重构链路、按需分配带宽,且硬件成本低、功耗低,已在大规模生产数据中心和ML集群中部署。 Giant OCS抽象与逻辑拓扑 为简化网络建模,ACTINA提出Giant OCS抽象:所有GPU通过可转向光链路直接连接到一个大端口无阻塞OCS,可任意分配链路资源,模拟任意拓扑。 在较低的 OCS 功耗下,OCSBCube 和 TPUPod 的总功耗相似,但随着 OCS 功耗增加,OCSBCube 的功耗超过 TPUPod,因为其 OCS 组件数量更多。 此外,可以注意到,在较低的 OCS 功耗下,收发器功耗是 OCSBCube 和 TPUPod 的主要贡献者;而当 OCS 功耗增加到 3.8 W(Tunable laser方案)时,OCS 功耗成为主要贡献者

    39011编辑于 2025-11-26
  • 来自专栏Windows技术交流

    24H2 Win11PE的制作和使用

    (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation Environment\amd64\WinPE_OCs (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation Environment\amd64\WinPE_OCs (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation Environment\amd64\WinPE_OCs (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation Environment\amd64\WinPE_OCs (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation Environment\amd64\WinPE_OCs

    4.9K11编辑于 2025-12-17
领券