首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器之心

    4万亿个晶体管,单机可训练比GPT4大10倍的模型,最快最大的芯片面世

    而现在推出的 WSE-3 包含 4 万亿个晶体管,在相同的功耗和价格下,WSE-3 的性能是之前记录保持者 WSE-2 的两倍。 此次发布的 WSE-3 是专为训练业界最大的 AI 模型而打造的,基于 5 纳米、4 万亿晶体管的 WSE-3 将为 Cerebras CS-3 人工智能超级计算机提供动力,通过 90 万个人工智能优化的计算核心 WSE-3 呈正方形,边长为 21.5 厘米(面积为 46225mm^2),几乎是使用了整个 300 毫米硅片来制造一个芯片。 这么看来,凭借 WSE-3,Cerebras 可以继续生产世界上最大的单芯片了。 图源:https://spectrum.ieee.org/cerebras-chip-cs3 下图展示了 WSE-3 的特点: WSE-3 前两代晶圆级引擎的一些参数。

    27810编辑于 2024-03-18
  • 来自专栏新智元

    4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

    刚刚,全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程。更厉害的是,WSE-3打造的单个超算可训出24万亿参数模型,相当于GPT-4/Gemini的十倍大。 就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。 性能上,WSE-3是上一代WSE-2的两倍,且功耗依旧保持不变。 采用台积电5nm制程的WSE-3,不仅搭载了40000亿个晶体管(50倍),芯片面积更是高达46225平方毫米(57倍)。 而团队也可以在WSE-3的加持下,以前所未有的速度和规模训练和运行AI模型,并且不需要任何复杂分布式编程技巧。 超高带宽,极低延迟 而WSE-3的片上互连技术,更是实现了核心间惊人的214 Pb/s互连带宽,是H100系统的3715倍。

    33710编辑于 2024-03-25
  • 来自专栏芯智讯

    晶圆级AI芯片WSE-3推理性能公布:在80亿参数模型上每秒生成1800个Token

    使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,相比上一代的WSE-2提升了1倍。 在此次的Hot Chips 2024大会上,Cerebras公布了更多关于WSE-3在运行AI大模型上的性能表现。 虽然WSE-3能够以 16 位精度运行 Llama 3.1 8B 时,每秒能够生成超过 1,800 个Token,但是如果不是因为系统受计算限制,WSE-3的速度应该能够更快。 对于大型语言模型 (LLM)来说,44GB的容量并不多,因为必须考虑到键值缓存在WSE-3所针对的高批处理大小下占用了相当多的空间。 毕竟单个晶圆级的WSE-3芯片的成本也远远高于Groq LPU的成本。 编辑:芯智讯-浪客剑

    68010编辑于 2024-09-02
  • 来自专栏光芯前沿

    Cerebras的晶圆级算力革命

    ◆ 核心突破:WSE-3晶圆级引擎的硬件架构革新 Cerebras Wafer-Scale Engine 3(WSE-3)作为全球最快的AI芯片,其硬件设计重新定义了算力密度与数据传输效率的边界 Cerebras WSE-3凭借超高内存带宽和独特的单芯片流水线执行模式,彻底改变了这一现状。 这种架构带来了极致的低延迟表现:在生成式文本与搜索场景中,GPU需要5秒完成的查询,WSE-3仅需0.07秒;对于要求延迟低于100毫秒的生成式语音与视频任务,WSE-3将延迟控制在10毫秒内,而GPU 更重要的是,WSE-3的高带宽支持单用户仅占用部分带宽,剩余资源可并行服务多个用户,所有用户均能获得满性能体验,实现低延迟与高吞吐量的兼顾。 正如谷歌的研究所示,哪怕毫秒级的延迟增加也会显著降低用户参与度,而WSE-3实现的即时响应,正是AI大规模普及的关键前提。

    55610编辑于 2025-12-25
  • 来自专栏芯智讯

    4万亿个晶体管,90万个AI核心,Cerebras第三代晶圆级AI芯片来了!

    3月14日消息,面对火爆的AI市场,新创AI芯片公司Cerebras Systems近日推出了其第三代的晶圆级AI芯片WSE-3,性能达到了上一代WSE-2的两倍,将用于训练业内一些最大的人工智能模型。 据介绍,WSE-3依然是采用了一整张12英寸晶圆来制作,基于台积电5nm制程,芯片面积为46225平方毫米,拥有的晶体管数量达到了4万亿个,拥有90万个AI核心,44GB片上SRAM,整体的内存带宽为21PB 使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,相比上一代的WSE-2提升了1倍。 如果将其与英伟达的H100相比,WSE-3面积将是H100的57倍,内核数量是H100的52倍,片上内存是H100的880倍,内存带宽是H100的7000倍,结构带宽是H100的3715倍。 与此同时,Cerebras还推出了基于WSE-3的CS-3超级计算机,可用于训练参数高达24万亿的人工智能模型,这比相比基于WSE-2和其他现代人工智能处理器的超级计算机有了重大飞跃。

    44010编辑于 2024-03-18
  • 来自专栏存储公众号:王知鱼

    Cerebras:存储系统系统与新兴存储机遇

    WSE-3这颗人类制造的最大芯片,集成了90万个计算核心和44GB分布式SRAM,实现了21 PB/s的惊人聚合带宽。 通过将整个晶圆制造为单一芯片(WSE-3),Cerebras实现了计算与存储的原子级融合,彻底打破了传统芯片设计的边界 2。 完全分布式内存设计 物理布局与容量: WSE-3集成了高达44GB的片上SRAM 4。 由于90万个核心可以同时以单周期速度读写各自的本地SRAM,WSE-3实现了惊人的21 PB/s(拍字节每秒)的内存带宽 4。 这就是为什么WSE-3在拥有整个晶圆面积的情况下,仅集成了44GB内存,而面积小得多的H100加上HBM却能拥有80GB以上。

    34010编辑于 2026-03-09
  • 刚完成11亿美元融资,AI芯片独角兽宣布撤回IPO申请

    目前Cerebras的AI芯片已经发展到了第三代,WSE-3,基于台积电5nm制程,芯片面积为46225平方毫米,拥有的晶体管数量达到了4万亿个,拥有90万个AI核心,44GB片上SRAM,整体的内存带宽为 使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,性能达到了上一代WSE-2的两倍,可用于训练业内一些最大的人工智能模型。

    20410编辑于 2026-03-19
  • 来自专栏数据猿

    Sora将于年内正式向公众推出;工业富联2023年归母净利润210.4亿元;世界第一AI芯片WSE-3面世丨每日大事件

    企业动态 世界第一AI芯片WSE-3面世 3月14日消息,美国加州半导体公司Cerebras Systems发布第三代晶圆级AI加速芯片“WSE-3”(Wafer Scale Engine 3),在功耗 WSE-3再次升级为台积电5nm工艺,晶体管数量继续增加达到4万亿个,AI核心数量进一步增加到90万个,缓存容量达到44GB,外部搭配内存容量可选1.5TB、12TB、1200TB。

    27510编辑于 2024-03-18
  • AI芯片独角兽获11亿美元融资,估值已达281亿美元!

    2024年3月,Cerebras又推出了其第三代的晶圆级AI芯片WSE-3,基于台积电5nm制程,芯片面积为46225平方毫米,拥有的晶体管数量达到了4万亿个,拥有90万个AI核心,44GB片上SRAM 使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,性能达到了上一代WSE-2的两倍,可用于训练业内一些最大的人工智能模型。 尽管性能翻了一番,CS-3仍保持着与前代产品相同的功耗。

    27010编辑于 2026-03-20
  • 来自专栏数据猿

    苹果推出300亿参数大模型;北京将发布第一代通用开放人形机器人本体;国家数据局:加快构建全国一体化算力网丨每日大事件

    Cerebras Systems迄今最快AI芯片,将用于构建大型人工智能超级计算机 3月18日消息,据美国趣味科学网站报道,美国芯片初创企业Cerebras Systems推出了全新的5纳米级“晶圆级引擎3”(WSE WSE-3拥有4万亿个晶体管,也使其成为迄今最大的计算机芯片,专门用于训练大型AI模型,未来也有望用于目前正在建设中的“秃鹰银河3号”AI超级计算机。

    22610编辑于 2024-03-19
  • 来自专栏光芯前沿

    AI网络挑战:系统视角下的光互连技术需求与架构分析(Meta)

    (二)GPU到GPU的I/O挑战 ◆ 集成设计需求       单芯片集成大量处理单元(如Cerebras WSE-3芯片含4万亿晶体管)可缓解Scale-Out挑战,但需高速I/O支持片内与片外通信。

    1.3K10编辑于 2025-06-08
  • 来自专栏云云众生s

    开发者现在可以访问世界上最快的AI芯片

    Cerebras 的 WSE-3 AI 芯片尺寸约为 46,225 平方毫米,是 Nvidia H100 GPU 的 56 倍。Cerebras 在其数据中心中组装了这些大型 AI 芯片。

    35710编辑于 2024-09-05
  • 来自专栏AI SPPECH

    33_LLM的定义与规模化:参数与计算力

    TFLOPs 192GB HBM3 750W 更高内存带宽,性价比优势 Intel Gaudi3 800+ TFLOPs 96GB HBM3 600W 专用AI加速器,能耗比优势 Cerebras WSE

    59810编辑于 2025-11-13
  • 来自专栏AI SPPECH

    65_GPU选择:A100 vs RTX系列

    针对云环境优化的AI芯片 这些芯片在各自的云平台上提供了极具竞争力的价格性能比 10.3 专用AI加速器的兴起 除了通用GPU,专用AI加速器也在2025年获得了广泛应用: 推理专用加速器: Cerebras WSE

    1.5K10编辑于 2025-11-16
  • 来自专栏AI SPPECH

    42_大语言模型的计算需求:从GPU到TPU

    H100便宜30-40% 微软Maia:微软自研的AI加速器,主要用于Azure云服务 Meta MTIA:Meta自研的推理加速器,针对推荐系统和大语言模型推理优化 各类创业公司产品:如Cerebras的WSE

    76010编辑于 2025-11-16
  • 来自专栏AI SPPECH

    59_实时性模型:选择低延迟LLM

    适用场景 NVIDIA H100 NVL ★★★★★ ★★★☆☆ ★★★★★ ★☆☆☆☆ 大规模部署 AMD MI300X ★★★★☆ ★★★★☆ ★★★☆☆ ★★☆☆☆ 性价比部署 Cerebras WSE

    92910编辑于 2025-11-16
领券