首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏存储公众号:王知鱼

    HBM工艺突破:技术回顾、展望

    近存计算架构洞察: 理解定制化HBM(cHBM)通过D2D接口取代传统HBM PHY的架构优势,为设计低功耗、高集成度的近存计算系统提供参考。 划线高亮 观点批注 HBM(高带宽内存)前端工艺迁移以提升带宽和单Die(裸晶)密度 表格呈现HBM 逐代工艺演进路线及技术参数,突出前端工艺对HBM带宽和单颗粒容量的极端重要性。 定制化HBM(cHBM)能够实现更优的系统级性能和总拥有成本(TCO) cHBM通过将部分计算逻辑下沉到可定制的HBM基底裸晶中,并用高效的D2D接口取代传统的并行HBM PHY接口,实现了“存算一体化 降本增效的核心在于接口的革新:废除在HBM和GPU两侧都需占地的、高功耗的HBM PHY,代之以轻量化的D2D接口。 HBM基底裸晶的制造将依赖台积电(TSMC) PPT上半部分有三段文字要点,深入解释了这一趋势背后的原因和逻辑: 技术升级的必然要求:随着计算能力的增强,从HBM4e时代开始,HBM的基底裸晶必须采用

    93610编辑于 2025-12-25
  • 来自专栏数字芯片实验室

    HBM:小贵但AI需要

    HBM 的好处是你可以在非常小的占用空间内获得这些带宽,并且还将获得非常好的能效。缺点是它依赖于昂贵的硅中介层和 TSV 来运行。 用于最大数据吞吐量的 HBM 堆栈。 目前困扰HBM的一件事是成本。 GDDR6 的单位成本性能实际上比 HBM 好得多,但 GDDR6 设备的最大带宽低于HBM 的最大带宽。 如果你需要如此巨大的带宽,又能承受成本,那么 HBM 就是你的不二之选。 HBM大多数客户都是人工智能客户,他们正在 LPDDR5X 和 HBM 接口之间做出重大的trade-off。 唯一阻碍他们的是成本,否则都会选择HBM,想象一下周围有 6 个 HBM 堆栈的SoC的带宽! 人工智能的需求远不止于此,这反过来又推动了下一代 HBM 的发展。 了解所需要处理的数据尤为重要。 降低HBM的成本 降低HBM也有多条技术路线: 1、在封装中不加入一个完整的硅中介层,只在需要的地方嵌入一小块硅,也就是说只是在CPU和HBM之间架起了一座桥梁。

    65310编辑于 2024-04-23
  • HBM未来开发路线图揭晓:HBM8带宽将达到64TBs

    当前头部内存大厂研发的HBM4 的每个堆栈的 HBM 容量将从288GB增加到348GB,而演进到 HBM8 将有望从上代的5120 GB增加到6144GB。 每个 HBM 封装的 I/O 位宽也将从当今 HBM3E 的 1,024 bit 增加到 HBM4 的 2,048 bit,然后一直增加到 HBM8 的 16,384 bit。 HBM4的标准已经确定,而HBM4E将增加基底芯片的可定制性,使 HBM4E 更适合特定应用(AI、HPC、网络等)。 接下来的HBM7 和 HBM8 将进一步发展,HBM8 将达到 32 GT/s,每个堆栈达到 64 TB/s,容量预计将扩展到 240 GB。 虽然 HBM7 和 HBM8 仍将正式属于高带宽内存解决方案系列,但它们的架构预计将与我们今天所知道的 HBM 截然不同。

    20010编辑于 2026-03-19
  • hibernate.hbm2ddl.auto

    它包含4个属性:      * create : 会根据你的model类来生成表,但是每次运行都会删除上一次的表,重新生成表,哪怕2次没有任何改变      * create-drop : 根据model类生成表,但是sessionFactory一关闭,表就自动删除      * update : 最常用的属性,也根据model类生成表,即使表结构改变了,表中的行仍然存在,不会删除以前的行      * validate : 只会和数据库中的表进行比较,不会创建新表,但是会插入新值 

    20720编辑于 2023-10-10
  • 来自专栏存储公众号:王知鱼

    Yole:HBM与DRAM市场预测

    单位芯片HBM容量比较,推理场景显存用途分析 4. HBM/DDR成本投入比较 5. 不同LLM在训练、推理场景的DRAM容量需求 6. 单位芯片的HBM容量比较,推理场景显存用途分析 AI处理器中的显存数据 左上角,内存对人工智能的重要性: GPU 的内存容量对人工智能至关重要。内存有两个主要用途: 1. HBM/DDR成本投入比较 HBM:更复杂的生产工作 出货 10 亿 Gb 所需的Wafer Starts 次数 - DDR5:需要 76.4k 次 - 假设基础: - 16Gb 芯片尺寸: - 前端(FE)良率:75% - 封装良率:95% - 8 层高 HBM3 堆叠 HBM 需要几乎是 DDR5 的 3 倍的晶圆启动次数来实现相同的位输出 (成本是3倍,实际HBM售价为 Yole:HBM与DRAM市场预测-Fig-8 左图:基础AI功能(目前阶段),人脸识别、语音助手等小场景; 右图:生成式AI在云、端、边软硬件的深度融合(未来发展趋势)。

    95211编辑于 2025-02-11
  • HBF即将崛起,与HBM并行发展

    ,HBF)有望成为下一代 AI 时代的重要存储技术,将与高带宽内存(HBM)并行发展,共同推动芯片大厂的业绩成长。 HBF 的设计概念与 HBM 相似,均通过硅通孔(TSV)技术将多层芯片堆叠连接。 差别在于HBM以DRAM为核心,而HBF则采用NAND Flash闪存进行堆栈,具备“容量更大、成本更具优势”的特点。 他预测,未来GPU将同时搭载HBM与HBF,形成互补架构:HBM做为高速快取,负责即时运算数据,而HBF则承担大容量储存,直接存放完整的AI模型。 HBF能够以与DRAM型HBM相当的成本和带宽,提供高达DRAM型HBM约8到16倍的容量。

    12910编辑于 2026-03-20
  • 来自专栏存储公众号:王知鱼

    Greenberg:AI、Chiplet 与 HBM(长文多图)

    全文按AI、Chiplet 、HBM 顺序依次介绍, • HBM是AI训练/计算加速场景,解决互联带宽瓶颈的重要组成部分。 • HBM的封装技术选型和方案探讨 • HBM的微观结构、产品参数和市场趋势 AI HBM 作为“L4”缓存,持久化网络信息流中的动态数据。 图示 3D(HBM在xPU顶部)与2D/2.5D(HBM 与xPU平行)封装技术对比。 提供高效传输带宽的背后,HBM研发设计需要大量投入,右图展示15次流片过程的GPU。 HBM的设计、生产并不容易。 图主要表达了高带宽内存(HBM)技术在实际应用中面临的挑战和可靠性问题。 规模和复杂性:假设部分列出了集群的规模(16,384 GPUs)和HBM的详细参数,突出了系统的复杂性和潜在的故障点。 HBM HBM断面结构示意图。

    86510编辑于 2025-02-11
  • 来自专栏码匠的流水账

    聊聊hibernate的hbm2ddl的实现

    序 本文主要研究下hibernate的hbm2ddl SchemaManagementTool hibernate-core-5.0.12.Final-sources.jar!

    56730发布于 2018-09-17
  • 来自专栏存储公众号:王知鱼

    Agentic AI 时代的内存(1)-从HBM谈起

    :学习如何平衡模型参数量与硬件性能,优化LLM生产部署方案 把握技术发展趋势:了解从HBM3E到HBM4E的技术演进路线,为未来AI基础设施建设做好准备 全文概览 在人工智能飞速发展的今天,智能体AI( data needed for attention and FFN operations”(GPU核心利用HBM的高带宽来快速接收和处理注意力机制及前馈网络运算所需的计算数据) 可以说:HBM 是 不同模型参数量及同时期GPU加速卡HBM容量 PPT的核心观点是,Transformer架构的兴起导致AI模型的程序性记忆(即模型权重)容量需求呈指数级增长,其速度远远超过了单个GPU上高带宽内存(HBM 图表中标注的“10毫秒内加载40GB”具体说明了这种需求已经达到了4 TB/s级别,只有HBM这样的技术才能满足。 PPT有力地论证了高带宽内存(HBM)是现代LLM推理加速器的“生命线”。 从HBM3E的 1.2 TB/s到HBM4E的 3 TB/s,这个清晰的、指数级增长的蓝图,向业界传递了一个明确的信号:内存技术正在努力跟上AI算力的发展步伐,为下一代更强大的AI模型铺平道路。

    43310编辑于 2025-11-20
  • 来自专栏InvQ的专栏

    Hibernate进阶篇(五)——hbm.xml配置文档

    转载请注明: http://blog.csdn.net/uniquewonderq

    49320发布于 2020-09-27
  • 三星HBM4将于本月量产!

    业内人士指出,三星拥有全球最大的生产能力和最广泛的内存产品线,并且通过成为首家量产最高性能HBM4的公司,显示出其内存技术竞争力的恢复。 虽然,当前全球HBM市场主要由第五代HBM3E芯片主导,但业界观察家预计,HBM4很快将会成为新一代AI加速器的标配。 目前,三星的HBM4已通过英伟达的质量认证流程并获得订单,生产计划也已根据英伟达的Vera Rubin推出计划进行了调整。根据最新的订单,三星供应的HBM4样品数量也显著增加,以便客户进行模块测试。 三星HBM4生产计划的启动正值全球内存供应危机的加剧,该危机是由于生成式AI服务的爆炸性增长所驱动。 到2025年9月,三星已将其1c DRAM产能扩展至每月60,000片晶圆,专门针对HBM4的生产。该公司还确认计划将HBM4的产能提高70%,以满足来自英伟达和AMD的需求。

    6400编辑于 2026-03-19
  • 来自专栏Debian中国

    观点:DDR内存即将谢幕 HBM 34内存才是未来

    业界已经有人提出了DDR内存将死的看法,未来需要高带宽的产品将转向HBM内存,2020年会有HBM 3内存,2024年则会有HBM 4内存,届时带宽可达8TB/s,单插槽容量可达512GB。 上商用了HBM 2技术,不过消费级市场上使用HBM 2技术还是AMD去年的RX Vega显卡,但是因为HBM 2显存的成本太过昂贵,RX Vega上实际上使用了两组4GB HBM 2,等效位宽比第一代减少一半 HBM 3+技术在2022年应用,2024年则会有HBM 4内存,带宽及容量也会逐级增长,比如现在的HBM 2内存,核心容量可达8Gb,通过TSV技术可以实现每个CPU支持64GB HBM2内存,每路插槽的带宽可达 按照他的观点,在一些需要高带宽的场合中,HBM技术无疑远胜DDR内存,所以他说的DDR内存将死在这方面是成立的,比如HPC高性能计算机行业就非常需要HBM。 目前能生产HBM内存的厂商只有三星、SK Hynix,美光因为有HMC技术,对HBM并不怎么热心,所以HBM降低成本的过程将是漫长的,对桌面级玩家来说DDR4很长一段时间内都不会过时,2020年左右会开始推

    1.4K20发布于 2018-12-21
  • SK海力士展示16层堆叠HBM4

    1月14日消息,据外媒Tom's hardware报道,韩国存储芯片大厂SK海力士日前在CES 2026展会上首度公开展示了业界首款16层HBM4 封装。 SK海力士指出,此次展示的16层HBM4 内存堆叠采用2048-bit 接口,相较前一代HBM3E,大幅提升I/O 密度与整体带宽配置。 SK海力士透露,其HBM4 內存堆叠运行速度可达10GT/s,比JEDEC 官方规范高出约25%。 从封装规格来看,HBM3/HBM3E 与HBM4 采用相同约10.5×12.0mm 的封装尺寸,但HBM4 允许更高的堆叠高度。 以16层HBM4 为例,堆叠高度约950微米,明显高于12-Hi HBM3 的约750微米,同时在相同面积内整合更多I/O 与电源凸块,进一步推升封装复杂度。

    15910编辑于 2026-03-19
  • 美光宣布:HBM4已批量出货!

    2026年3月16日,美国存储芯片大美光科技正式宣布,其已于2026年第一季度开始批量出货HBM4 36GB 12H内存,该产品专为英伟达(NVIDIA)Vera Rubin平台设计。 凭借HBM4,美光实现了超过11 Gb/s的引脚速度,带宽超过2.8 TB/s,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。 为了进一步提升HBM的容量,美光展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。 与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。 “下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。 “这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。

    11310编辑于 2026-03-19
  • 来自专栏lgp20151222

    intellij配置hibernate自动生成hbm.xml文件

    9.点击OK之后,intellij将会帮我们自动生成相应的实体类和hbm.xml文件: ? 并且,在文件中也自动帮我们加入了配置信息: ? 到此,整个配置就完成啦!

    1.6K20发布于 2018-09-10
  • 来自专栏拂晓风起

    Netbeans 使用 Hibernate 逆向工程 生成hbm和pojo

    我使用Netbeans 6.8 J2EE版本,默认自带了Hibernate和相应插件 1.新建工程 2.新建Hibernate配置文件 3.新建Hibernate映射向导(其实就是选择数据库和数据表) 4.新建“通过数据库生成Hibernate映射文件和POJO”  (其实就是根据前两个文件,生成相应的文件) 参考http://netbeans.org/kb/docs/java/hibernate-java-se_zh_CN.html(在 Java Swing 应用程序中使用 Hibernate) 相对My

    80740发布于 2018-07-03
  • 来自专栏芯智讯

    HBM供不应求:SK海力士售罄!美光售罄!

    继此前美光宣布今年HBM产能全部售罄之后,最新的消息显示,SK海力士今年的HBM产能也已经全部售罄。 其中,2024年初量产的HBM3E有望于2024会计年度创造数亿美元的营收。 技术优先,HBM4将成未来竞争焦点 “随着生成式AI服务的多样化和进步,对AI内存解决方案HBM的需求也呈爆炸式增长。 HBM已发展到第1代(HBM)、第2代(HBM2)、第3代(HBM2E)、第4代(HBM3),目前已发展到第5代(HBM3E)。HBM3E是HBM3的扩展版本。 同时,2048 位内存接口需要在内插器上进行非常复杂的布线,或者仅将 HBM4 堆栈放置在芯片顶部。在这两种情况下,HBM4 都会比 HBM3 和 HBM3E 更昂贵。 目SK海力士已经启动了HBM4的研发。至于HBM4的量产时间,SK海力士、三星、美光这三家HBM大厂都计划是在2026年开始大规模生产。不过,从目前的HBM研发进度上来看,SK海力士更具领先优势。

    35410编辑于 2024-02-26
  • 来自专栏芯智讯

    HBM市场年复合增长率达50%,美光HBM3 Gen 2 明年一季度量产出货

    HBM3 Gen2正在验证中,预计明年首季量产出货。 而AI和HBM息息相关,因为AI基础建设需要性能更好、容量更大的内存.加上AI对于逻辑和存储芯片要求很高,现在主要瓶颈在内存带宽,这也是HBM的一大用武之地,未来HBM需求将持续大幅增长。 Akshay Singh引用市场研究机构的数据显示,预期2022年至2025年,HBM市场年符合增长率将达50%以上,而且AI需求中的HBM容量是一般市场需求的五倍以上,预计未来几年,美光在HBM位元出货量将有望占整体市场 谈到美光在HBM领域的技术蓝图,Akshay Singh透露,即将推出的HBM3 Gen 2会采用1β制程,目前已在送样阶段,预计明年一季度将开始放量出货,并采用先进封装制程堆迭八层晶粒,让一颗内存芯片容量可达 卢东晖强调,美光的自身重点会在HBM,但在整体解决方案系统中,要有HBM和逻辑芯片等整合,因此,美光会和生态系紧密合作,与逻辑芯制造厂一起合作推出解决方案。

    29310编辑于 2023-09-08
  • 来自专栏脑电信号科研科普

    HBM | 双人之间情绪感染伴随脑际同步的增强

    Human Brain Mapping, 40, 4777–4788.https://doi.org/10.1002/hbm.24736.

    89120发布于 2020-11-13
  • 韩美半导体对华断供HBM制造设备?

    而TC Bonder则是高带宽内存(HBM)制造及先进封装所需的关键设备。 据了解,TC Bonder是利用热压键合技术将芯片堆叠到已加工的晶圆上,对HBM良率至关重要。 近年来,受益于AI带动的HBM和先进封装的需求大涨,市场对于TC Bonder需求也是水涨船高。 据摩根大通预测,HBM TC Bonder 市场规模将从 2024 年的 4.61 亿美元大幅增长,到 2027 年有望突破 15 亿美元,实现超两倍的扩张。 有数据显示,在全球 HBM TC Bonder 市场中,Hanmi 占据主导地位,供应着 90% 的12层堆叠HBM3E所需的TC Bonder,客户包括SK海力士、美光等头部的存储芯片大厂以及众多的先进封装厂商 据 DealSite 报道,三星目前正在重新设计 HBM3E 以解决产量问题,并正在考虑将与Hanmi 合作作为其关键改进策略之一。

    20510编辑于 2026-03-19
领券