潇湘君,分享有趣的生活日常

  • 首页
  • 数码科技
  • 固态硬盘SSD
    • 铠侠kioxia
    • 行业知识
  • 内存DRAM
    • HBM内存
  • 东芝元器件
  • 学习笔记
  • 生活日常
潇湘君
分享我的有趣生活日常
  1. 首页
  2. 数码科技
  3. 正文

韩媒:不只 HBM!未来 HBF 崛起,NAND 堆迭成 AI 新储存动能

2025年9月22日 42点热度 0人点赞 0条评论
HBM内存

根据韩媒报导,韩国科学技术院(KAIST)电机工程系教授 Kim Joung-ho(在韩国媒体中被誉为“HBM 之父”)表示,高频宽快闪记忆体(High Bandwidth Flash,HBF)有望成为下一代 AI 时代的重要记忆体技术,将与高频宽记忆体(HBM)并行发展,共同推动芯片大厂的业绩成长。

HBF 的设计概念与 HBM 相似,皆透过硅穿孔(TSV)将多层芯片堆叠连接。差别在于 HBM 以 DRAM 为核心,而 HBF 则采用 NAND 快闪记忆体进行堆叠,具备“容量更大、成本更具优势”的特点。Kim Joung-ho 指出,虽然 NAND 的速度不及 DRAM,但容量往往高出 10 倍以上,若以数百层乃至数千层堆叠方式建构,将能有效满足 AI 模型对庞大储存的需求,可望成为 NAND 版本的 HBM。

目前生成式 AI 模型正急速扩张,单一模型的输入 token 已达百万级别,处理过程需要 TB 级数据。在每秒数千次的读写过程中,若记忆体频宽不足,就会出现瓶颈,导致 ChatGPT、Google Gemini 等大型语言模型(LLM)的反应速度明显下降。

Kim Joung-ho 强调,这种限制来自现行的冯诺依曼架构,由于 GPU 与记忆体是分离设计,数据传输频宽决定了效能上限,“即便将 GPU 规模扩大一倍,如果频宽不足也毫无意义”。

他预测,未来 GPU 将同时搭载 HBM 与 HBF,形成互补架构:HBM 做为高速快取,负责即时运算数据,而 HBF 则承担大容量储存,直接存放完整的 AI 模型。这将有助于突破记忆体瓶颈,使 GPU 能处理更庞大的生成式 AI,甚至涵盖长篇影片等複杂内容。Kim Joung-ho 表示:“未来 AI 将不仅限于文字与图像,而能生成如电影般的长片,届时所需的记忆体容量将是现有的 1,000 倍以上。”

Tips

文章来源于 Technews,详情:click here.

标签: AI服务器 HBF HBM
最后更新:2025年9月22日

ETHAN

十余年互联网智能硬件从业者,擅长物联网iot,嵌入式、网通通信等领域相关问题。喜欢捣鼓各类智能硬件,linux发行版,软件等,尤其对openwrt,pve,debian,vps等领域感兴趣~ 公司为东芝、铠侠总代,销售铠侠企业级SSD.

打赏 点赞
< 上一篇

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

归档

  • 2025 年 9 月
  • 2025 年 8 月
  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月

分类

  • 东芝元器件
  • 内存DRAM
  • 固态硬盘SSD
  • 学习笔记
  • 数码科技
  • 未分类
  • 生活日常
  • 行业知识
  • 铠侠kioxia
标签聚合
HBM内存 铠侠 美光 三星 东芝 铠侠SSD 潇湘君 东芝SSD

COPYRIGHT © 2025 潇湘君,分享有趣的生活日常. ALL RIGHTS RESERVED.

总访问量:1776213    今日访问量:56196    您是今天第:56196 个访问者