据《科创板日报》6 月 28 日报道,据 TrendForce 集邦咨询研究显示,目前高端 AI 服务器 GPU 搭载 HBM(高带宽存储器)已成主流,预估 2023 年全球 HBM 需求量将同比增长近六成,来到 2.9 亿 GB,2024 年将再成长三成。集邦咨询预估到 2025 年,全球若以等同 ChatGPT 的超大型 AIGC 产品 5 款、Midjourney 的中型 AIGC 产品有 25 款,以及 80 款小型 AIGC 产品估算,上述所需的运算资源至少为 145,600~233,700 颗 NVIDIA A100 GPU,再加上新兴应用如超级计算机、8 K 影音串流、AR/VR 等,也将同步提高云端运算系统的负载,显示出高速运算需求高涨。2023 年 AI 服务器出货量(包含搭载 GPU、FPGA、ASIC 等)出货量预估近 120 万台,年增率近 38%,AI 芯片出货量同步看涨,可望成长突破五成。
领取专属 10元无门槛券
私享最新 技术干货