2025年电子行业策略:“云”程发轫,“端”倪初显,鲸波万里,一苇可航瑶(附下载)

(精选报告来源:报告研究所)

2024 年电子板块复盘:乘 AI 春风,行业景气度显著回暖

回顾 2024 年电子板块表现,电子板块在景气复苏及 AI 催化下边际向好。9 月 24 日中央政治局会议 召开后以来,作为新质生产力的标志性代表,电子板块不乏亮眼表现。整体来看,截至 2024 年 12 月 21 日,申万电子板块较年初上涨 24.38%,在申万一级行业中排名 5/31。其中电子元件板块在申 万二级行业指数中涨幅最高,达到 34.49%,其他电子、半导体分列第二、第三位,涨幅分别为 34.42% 和 30.80%。申万电子化学品板块表现居末,涨幅为 5.32%,板块内部较为分化。

从经营情况来看,各板块在 2024 年内各季度同比大多取得显著增长,彰显行业景气回暖,其中其他 电子板块 2024 年内一至三季度同比增速环比提升趋势显著。2024Q3 由于 23Q3 较高的基数效应, 部分板块营收同比增速较 24Q2 有所回落,但整体依然呈现增长态势。

从估值角度来看,申万消费电子板块和电子元件的估值相对较低,分别为 27.08 倍及 35.68 倍。光学 光电子、电子化学品及其他电子的估值处于 50 倍附近。半导体板块整体估值相对较高,为 81.81 倍。目前申万半导体板块估值位于近三年 98.20%分位,属较高位置。

算力投资延续高景气,基础设施加速迭代

海外供需两侧齐发力,国内亟待迎头赶上

受到生成式人工智能和大型语言模型发展机遇的推动,北美互联网四巨头资本开支快速提升,AI 景 气度 2025 年仍居高位。根据 Bloomberg 数据,微软、meta、亚马逊、谷歌 2024 年合计资本开支有 望达 2087.32 亿美元,同比+48.72%。同时根据 Bloomberg 预计,微软、meta、亚马逊、谷歌 2025 年 合计资本开支将达 2534.79 亿美元,同比+21.44%。我们认为,受全球主要云计算厂商新一轮资本开 支增长以及对于高端 AI 服务器需求增加的影响,AI 云侧基础设施建设依旧是互联网厂商资本开支 的主要增量,产业链有望深度受益。

从台股 ODM 厂商月度营收来看,AI 服务器成为收入增长的主要动力。自 2024 年 4 月起,连续 6 个月营收端呈现环比修复。2024 年 10 月,广达、英业达、纬创、纬颖四家厂商合计实现营收 3322.45 亿新台币,尽管环比-3.07%,但同比+45.00%,同比仍延续较高增长速度。同时,就服务器方面,各 厂商均展望乐观。根据闪存市场发布的信息,广达表示,随着上游 CoWoS 供料问题逐步缓解,带动 下半年服务器出货。纬创于法说会表示,AI 服务器第三季出货较第二季呈现双位数成长,预计第四 季将持续呈现双位数成长,全年则是三位数成长。

从供给侧来看,台积电持续上修 CoWoS 产能,先进封装持续扩容。全球芯片设计与云计算服务供 应商正在积极布局 AI 芯片领域,抢占台积电 CoWoS 先进封装技术的市场份额。根据集微网报道, 台积电预计明年产能将继续倍增,英伟达将占据其中 50%的产能,而微软、亚马逊、谷歌等大厂对 台积电 CoWoS 的需求持续增长。台积电董事长魏哲家在法人说明会上表示,客户对先进封装的需求 远大于供应。尽管台积电 24 年比去年全力增加了超过 2 倍的 CoWoS 先进封装产能,但仍供不应求, 预计 2025 年 CoWoS 产能将持续倍增。在产能布局方面,台积电除了在中国台湾的投入外,还在美 国亚利桑那州厂与封测大厂 Amkor 合作,扩大 InFO 及 CoWoS 先进封装,以满足 AI 等共同客户的 产能需求。根据 Trendforce 最新调查,NVIDIA 将其所有 Blackwell Ultra 产品更名为 B300 系列,预估明年将策 略性主推 B300 和 GB300 等采用 CoWoS-L 的 GPU 产品,这将提升对先进封装技术的需求量。从出 货占比的角度来看,NVIDIA 高端 GPU 产品明显成长,估计 2024 年整体出货占比约 50%,年增幅 超过 20 个百分点。2025 年受 Blackwell 新平台带动,其高端 GPU 出货占比将提升至 65%以上。Trendforce 表示,NVIDIA 为 CoWoS 主力需求业者,预期 2025 年随 Blackwell 系列放量,对 CoWoS 的需求占比将年增逾 10 个百分点。从近期 NVIDIA 调整产品线的情况来看,推估其 2025 年将更着 重提供 B300 或 GB300 等给北美大型 CSP 业者,上述 GPU 皆使用 CoWoS-L 技术。

海力士加码 HBM 高端存储产能,亦为远期 AI 需求保驾护航。根据韩媒 The Elec 报道,SK 海力士 未来将在 HBM 领域采取质量优先的整体策略,专注于尖端 HBM 内存的开发与量产,而传统 HBM 产品则将被逐步淘汰。在三星电子计划把 HBM 内存的组装检测工艺外包给控股子公司 STeco 的同 时,SK 海力士仍计划自行内部解决 HBM 生产的全部工序,在进一步提升 HBM 内存产能上较为保 守。不过 SK 海力士仍计划将位于利川的 M10F 小型工厂转移到 HBM 生产上来,以提升 HBM3E 供 应能力。SK 海力士利川 M10F 工厂的基础设施改造已经启动,目标到 2025 年四季度实现 HBM3E 内存量产。SK 海力士目前的 HBM 内存产能为每月 14 万片晶圆,M10F 完全投入运营后可提供每月 1 万片晶圆的产能,或有望将产量提升 7%。从海力士资本支出来看,其资本开支的季度波动亦能代表其在为 HBM 的产能做充分准备。根据 Bloomberg 的数据,自 3Q23 来,除 2Q24 以外,海力士季度资本大致呈现环比增长态势,4Q24 其资 本开支有望达 7.22 万亿韩元,环比+105.97%。

我们从以互联网资本支出为代表的需求侧,以及台积电和海力士为代表的供给侧的交叉验证中看出, 2025 年算力基础设施建设的景气度仍较高。伴随大模型的不断演进以及后续商业化进程的开启,产 业链景气度有望得到延续。

昇腾 910C 量产在即,国产 GPU 正待上市

根据路透社报道,华为计划在 2025 年第一季度量产最先进的 AI 芯片,旨在与当前 AI GPU 领域的 领导者英伟达展开竞争。华为已经开始向一些 IT 公司发送昇腾 910C 样品,以接收市场订单。华为在 AI 芯片领域的布局始于多年前,其昇腾系列芯片自推出以来便备受关注。昇腾 910C 作为华 为最新的 AI 芯片,有望采用先进的 7 纳米工艺制程,集成了高达 530 亿个晶体管,这一数字不仅彰 显了华为在芯片设计制造方面的技术实力,也为昇腾 910C 在处理复杂 AI 任务时提供了强大的算力 支持。昇腾 910C 在 FP8、FP16、FP32、FP64 等不同计算模式下均有显著表现,算力强劲,能够支 持服务器高效训练万亿参数的大模型,万卡集群可在三周内完成任务,相较于前代产品效率有了显 著提升。在能效比方面,昇腾 910C 同样实现了重大突破。该芯片在提供高性能的同时,注重功耗控制,实现 了低功耗运行,有助于降低设备的运行成本并提高能源利用效率。此外,昇腾 910C 还采用了先进的 电源管理技术,能够根据工作负载的需求实现智能调整,进一步提高效率和节能效果。这些技术优 势使得昇腾 910C 在 AI 芯片市场中具有更强的竞争力。

然而,制造工艺方面仍是昇腾快速起量的一大障碍。根据 Trendforce 的信息,中芯国际采用 N+2 工 艺生产昇腾 910C。由于中芯国际无法获得光刻设备,芯片的良率仅为 20%左右,远低于商业化生产 通常所需的 70%良率。即便是目前的昇腾 910B 良率仅为 50%左右。这迫使华为降低生产目标并推 迟交货,进一步增加了其履行客户订单的难度。我们认为,先进制程的供给仍是国产算力的瓶颈环 节,在出口管制升级以及 AI 高景气叠加催化之下,国内配套供应链有望迎来新的机遇。其他国产 AI 芯片方面,摩尔线程智能科技股份有限公司于 2024 年 11 月在北京证监局办理辅导备 案登记,正式启动 A 股上市进程。摩尔线程可同时提供 B 端和 C 端产品,其芯片采用先进 MUSA 架构,集成 AI 计算加速、图形渲染、视频编解码、物理仿真和科学计算四大引擎。2022 年,摩尔线 程推出国产游戏显卡 MTT S80,被誉为“国产游戏第一卡”,也是国内唯一可以支持 DirectX 12 的消 费级显卡。此外,在数据中心 GPU 部分,摩尔线程还拥有千卡智算集群,并推出了自有的万卡集群 方案。

摩尔线程是 24 年第三家启动 IPO 计划的国产芯片厂商。2024 年 8 月,专注 AI 训练和推理芯片的燧 原科技启动 IPO 辅导,据胡润研究院发布的《2024 全球独角兽榜》,其估值在 160 亿元。2024 年 9 月,上海壁仞科技宣布启动 IPO 上市辅导。壁仞科技致力于开发原创性的通用计算体系,建立高效 的软硬件平台,同时在智能计算领域提供一体化的解决方案。据胡润研究院发布的《2024 全球独角 兽榜》,其估值为 155 亿元。我们认为,在短短四个月时间,就有三家百亿估值的芯片独角兽接连 启动 IPO 进程,标志着国产算力从在资本运作端的认可度提高,后续亟待成熟的应用落地。

算力新品研发提速,底层核心硬件持续升级

GPU 芯片巨头加速研发,算力增速超越摩尔定律 英伟达 Blackwell 平台在 AI 性能和效率方面取得飞跃,其性能是八年前发布的 Pascal 平台的 1,000 倍。GB200 配备了 RAS(可靠性、可用性和可服务性)引擎,显著提高了系统的稳定性。GB200 NVL72 的功耗从 120kW 降至 100kW,并且通过第五代 NVLink 交换机实现更高效的连接。英伟达计划 24 年开始投产 Blackwell GB200,11 月 18 日,戴尔宣布向 Coreweave 公司交付了全球首款 GB200NVL72 服务器机架,称“这将为 AI 基础设施树立新标杆”,GB200 或有望加速放量。

产品路线方面,英伟达计划在 2025 年推出 Blackwell Ultra(已经更名为 B300),下一代 AI 芯片架 构 Rubin 将于 2026 年推出,系列包括 GPU、CPU 和网络处理器。新品的频繁推出往往伴随先进工 艺体系,配套产业链或有望提速。

AMD 则推出了 MI300 系列的第二代产品——MI325X,采用 CDNA 3 GPU 架构,且配备了 256GB 的下一代 HBM3E 高带宽内存,能提供 6TB/s 的内存带宽,在 FP8 和 FP16 精度下,分别可实现 2.6 PF 和 1.3 PF 的峰值理论性能。下一代 MI300 系列——MI350 采用 CDNA 4 架构,其中 MI355X 集 成平台配备 2.3TB 的 HBM3E,内存带宽高达 64TB/s,在 FP16 精度下可达 18.5PF,FP8 精度下达到 37PF,或将于 2025 年下半年发售,此外 2026 年会推出基于新架构的 MI400 系列 GPU 芯片。

存储:传统疲弱,AI 恒强

NAND 方面,由于企业级客户延迟建置 AI 服务器,24Q4 来自服务器 OEM 的订单量明显下调,且 CSP 采购高峰已过,整体采购容量较 24Q3 下滑。智能手机和笔电客户因采取去化库存策略,NAND Flash 订单保守,原厂持续增产下致供过于求。故 Trendforce 预测,NAND 24Q4 价格或环比下降 3%- 8%。

eSSD 受益 AI 需求,价格走势仍较为坚挺。SK 海力士 NAND 闪存解决方案子公司 Solidigm 宣布, 公司推出了现有最大的 122TB 容量 NAND 闪存解决方案,并推出基于 QLC 的 eSSD 新产品“D5- P5336”,该产品比现有的 61.44TB 产品容量大 1 倍,首次具备随机写入五年耐用性,该产品构建 NAS 与现有的 HDD、SSD 混合使用方式相比,存储器搭载空间或减少至四分之一,耗电量最多有望节省 至 84%。

DRAM 方面,24Q3 前,消费型产品终端需求依然疲软,由 AI 服务器支撑起存储器主要需求,加上 HBM 排挤现有 DRAM 产品产能,供应商对合约价格涨幅保持一定的坚持,近期虽有服务器 OEM 维 持拉货动能,但智能手机品牌仍在观望。据 Trendforce 预估,24Q4 存储器均价涨幅将大幅缩减,其中一般型 DRAM 环比涨幅为 0%至 5%之 间,但由于 HBM 比重逐渐提高,DRAM 整体平均价格估计环比上涨 8%至 13%,较前一季涨幅明显 收敛。

GPU 算力的提升深度受益于 HBM 的快速迭代,SK 海力士在 AI Summit 2024 上表示其 HBM3e 16hi 产品,每颗 HBM 芯片容量为 48GB,预计在 2025 年上半年送样。在业界主要产商计划于 2025 年下 半年以后投入 HBM4 12hi 的情况下,SK hynix 选择在 HBM3e 追加推出 16hi 产品,主要系:

1)TSMC、CoWoS-L 可提供的封装尺寸将于 2026 和 2027 年间扩大,每个 SiP、可搭载的 HBM 颗 数也增加,但后续升级仍面临技术挑战和不确定性。在生产难度更高的 HBM4 16hi 量产前,可先提 供客户 HBM3e 16hi 作为大位元容量产品的选择。以每 SiP 搭载 8 颗 HBM 颗数计算,HBM3e 16hi 可将位元容量上限推进至 384GB,较 NVIDIA Rubin 的 288GB 更大。2)从 HBM3e 过渡到 HBM4 世代中,IO 数翻倍带动运算频宽提高,此升级造成晶粒尺寸放大,但 单颗晶粒容量维持在 24Gb。在 HBM3e 12hi 升级至 HBM4 12hi 的过程中,HBM3e 16hi 可作为提供 低 IO 数、小晶粒尺寸和大位元容量的选项。

伴随 HBM 层高的不断堆积,在键合技术方面,混合键合或将成为三大 HBM 原厂的共同选择。三 家公司均正考虑是否于 HBM4 16hi 采用混合键合技术,并已确定将在 HBM5 20hi 世代中使用,混合 键合由于不配置凸块,可容纳较多堆叠层数,也能容纳较厚的晶粒厚度,以改善翘曲问题,因此其 芯片传输速度较快,散热效果也较好,混合键合于 HBM 的应用或有望为产业带来新的边际增量。

PCB:云侧催生 HDI、高多层新需求,AI 端侧“轻薄短小”趋势加速

高频、高速、高多层成为 PCB 的发展趋势。随着 AI、数据中心、VR/AR、新能源汽车与智能驾驶 等产业的创新发展,下游应用领域对 PCB 的性能提出了更高的要求,如高频、高速、高压、耐热、 低损耗等。根据 Prismark 预测,全球 PCB 产值 2023-2028 年复合增长率达到 5.4%,2028 年全球 PCB 产值达 904.13 亿美元,其中 18+多层板、HDI、封装基板增速较快,2023-2028 年复合增长率预计分 别达 10%、7.1%和 8.8%。从产值来看,多层板为最主要的产品类别,2023 年多层板产值达 265.35 亿美元,占总产值的 38.2%,2028 年多层板产值达 324.83 亿美元,占总产值的 35.9%。

服务器用 PCB 市场受益于云计算、大数据、人工智能等技术的快速发展,需求稳步增长。特别是随 着数据中心建设的加速和 5G 技术的普及,服务器需求持续上升,由于 AI 服务器需要处理大量数据, HDI 的高密度、高速互连技术成为关键,以支持更高的数据传输速度和更小的尺寸,META 推出 42 层交换机亦对高速、高密度互连的 HDI 板有强烈需求,据 Prismark 数据,用于 AI/HPC 服务器 PCB 于 2023 至 2028 年出货金额复合成长率约 32.5%。

除云侧基础设施 PCB 升规外,用于 AI 端侧产品的 PCB 亦伴随消费电子行业持续追求更小巧、更高 效的设计,对超精细线路板的需求正在显著上升。SLP 因其能够实现精密电路布局和高度集成的互 连技术而备受推崇。由于端侧 AI 需要更强大的计算能力,其对 SLP 的需求有望持续提升。

从 SLP 市场规模来看,2023 年市场的估值达约 19.2 亿美元,据 Wise Guy Reports 预测,2024 年 SLP 市场规模预计将增至 20.2 亿美元,2032 年至 30.5 亿美元,2019 至 2032 年 CAGR 达 5.29%,增速在 PCB 各类产品中处于较高水平。

指向集群算力,网络互联需求是未来方向

自 OpenAI 发布 ChatGPT 两年来,大模型产业发展的脚步似乎有所放缓,xAI、Meta、OpenAI 等众 多科技巨头都在积极布局 10 万卡乃至更大规模的智算集群,冲刺 AGI。7 月 22 日,马斯克宣布位于美国田纳西州孟菲斯市的孟菲斯超级集群开始投入训练。该集群配备了 10 万个英伟达 H100GPU,被称为“世界上最强大的 AI 训练集群”。两个月后,马斯克在 X 平台上宣 布该集群名为“Colossus(巨人)”,将在未来几个月内再增加 10 万颗 GPU,其中 5 万颗将是更为先 进的英伟达 H200。Grok3 大模型正在超算中心中进行训练,训练预计在三到四个月内完成,目标是 在 12 月发布 Grok3。Meta 也不示弱,Meta 首席执行官马克·扎克伯格在第三季度财报电话会议上表示,Llama 4 模型正在 一个由 10 万片 H100 GPU 组成的集群上进行训练,并预计在明年首次推出。为了支持大模型,Meta 预计本年度资本支出将高达 400 亿美元,比去年增加了超过 42%。扎克伯格在财报电话会议中强调, 明年将进一步加大对 AI 基础设施的投资。微软与 OpenAI 合作共建一个代号为“星际之门”的巨型数据中心项目。这个项目预计成本超过 1150 亿美元,旨在容纳一台面向 AI 的配备数百万块 GPU 的超级计算机。微软计划到 25 年底向 OpenAI 提供约 30 万个英伟达最新的 GB200 图形处理器。此外,OpenAI 开始寻求更加独立的数据中心和云 服务方式并与甲骨文达成了协议,将在德克萨斯州的一个新数据中心租用服务器。该数据中心被誉 为世界上最大的数据中心之一,未来可能容纳数十万个英伟达 AI 芯片。根据 SemiAnalysis 分析,GPT-4 发布以来,似乎还没有出现下一代能力更强的 LLM,很重要的原因 就是几乎没有组织能够大规模增加专用于单个模型的计算量。Gemini Ultra、Nemotron 340B 和 Llama 3 这些模型与 GPT-4 的训练计算量相近(约为 2e25 FLOP),甚至更高,但使用了较差的集群架构, 导致无法进一步释放能力。

构建集群算力是一项复杂的系统性工程,涉及网络架构、供电系统、软硬件资源配置等诸多方面, 在此我们不做过多展开,我们主要关注网络扩容及互联方式方面升级革新带来的底层硬件机会。

以太网交换机扩容在即,核心交换芯片受益

传统以太网数据中心需求不减,英伟达 Spectrum-X 助力升级。传统以太网设计注重高平均吞吐量, 但在深度学习和人工智能用例中,GPU 主要相互通信,需求有所不同。英伟达 Spectrum-X 架构集 成了先进的网络级远程直接内存访问(RDMA)和增强的拥塞控制功能,显著提高性能并避免热点 问题。自适应路由和噪声隔离技术进一步优化了以太网的数据传输效率和可靠性。英伟达宣布每年 推出新的 Spectrum-X 产品,提供更高的带宽、更多的端口、更加强大的软件功能集与可编程能力, 不断提高 AI 以太网网络性能。Spectrum-X800 为数万个 GPU 而设计,X800 Ultra 为数十万个 GPU 而设计,X1600 则可扩展至数百万个 GPU。CoreWeave、Lambda 等 AI 云服务提供商率先采用 Spectrum-X。

未来随着 AI 技术不断发展与应用日益深入,200/400G 交换机会遇到一定性能瓶颈,交换机向更大 的带宽发展已成为必然趋势。数据中心交换带宽当前处于每两年翻一番的速度快速增长,2022 年 8 月,博通发布 Tomahawk5,交换带宽提升至 51.2T,serdes 速率达到 100Gb/sec,单通道速率最高达 到 800G。目前,业内已有多个企业发布 800 Gbps 交换机,2023 年 6 月,华为推出面向多元算力的 800GE 数据中心交换机 CloudEngine 16800-X。2023 年 11 月,浪潮信息发布旗舰级 51.2T 高性能交 换机(SC8670EL-128QH)。2024 年 3 月,英伟达推出了适用于 InfiniBand 的 Quantum-X800 和适 用于标准以太网的 Spectrum-X800 两大平台。2024 年将是 800GbE 以太网部署的重要一年,预计到 2027 年 400Gbps/800Gbps 的端口数量渗透率将达到 40%以上。目前海外大厂已纷纷推出用于高端交 换机的交换芯片。

硅光是未来,短期 CPO 有望助力算力突破硬件互联瓶颈

当摩尔定律走到极限,SoC 的性能上限正面临内存墙、功耗墙等物理规则的限制。AI 时代,高性能 计算行业正在迅速接近电气 I/O 性能的实际极限,从而形成了“I/O 功耗墙”。光芯片能起到“数据巴 士”的作用,将单元内部需要传输的数据集中起来,通过光传播介质(如光纤)与其他单元进行数据 交互。电芯片将信号通过不同波长的调制器将信号编码为光信号,不同调制光信号以波分复用的方 式独立传输,并通过光纤连接到其他系统上。外部光信号也使用同样方式转换为数字信息并进行计 算。通过这种方式,不同芯片、不同服务器系统之间可以传输更多的数据到更远的距离。这也让计 算系统架构的设计更加灵活,在 AI 时代,该技术更是成为进一步提升高算力服务器性能的关键。

台积电进军硅光市场,制定 12.8Tbps 封装互联路线图。根据台积电公布的技术路线图,台积电的第 一代 3D 光学引擎将集成到运行速度为 1.6Tbps 的 OSFP 可插拔设备中。这个传输速率远远领先于当 前的铜以太网标准(最高可达 800 Gbps),凸显了光学互连对于密集网络计算集群的直接带宽优势。展望未来,第二代光学引擎旨在作为与开关共同封装的光学器件集成到 CoWoS 封装中,从而将光学 互连带到主板级别。与第一个版本相比,该版将支持高达 6.4Tbps 的数据传输速率,并减少了延迟。第三代光学引擎(运行在 CoWoS 内插器上的 COUPE)预计将进一步改进,将传输速率提高到 12.8Tbps,同时使光学连接更接近处理器本身。

伴随前道工艺的持续迭代,我们认为海内外算力大厂或将基于新的技术平台推出全新的网络连接产 品,届时有望加速硅光及 CPO 技术的应用。而相较硅光技术,基于 CPO 的应用或有望更快落地。随着数据中心和人工智能应用的迅猛发展,CPO 技术的需求度持续攀升。CPO 技术被认为是实现高 集成度、低功耗、低成本、小体积的最优封装方案之一,是业界公认的未来更高速率光通信的主流 产品形态,有望成为产业未来竞争的主要着力点。长期来看,随着技术的不断演进和市场的逐步拓 展,CPO 有望重塑光通信产业链,推动光模块由可插拔转向合封模组形态的转变。根据 YOLE 的 CPO 发展趋势图,伴随 1.6T 速率光模块的到来,产业或已处于起量前夜,位于产业链上游的光芯 片及激光光源等环节或有望迎来需求提速。

玻璃基板技术有望成为先进封装的破局奇兵

玻璃基板有望实现高密度的先进封装

英特尔计划于 2030 年实现下一代玻璃基板封装技术。20 世纪 90 年代,英特尔推动半导体行业从陶 瓷封装向有机封装过渡。如今随着有机基板逐渐濒临能力极限,英特尔开始寻找能够和大芯片完美 配合的有机基板的替代品——玻璃基板。2023 年 9 月,英特尔推出基于下一代先进封装的玻璃基板 开发的先进处理器,计划于 2026~2030 年量产。英特尔已经在美国亚利桑那州投资 10 亿美元建设玻 璃基板研发线和供应链,预计将在 2030 年实现大规模量产。英特尔的目标是 2030 年实现在单个封 装模块上集成 1 万亿个晶体管,而这需要玻璃基板技术的支持。

玻璃基板有望成为先进封装的发展方向。玻璃基板拥有诸多优势:1)玻璃基板热稳定性较高,在高温下不容易发生翘曲或形变;2)玻璃基 板介电常数(Dielectric constant)更低,这意味着芯片信号在传输过程中的损耗更低;3)相较于硅 基方案,玻璃基板传输速率(Data rate/IO)更快;4)相较于有机基板,玻璃基板表面更加光滑,开 孔数量更多,芯片的互联密度更大。传统有机材料基板在应对高性能芯片封装时存在局限性,容量 面临极限。相比之下,玻璃基板凭借卓越的平整性、热稳定性、电气性能,并提供了更高的互联密 度和更低的功率损耗,成为提升封装性能的关键方向。

国际巨头加速布局玻璃基板技术

玻璃基板有望成为下一代 AI 和 HBM 芯片平台,国际巨头纷纷加速布局。英特尔已经在美国亚利桑 那州投资 10 亿美元建设玻璃基板研发线和供应链,预计将在 2030 年实现大规模量产。根据韩媒 Sedaily 报道,三星旗下三星电子、三星电机、三星显示宣布建立联合开发产线,预计将在 2026 年大 规模量产玻璃基板。根据 Technews 报道,AMD 计划在 2025~2026 年推出采用玻璃基板封装的产品。根据 JWInsight 报道,旭硝子在 2024~2026 年中期经营计划中强调将集中资源开发玻璃基板;揖斐电 (英特尔基板主要供应商)已经将玻璃基板列为未来最具潜力的增长项目之一。根据未来半导体报 道,DNP 正在推进 TGV 玻璃基板和共封装光学玻璃基板的样品验证,并在 2027 财年全面投产;日 本电气硝子正在持续推进玻璃芯板 2026~2027 年的商业化;台积电正在积极探索璃基板技术,力争 在 2027 年将 FOPLP+TGV 技术导入量产。

2025 年多终端 AI 应用加速破局,带动供应链机遇

AI 手机/AI PC/AI 眼镜:渗透率快速提升,Agent 应用初现返回搜狐,查看更多

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()