被卡脖子的真相:为什么造GPU算力卡这么难?(科普文章)
创始人
2026-03-16 05:20:10
0

(来源:金科之家网)

GPU(图形处理器Graphics Processing Unit)最初诞生于上世纪90年代,核心用途是图形渲染。其并行计算架构天生适配AI模型训练与推理需求,进而分化出AI专用GPU算力卡。

这类算力卡彻底弱化显示输出功能,重点强化并行计算效率、HBM协同能力(高带宽显存,High Bandwidth Memory,核心作用是提升数据吞吐速度)等核心特性,是AI技术落地的“算力底座”,也是数字经济的核心基石。

当前全球科技巨头加速布局AI产业,对高端GPU算力卡的需求呈爆发式增长,采购规模持续扩大,进一步凸显了其制造的重要性与技术壁垒。

全球能生产高端AI专用GPU算力卡的企业寥寥无几,其制造属于全链条高技术门槛产业。AI大模型向万亿参数迭代,这一需求进一步拉高了技术门槛。

GPU算力卡制造的核心难点主要集中在芯片设计、核心元器件、制造工艺、供应链、软件生态这五个方面。以下是详细介绍:

一、芯片设计:高端EDA工具被Synopsys等三家欧美企业垄断

GPU算力卡的核心是计算芯片,其设计难度远高于普通CPU和手机芯片。核心在于并行计算架构优化、多模块协同,且需与AI场景深度耦合。

AI大模型的迭代速度,直接倒逼GPU芯片架构快速升级。例如英伟达Blackwell架构的B200芯片,集成超2000亿晶体管,优化NVLink 7.0互联技术,专为超大规模MoE模型(混合专家模型,一种高效的大规模AI模型架构)分布式训练设计。

这一特性使其成为科技巨头高端AI训练的核心选择,可大幅缩短万亿参数模型的训练周期。

设计环节的核心瓶颈是对高端EDA(电子设计自动化:Electronic Design Automation)工具的依赖。

目前全球主流高端EDA套件被三家欧美企业垄断(Synopsys、Cadence和Siemens),而据报道,2023年国产EDA工具在国内市场份额约为15%-20%,预计到2026年将提升至35%左右,目前主要支撑中低端AI推理卡设计。

此外,架构与AI场景的深度适配至关重要。2026年沐曦启望S3推理芯片采用AI专用架构,优化低精度算力,可满足国内科技巨头中低端AI推理需求。

英伟达2026年高端AI专用GPU市场份额达82%,核心是CUDA生态与硬件的协同壁垒,这也是微软、谷歌、Meta等科技巨头优先采购其产品的关键。

二、核心元器件:主流HBM3E显存、高端PCB板是国内短板

GPU算力卡的核心元器件(计算芯片、HBM显存、高端PCB板等)技术壁垒极高,其性能直接决定AI算力上限。

其中HBM显存和高端PCB板(印刷电路板:Printed Circuit Board)是国内产业的核心短板,直接制约国产AI算力突破,也间接影响国内科技巨头的算力采购选择——高端算力仍需依赖进口元器件组装的GPU。

1.  HBM显存:作为AI数据吞吐核心,2026年主流为HBM3E,制造精度要求极高,需12层芯片微尺度堆叠,依赖数百万个TSV硅通孔互连。

目前全球仅三家企业能量产HBM3E(SK海力士、三星和美光),国内仍处于HBM3试产阶段,直接制约高端AI训练卡量产,也让科技巨头高端GPU采购高度依赖这三家显存厂商。

最新信息显示,长鑫存储有望在2026年实现HBM3E的量产,这将显著缩小与国际领先水平的时间差。此外,长电科技、通富微电等已在封装环节具备HBM3的封装能力。

2.  高端PCB板:作为AI算力传输通道,属于高密度互连PCB,对贴装精度、工艺和板材要求严苛。

国内仅少数企业能量产,制约国产算力卡产能释放,国内科技巨头如字节跳动、阿里等,需兼顾采用进口与国产供应商,保障供应稳定。

三、制造工艺:7nm及以下晶圆制造主要依赖台积电和三星

即使完成芯片设计、凑齐核心元器件,制造环节的工艺门槛仍会拦住绝大多数企业。其核心是适配AI大模型对算力密度、能效比的极致需求。

7×24小时高负载稳定运行,是科技巨头采购GPU时的核心考核指标,直接决定其AI业务的连续性与效率。

1.  晶圆制造:高端AI算力卡芯片普遍采用7nm及以下先进工艺,均高度依赖台积电、三星代工。

中芯国际7nm工艺良率达85%(基于DUV光刻机实现),可支撑中端AI推理卡量产,但受DUV光刻机(深紫外光刻机,Deep Ultraviolet Lithography)限制,无法突破3nm及以下工艺,制约高端训练卡量产。

因为DUV是深紫外光,波长较长,对于3nm这样微细的电路,需要波长更短的EUV(极紫外光刻机,Extreme Ultraviolet Lithography)才能实现更高精度的光刻。

2026年台积电、三星削减8英寸晶圆产能,主要转向12英寸晶圆(适配先进工艺),导致中低端推理卡供应紧张,推高科技巨头中低端算力采购成本。

2.  封装测试:AI场景下,GPU芯片与周边元器件热需求冲突,国内已掌握定制化封装工艺,焊接良率接近国际水平,可满足国内巨头中低端推理需求。

但HBM显存测试设备依赖进口,成本高昂,成为中小厂商门槛,也导致高端GPU供应有限,科技巨头需提前锁定采购订单。

四、供应链:8英寸晶圆、HBM显存产能紧张,高端封装设备被垄断

GPU算力卡制造依赖全球协同,供应链稳定性直接影响AI模型研发与业务落地。科技巨头的大规模采购,进一步加剧了供应链紧张。

2026年全球供应链核心变化:8英寸晶圆、HBM显存产能紧张,高端封装设备被垄断,导致中低端推理卡供应不足、高端训练卡量产受限。

当前科技巨头GPU采购呈现“规模化、长期化、多元化”趋势:Meta 2026年计划投入1350亿美元于AI基建,同时与英伟达、AMD签署大额采购协议,实现算力多元化。

国内科技巨头如字节跳动、阿里、腾讯等,既批量采购英伟达高端GPU支撑大模型研发,也逐步增加国产GPU采购,平衡算力性能与供应安全。

国内代工厂虽获得更多转单,但EDA工具、EUV光刻机等核心环节仍依赖进口,构建自主可控供应链,是国内产业与科技巨头的共同需求。

五、软件生态:英伟达CUDA生态占优,国产生态开发者不足、高端训练适配欠缺

行业普遍认为,GPU竞争力70%在硬件、30%在生态,AI场景下生态重要性甚至超过硬件。

英伟达CUDA生态拥有350万开发者,形成“硬件-软件-AI应用”闭环,AI训练场景适配率超95%,这是科技巨头优先采购其GPU的核心原因。

因为AI软件框架(如TensorFlow, PyTorch)底层都调用了CUDA,这意味着任何为英伟达GPU编写的AI模型,都能无缝运行。而国产生态需要开发者去“移植”这些模型,这个过程就是“适配成本”。

2026年国产生态加速完善,华为昇腾、沐曦、摩尔线程等厂商均实现不同程度的场景适配,降低了应用迁移成本。

但国产生态仍有短板,开发者数量不足、高端AI训练应用适配欠缺,导致国内科技巨头高端场景仍依赖英伟达,中低端场景逐步尝试国产GPU。

此外,科技巨头采购倾向反向推动GPU厂商优化生态,例如AMD为适配Meta需求,联合开发全栈基础设施,提升自身竞争力。

六、国产GPU的破局之路

2026年国产GPU算力卡多点突破,沐曦、砺算、摩尔线程、壁仞科技等厂商均推出适配AI场景的产品,国内AI训练芯片市场国产份额已超过30%。

但高端市场仍被英伟达垄断,科技巨头的采购需求,既是国产GPU的机遇,也是考验。当前采购格局呈现“高端依赖进口、中端尝试国产”。

破局需聚焦三点:一是突破EDA、EUV等“卡脖子”设备,适配AI场景需求;二是推进核心元器件国产化,保障供应链稳定;三是培育AI软件生态,缩小与英伟达差距。

GPU算力卡是AI时代的核心基础设施,其制造难度既是挑战也是机遇。相信通过产学研用协同发力,国产GPU有望打破进口依赖,满足国内科技巨头算力需求,为AI产业高质量发展提供支撑。

免责声明:自媒体内容仅用于记录和分享,请勿用于商业用途。所有内容来自于网络,或由人工智能服务生成。如有文字或图片涉及侵权,请联系修改或删除。文章内容不代表本人观点,亦不代表本人所在机构观点,不构成任何投资建议。

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...