来源:钛媒体
“当云端大模型的热度逐渐回归理性,边缘AI正在成为技术落地的核心战场,而AI PC就是这场革命的先头部队。”此芯科技CEO孙文剑对于边缘AI市场最新的看法与IDC数据不谋而合——2025年全球边缘计算解决方案支出将接近2610亿美元,年复合增长率(CAGR)达到13.8%,到2028年将突破3800亿美元。
作为边缘AI最核心的终端载体,AI PC正迎来爆发式增长。Gartner预测,2025年末AI PC全球出货量将达7780万台,占据31%的市场份额,2026年这一比例将飙升至55%,2029年AI PC将成为PC市场的绝对主流。IDC的预测更为乐观——在中国市场,2026年中国GenAI PC出货量将同比激增146.5%,2025-2029年复合增长率高达58.7%。
AI PC:从“附加功能”到“核心引擎”的蜕变
AI PC的诞生并非偶然,而是PC产业三十年智能化探索的必然结果。回溯这一历程,我们可以清晰地看到一条从“辅助性智能”到“原生性智能”的演进路径。
上世纪90年代,当微软在Windows 95中首次集成语音识别功能时,PC行业的智能化尝试便已拉开序幕。彼时的“智能”尚处于初级阶段——基于简单算法的语音命令识别、依赖本地数据库的字符匹配,不仅响应速度缓慢,识别准确率也不足60%。这种停留在“功能点缀”层面的智能化,未能真正改变用户的使用习惯,更未形成产业级影响。
AI PC的故事要从2023年说起。随着ChatGPT引发全球AI热潮,大模型技术的快速迭代推动了端侧智能的爆发。这一年,微软联合高通发布首款基于Arm架构的AI PC产品,首次提出“Copilot+ PC”的明确概念——即具备本地运行大模型能力、支持实时智能交互、能够自主优化用户体验的个人计算机。同年,英特尔推出Meteor Lake,首次集成NPU模块,提出“AI Ready”概念。
而在一年之后,此芯科技推出首款异构SoC芯片P1,集成CPU、GPU、NPU核心,实现了多操作系统下的AI算力协同,标志着中国企业在AI PC核心技术领域实现突破。
如果说早期的PC智能化是“在原有框架上修修补补”,那么当代AI PC的崛起则源于一场深刻的架构革命。算力架构的异构化重构是AI PC的核心特征。传统PC以CPU为绝对核心,GPU仅承担图形处理任务,这种单一核心的架构难以满足AI计算的并行化需求。而AI PC采用“CPU+GPU+NPU”的异构计算架构,通过不同计算单元的分工协作实现算力效率最大化——CPU负责逻辑控制和串行计算,GPU承担图形渲染和通用并行计算,NPU则专注于神经网络推理任务,三者通过高速总线实现数据无缝流转。
与传统x86架构相比,Arm架构在AI PC领域展现出独特优势。Gartner数据显示,2025年Arm架构在AI企业笔记本电脑市场的份额将达到24%,在消费级市场的占比更是超过30%。这种优势源于Arm架构的能效比和可扩展性——相同算力下,Arm架构芯片的功耗仅为x86架构的1/3,同时支持自定义指令集扩展,能够快速适配特定AI场景需求。
另一方面,随着AI向端侧渗透,端侧大模型的适配能力成为AI PC的核心竞争力。随着大模型技术的轻量化发展,原本只能在云端运行的大型语言模型开始向端侧迁移。Gartner预测,到2026年末,将出现多种能够在PC端本地运行的小语言模型,优先投资开发PC端AI功能的软件厂商比例将从2024年的2%攀升至40%。这种转变使得AI PC能够实现“离线智能”,在无网络环境下仍可完成文档生成、数据分析、语音翻译等复杂任务。
技术的成熟与应用的涌现,共同推动了市场的爆发。从国际到中国,从企业级市场到消费级市场,AI PC正以超出预期的速度重构PC行业的竞争格局,成为拉动市场增长的核心引擎。
全球市场层面,AI PC的增长曲线已清晰可见。Gartner的统计数据显示,2024年全球AI PC出货量为3814.5万台,占整体PC市场的15.6%;2025年这一数字将飙升至7779.2万台,市场份额突破31%;到2026年,AI PC出货量将达到1.43亿台,占据54.7%的市场份额,首次超过非AI PC成为市场主流。这种爆发式增长不仅源于技术进步,更得益于用户需求的觉醒,IDC调研显示,2025年有62%的企业用户将AI功能作为PC采购的核心指标,较2023年提升了37个百分点。
端侧AI迎来大爆发
当行业目光聚焦于AI PC的爆发式增长时,一场更为深刻的边缘智能革命正在多个垂类行业领域同步上演。从工业机器人到城市道路的智能摄像头,从智能座舱到AI NAS,端侧AI的应用场景正不断拓展,形成“多点开花”的产业格局。Precedence Research的数据显示,全球边缘计算市场规模将在2032年达到3.61万亿美元,年复合增长率高达30.4%,这一数字背后是边缘AI在各行业的深度渗透。
AI PC是边缘智能的重要入口,但绝非全部。对此,孙文剑向笔者表示:“端侧AI的核心价值在于‘贴近场景、实时响应、数据安全’,这些特性决定了它将在更多专业领域实现突破。我们的芯片设计理念从一开始就不是局限于PC场景,而是面向‘泛PC类平台’,包括边缘服务器、机器人、智能座舱等多个领域,这正是我们看到的边缘AI的未来方向。”
当下热议的具身智能就是边缘AI的一个重要应用场景,也是技术要求最高的领域。与AI PC相比,机器人对端侧AI的需求更为复杂:不仅需要强大的算力支撑,还要求具备实时性、可靠性和环境适应性,能够在粉尘、高温、振动等恶劣环境下稳定工作。全球机器人工业协会(IFR)的数据显示,2025年全球工业机器人装机量将达到65万台,其中具备AI能力的智能机器人占比将超过50%,市场规模突破2000亿美元。
边缘AI正在重塑机器人的核心能力。传统机器人依赖预设程序执行固定任务,灵活性和适应性极差,而AI机器人通过端侧算力实现了“感知-决策-执行”的闭环:视觉传感器和力传感器采集环境数据,NPU在本地完成图像识别、目标跟踪、力反馈分析等AI任务,CPU根据分析结果实时调整运动参数,实现自主避障、精准抓取、质量检测等复杂功能。这种变革使得机器人从“自动化工具”升级为“智能协作伙伴”。
在工业场景中,边缘AI机器人的应用已从单一工序延伸到全生产流程。以在焊接工序为例,AI机器人通过热成像传感器实时监测焊缝温度,NPU分析温度分布数据,动态调整焊接电流和速度,确保焊缝质量均匀。而在仓储物流环节中,AGV机器人通过激光雷达和视觉传感器构建环境地图,在本地完成路径规划和障碍物规避,实现货物的自主搬运和分拣。
而在孙文剑看来,机器人场景对芯片的要求是“精准匹配”而非“算力堆砌”,“针对机器人场景,我们需要做很多优化,比如:优化Linux内核实时性,满足实时性要求;增加对EtherCAT、CAN等工业总线的支持,实现相关设备接口的无缝对接;优化支持ROS中间件,适配具身智能大模型,提升机器人的自主决策能力。通过这些优化使得我们的芯片在机器人场景中可以有更优的表现”孙文剑指出。
除了具身智能的场景之外,随着企业级AI向推理场景渗透,越来越多边侧、端侧的算力需求也在向智能算力演进。这个过程中,边缘服务器是边缘AI的核心基础设施,其作用是在靠近数据源的位置构建算力节点,实现数据的本地处理、存储和分析,从而解决云端计算的延迟高、带宽成本高、隐私风险大等问题。
IDC数据显示,2023年全球边缘服务器出货量为200万台,预计到2027年将增长至1500万台。其中,支持AI功能的边缘服务器占比将从2023年的10%提升至2027年的50%。
边缘服务器的核心价值在于“算力下沉”,即将原本集中在云端的数据处理能力迁移至网络边缘。这种架构变革带来了三大优势:一是低延迟,数据无需长途传输至云端,处理响应时间从秒级降至毫秒级,满足实时性需求较高的场景;二是低成本,减少了数据传输量,大幅降低带宽成本和云端存储成本;三是高安全,敏感数据在本地处理和存储,避免了传输过程中的泄露风险,符合数据安全法规要求。
比如在零售场景中,边缘服务器能够实时分析货架摄像头的数据,监测商品库存情况,当发现商品缺货时自动生成补货订单;同时,通过分析顾客的购物路径和停留时间,为门店优化商品陈列提供数据支持。在无人便利店中,边缘服务器结合计算机视觉技术,能够实现顾客的自主结账,无需人工收银,大幅提升运营效率。沃尔玛、家乐福等零售巨头已在全球门店部署边缘AI系统,数据显示其门店的补货效率提升了40%,顾客结账时间缩短了60%。
上述仅仅是端侧AI应用的一小部分,随着AI技术的发展,向“末梢神经”端侧的渗透会越来越深入,孙文剑对笔者强调了算力需求的多样性:“端侧有很大的特点,场景特别多,算力需求的跨度也比较大,小到一个耳机、眼镜,大到这个端侧的机器人、汽车上的算力,从几个Tops可能到几百个Tops不等。”
为应对这种多样性,此芯科技采取了“一芯多用”的策略,“我们确实是做多个场景,但是我们又相对比较聚焦在端侧中高算力的这一块”。孙文剑如是说,通过丰富的接口和扩展能力,此芯科技可以适应不同场景的需求。
生态是关键
虽然端侧、边缘AI很快引爆了市场的热情,但行业很快发现,仅有算力硬件如同“没有铁轨的高速列车”——操作系统不感知、应用不调用、开发者不买单。
如果说技术是边缘AI的基石,那么生态就是决定企业竞争力的关键。早期的边缘AI市场竞争集中在单一产品层面,而未来的竞争将是生态系统的竞争——即围绕芯片构建“硬件-软件-服务”的完整闭环,为客户提供一站式解决方案。IDC调研显示,2025年有78%的企业客户更倾向于选择提供完整解决方案的边缘AI厂商,而非单一的芯片或设备供应商。
以AI PC为例,“2024年是AI PC的生态破局年。”孙文剑回忆道,“我们发现客户拿到芯片后,最大的痛点不是性能,而是如何让应用真正调用AI算力。”
根据Gartner 2024 Q3报告,全球PC厂商当年推出的AI PC机型超过200款,但消费者主动使用AI功能的频率不足15%。症结在于:Windows on x86的AI栈与Arm架构存在天然鸿沟,而高通等早期玩家选择了封闭路线。
芯片厂商的生态布局正从“技术输出”转向“价值赋能”。此芯科技的生态战略颇具代表性,孙文剑与笔者分享道,在硬件层面,为客户提供芯片参考设计和开发板,降低客户的硬件开发难度;在软件层面,开发统一的AI开发平台,提供推理优化、应用部署等全流程工具,兼容PyTorch、TensorFlow等主流框架;在服务层面,建立专业的技术支持团队,为客户提供定制化开发服务和长期的运维支持。这种“芯片+方案+服务”的模式,已帮助此芯科技积累了美高、迅龙等一批核心客户,大幅提升了其客户的复购率。
值得注意的是,在今年十分火爆的端侧AI应用层面,生态的联动可以进一步推动定制化场景的落地,“端侧大模型的发展方向是‘场景化定制’。”孙文剑指出,“通用大模型虽然功能强大,但在特定场景下存在算力需求高、响应速度慢的问题。我们正在与行业客户合作,开发针对工业检测、医疗诊断、智能客服等场景的专用小模型,这些模型经过场景数据的微调,能够在端侧实现更高的推理精度和更快的响应速度。预计到2026年,场景化专用小模型将占据端侧AI模型市场的60%以上。”
展望未来,孙文剑对笔者表示,边缘AI的未来不是孤立的技术演进,而是“端-边-云”协同的生态系统,“AI PC、机器人、智能座舱等端侧设备产生数据,边缘服务器提供本地算力支撑,云端负责大模型训练和全局优化,三者形成闭环,共同推动AI技术的产业化落地。我们的战略布局始终围绕这一生态系统展开,既要做好端侧芯片的核心技术,也要推动边缘与云端的协同创新。”孙文剑如是说。(文|Leo张ToB杂谈,作者|张申宇,编辑丨盖虹达)
特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。