AI重塑PC产业链:微软开启战场,高通、英特尔、AMD混战CPU,内存最为受益

赵雨荷
摩根士丹利研报称,要在PC设备上正确运行Copilot,人工智能PC需要配备每秒45万亿次操作(TOPS)的计算能力,而这将驱动CPU和内存的升级。其中内存将成为关键,预计32GB内存将成为人工智能PC的默认配置,人工智能PC不断提高的渗透率也将加剧内存的供不应求。

人工智能正在改变PC领域,使其变得更智能、更快、更加个性化。摩根士丹利近日发布研报称,未来的PC市场将由人工智能PC主导,而这将驱动CPU和内存的升级。其中内存将成为关键,预计32GB内存将成为人工智能PC的默认配置,人工智能PC不断提高的渗透率也将加剧内存的供不应求。

人工智能PC的变化来自哪里:满足微软Copilot运行需要的45 Tops算力

研报认为,目前已有的PC大多已经老化,人工智能则可以改变未来的工作方式。摩根士丹利将人工智能PC定义为具备特定SoC(片上系统)功能的超级个人计算机,能够在本地运行生成式AI任务。由于目前大多数CPU或GPU并未针对高效运行AI任务进行优化,而人工智能PC配备的神经处理单元(NPU)将能够高效运行这些任务。到目前为止,仅存在配备低于40 TOPS(每秒数万亿次操作)NPU的PC芯片,例如英特尔的Core Ultra系列、AMD的Ryzen 7040系列、高通的Snapdragon 8cx系列和苹果的M系列。

目前微软正努力在最新版本的Windows中提供Copilot和其他AI功能,第三方开发者随后将创建相关应用程序。而要在PC设备上正确运行Copilot,人工智能PC需要配备每秒45万亿次操作(TOPS)的计算能力。即将推出的AI功能可能会更依赖设备硬件,这意味着微软将推动其制造合作伙伴,在新的笔记本和台式机的最低内存配置设定为16GB,以包含Copilot和其他Windows 11的AI功能。升级内存是提高PC性能最简单的方法之一,这将是自2012年后PC时代以来在PC内存行业看到的首次重大升级。

随着Windows 12的推出,摩根士丹利的全球PC硬件团队预计,AI笔记本电脑的普及率将在2025年迅速增长。研报估计2025年和2026年人工智能PC的渗透率将分别达到30%和50%(从2024年的8%提升)。人工智能PC不仅为戴尔等系统制造商带来了更高的利润率,还将每台PC的半导体含量提高了20%-30%,主要来自CPU和内存的升级(这为全球半导体行业增加了约300亿美元的收入)。

CPU大战:X86架构 VS Arm架构

支持AI的PC处理器种类繁多。高通(QCOM)的Snapdragon X Elite平台是第一个符合微软Copilot标准的产品,预计将于2024年下半年开始发货,并提供约45 TOPS的计算能力,超过微软定义的40 TOPS的人工智能PC要求。AMD的Ryzen 8000系列(Strix Point)与英特尔的Meteor Lake一起于2023年12月发布,具备34 TOPS的CPU+GPU+NPU综合计算能力,尚未达到微软的标准,不过即将推出的Lunar Lake处理器将在今年年底前突破40 TOPS的门槛。

研报表示,英特尔和AMD的x86 CPU架构与高通ARM架构的CPU在人工智能PC市场的竞争将加剧。高通率先符合微软的要求,使其能够抓住第一波人工智能PC的机会,像戴尔、惠普、联想、华硕和宏碁这样的主要PC原始设备制造商都将在2024年推出搭载高通CPU的机型,挑战英特尔的x86架构阵营。

内存收益逻辑

研报认为,内存在人工智能PC的整体系统性能和AI任务执行效率中起着至关重要的作用。AI操作需要大量数据进行训练和深度学习,这些数据会临时存储在内存中。经过训练的AI模型包含大量参数,随着模型复杂性的增加,参数数量也相应增加,因此需要足够的内存容量来存储这些参数。因此,高速大容量内存可以提供更快的数据访问速度,并有助于加速模型训练过程。

根据研报,内存在x86与ARM的竞争中受益匪浅。人工智能PC推动了平均PC内存容量的显著增长,并且在PC内存中使用了更高的LPDDR。AI加速是一种高度依赖内存的操作,大型语言模型(LLM)需要大量的快速频繁访问的内存。这就是微软将人工智能PC中的内存基准容量设定为16GB的原因,但预计大多数客户和企业可能会选择32GB为默认配置,以获得更好的性能并做好未来准备。

16GB不仅用于本地任务加速,还可用于云端的Copilot AI功能。这一容量比2023年平均每台PC的内存容量高出50%,当时约为10.5GB。摩根士丹利预测,人工智能PC将推动对PC内存需求增长更快,而消费者升级趋势可能进一步提升这一需求增长轨迹。

此外,大多数人工智能PC的CPU将采用LPDDR5x,而不是目前主流的DDR SO-DIMM模块。带宽和能源效率对人工智能PC来说同样重要。这种低功耗内存的转变是由更快数据传输的需求驱动的——DDR5的速度在4.8–5.6 Gbps之间,而LPDDR5x达到7.5–8.5 Gbps,能够满足人工智能PC快速语言处理和响应的需求。与DDR5相比,LPDDR5X在主动使用时的功耗降低了约50%,在自刷新时的功耗降低了86%,并且带宽更高,达到了6.4 Gb/s,而DDR5的带宽为4.8 Gb/s。摩根士丹利估计今年LPDDR将占PC内存需求的30–35%,未来的增长将由人工智能PC的更高普及率和CPU制造商的持续采用下推动。

而人工智能PC的普及和渗透率增加对整体更新周期最终是有利的,特别是在商业领域。摩根士丹利的大中华区硬件团队预测,到2027年底,人工智能PC的渗透率将达到53%,意味着人工智能PC内存将在2027年占全球内存出货量的10%。尽管2024年人工智能PC内存仅占全球内存市场的3%,但其内存容量的提升仍将加剧已经紧张的内存供应,摩根士丹利估计PC内存的供需比将从目前的2%下降到-9%,全球内存的总供需比将下降2个百分点至-5%。

杀手级应用会来自哪里

摩根士丹利认为,目前微软的Copilot是主要的杀手级AI应用,而随着渗透率的提高,第三方开发者也将会加入。

Copilot是一款由AI驱动的生产力工具,它协调大型语言模型和Microsoft Graph中的内容,帮助用户日常操作,所有用户都可以通过Copilot网站、必应聊天、Microsoft Edge中的Copilot和Windows中的Copilot访问。Copilot还可以通过Copilot、必应、Edge、Microsoft Start和Microsoft 365移动应用程序访问。

同时,微软还将Copilot嵌入到主要应用程序中,例如Word、Excel、PowerPoint、OneNote、Teams和Outlook。例如,PowerPoint中的Copilot可以将现有的Word文档转换为演示文稿;Excel中的Copilot将帮助分析和探索数据,以帮助做出最佳决策,并生成图表来直观展示机会;Word中的Copilot将撰写、编辑、总结、提供建议并协同创建。此外,当在Teams上进行对话/视频会议时,它还可以帮助生成会议纪要。

目前,Copilot为个人用户提供免费和专业版,其中专业版允许用户在高峰时段优先访问GPT-4和GPT-4 Turbo以获得更快的性能,构建定制的Copilot GPT,以满足个人需求和兴趣。尽管目前Copilot在云端运行,但摩根士丹利预计,在进入Windows 12时代时,人工智能PC将推出离线版,这将有助于缓解有关数据安全和可能的网络速度下降的担忧。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章