内存疯狂涨价背后:AI算力时代的隐形瓶颈

日期:2026-03-17 15:37:24 / 人气:7



2025年以来,全球内存市场掀起了一场声势浩大的涨价潮,部分产品价格飙升数倍,原本不起眼的电脑配件,一夜之间成为市场关注的焦点,甚至被网友戏称为“理财产品”。市场研究机构TrendForce在2026年2月发布的报告显示,2026年第一季度传统DRAM合约价格预计环比上涨约90%–95%;与此同时,内存巨头三星和SK海力士已陆续通知部分客户上调DRAM报价,且不排除在第二季度继续提价的可能。

为何内存会突然迎来暴涨?这背后并非偶然,既有AI时代算力需求激增带来的核心瓶颈,也与业界产能向新一代高端内存转移、供需失衡密切相关。在计算机算力蓬勃发展的当下,CPU和近年来崛起的GPU始终是万众瞩目的焦点,英特尔、AMD、英伟达等企业乘风破浪,占据了科技浪潮的顶端。而内存,尽管始终在默默迭代升级,却常常被大众忽略,成为隐藏在算力背后的“隐形支撑者”。

内存真的只是配角吗?事实上,当芯片世界讲述“摩尔定律”的演进故事时,它本质上在同步演绎着两条平行且紧密耦合的技术路线:没有强大的处理器,软件生态无法繁荣;缺少足够强悍的存储器,即便处理器的峰值算力再耀眼,也难以真正发挥价值。内存与处理器,就像汽车的引擎与油箱,缺一不可,共同支撑着现代计算设备的高效运行。本文将从内存发展的历史脉络出发,拆解这一支撑数字时代的核心组件,解读其涨价背后的深层逻辑与行业困境。

1950~1970:从晶体管到DRAM的奠基,开启半导体内存时代

要理解内存的重要性,需从半导体工业的源头说起。1955年,晶体管的发明者之一、诺贝尔物理学奖得主威廉・肖克利(William Shockley)离开贝尔实验室,回到故乡加州山景城创办了肖克利半导体实验室。尽管肖克利在科学界久负盛名,但他专横的管理风格却让团队人心涣散,不久后,才华横溢的“叛逆八人组”集体出走,创办了仙童半导体——这一事件,不仅掀开了硅谷的序幕,更奠定了现代半导体工业的基础。

晶体管这一基础元件,在随后几十年里分化出两条深刻影响计算世界的技术路线:一条是以逻辑运算为核心的处理器路线,另一条则是以信息存储为核心的存储器路线。事实上,晶体管诞生之初,“逻辑”与“存储”并未分家,工程师们发现,这些“电子开关”既可以组成逻辑门,构建复杂的算术与控制电路;也能配置成保持状态的结构,用于记忆电荷、存储信息,二者是半导体技术向两个不同方向的自然延伸。

这两条路线在1960-1970年代逐渐成型,直接塑造了后续的科技格局。值得注意的是,英特尔创立之初并非以处理器闻名,而是瞄准了潜力巨大的半导体存储器市场;与此同时,IBM工程师罗伯特・登纳德(Robert Dennard)于1966年提出了DRAM(Dynamic Random-Access Memory,动态随机存取存储器)的构想——以“一个晶体管+一个电容”的极简结构,实现可扩展的高密度存储,这一发明直接奠定了现代内存技术的基础。不过,由于登纳德的构想在当时过于超前,起初并未被IBM重视。

1970年,成立不久的英特尔捷足先登,推出了首款商业量产的DRAM内存1103,容量仅1Kb,却震惊了整个行业——它直接证明,半导体内存可以成为计算机主存的未来,也宣告了传统磁芯存储器将逐步退出历史舞台。与传统磁芯存储器相比,以1103为代表的DRAM内存体积更小、量产成本更低,问世后迅速被主流计算机采用,两年后便成为全球最畅销的半导体芯片。

1971年,英特尔又推出了首款商业CPU——4004处理器,这也是全球首款采用集成电路的商业化微处理器。其时钟频率为740kHz,制程工艺为10微米,每秒可运算9万次,尺寸仅指甲盖大小,性能却堪比1946年占地167平方米的世界首台通用计算机ENIAC。有趣的是,同一时期的DRAM内存1103的访问速度与CPU处于相近量级:对于CPU的访问请求,它需要约300~500纳秒的“内部操作时间”来完成一次读取(即“访问延迟”),在当时的系统中,这一速度足以满足处理器的访问需求,二者处于相对平衡的状态。

1970~1990:内存与CPU的同步崛起,差距初现与“内存墙”雏形

随着制造工艺的不断进步,晶体管尺寸持续缩小,集成电路上的晶体管密度不断提升,CPU性能也随之进入近似指数级增长阶段。1965年,英特尔创始人戈登・摩尔根据行业观察提出了大名鼎鼎的摩尔定律:在价格不变的情况下,集成电路上的晶体管密度每年会翻一倍(1975年修正为每两年翻一倍)。这并非严格的物理定律,而是基于技术演进与经济学规律的判断,却在之后几十年里成为半导体行业最有力的发展指引——每当技术瓶颈导致芯片发展放缓时,总能有新的革新出现,让摩尔定律持续生效。

1978年,英特尔推出经典的8086处理器,频率达5 MHz,相比此前的4004处理器,频率翻了7倍,集成的晶体管数量更是翻了13倍。与此同时,DRAM内存的容量也在随摩尔定律指数增长,同期的内存容量达到16Kb,是1971年的16倍。不过,一个关键问题开始显现:内存读取速度的提升幅度,已经开始落后于其容量和处理器性能的增长。好在在当时,这种差距尚未对整体系统性能产生明显限制,内存仍然能够基本跟上计算需求。

1984年1月22日,美国“超级碗”赛事期间,苹果公司为新款个人电脑Macintosh投放了电视广告,首次向大众展现了图形界面的人机交互方式——用户可以通过鼠标点击操作电脑,而非必须在终端输入命令。这次营销取得了巨大成功,Macintosh以2495美元(折算成现在的人民币约5.4万元)的价格,在不到5个月的时间里售出7万台。初代Macintosh使用了频率为7.8MHz的Motorola 68000处理器,内存容量仅为128KB(后来被苹果重新命名为Macintosh 128K)。

从技术层面来看,当时的内存技术其实已经可以实现更大容量,譬如此前发布的Lisa个人电脑便配备了1M内存,为何初代Macintosh的内存容量仅有128K?这其中涉及复杂的商业考量,我们后续再详细探讨。但实际情况是,尽管能够运行图形界面,但由于内存容量的限制,Macintosh 128K的实际使用体验相当卡顿,导致后续销量疲软,一年后苹果便推出了内存扩容后的Macintosh 512K。值得一提的是,内存的容量和读取速度是两个不同的核心指标,在Macintosh 128K和512K中,系统性能主要受限于内存容量,而非内存速度。

进入1990年代初期,CPU性能持续高歌猛进,但内存的带宽和容量虽在增长,延迟的改进却相当缓慢。这与内存的结构特性密切相关:晶体管本身的开关速度会随工艺改进而提升,而CPU完全由晶体管构成,因此能同步提速;但DRAM内存除了晶体管,还包含电容,一次完整的内存访问需要经历预充电、感应放大、地址解码等过程,受限于电容物理充放电的固有特性,内存延迟难以持续降低。

也正是在这个年代,缓存——一种直接放置在CPU内部的高速存储——开始成为CPU设计的标配,并沿用至今。当CPU对内存进行数据读写时,常用的数据会被保存在缓存中,以便下次快速访问。相比DRAM,缓存采用的是SRAM(Static Random-Access Memory,静态随机存取存储器)技术,完全由6个晶体管构成,读写速度比DRAM更快,但造价更高,且由于缓存在CPU芯片内,其容量远小于作为主内存的DRAM。

尽管有缓存技术缓解内存速度瓶颈,但一部分学者和业界人士依然忧心忡忡:他们预测,若内存速度与CPU的差距持续扩大,10年后整个计算机系统的性能将完全受制于内存,CPU再快也只能空等内存数据。由此,“内存墙”(Memory Wall)的概念应运而生——就像高速运转的CPU,撞上了一堵无法逾越的“墙”,性能难以充分释放。

1990~2010:内存墙的缓解与转化,带宽成为新焦点

1995年,弗吉尼亚大学的两位教授在论文《Hitting the Memory Wall: Implications of the Obvious》中首次明确提出“内存墙”概念,此后该词汇逐渐在行业内流行。论文指出,由于CPU性能提升速度指数级高于内存,再过10~20年,即便CPU缓存实现完美命中,仅“强制性缺失”(即数据至少需要从内存被加载到缓存中一次),就足以让整个计算机系统的瓶颈集中在内存上。

如今30年过去,在个人电脑领域,这一预测显然并未成真——内存并非当前PC性能的主要瓶颈,随着CPU迭代,电脑整体性能仍在持续提升。背后有三大核心原因:

首先,1995年的论文存在一个假设偏差:作者认为未来应用会访问越来越多的内存数据,导致CPU缓存无法容纳。但CPU的发展远超预期,如今个人电脑的L3缓存容量普遍达到16MB,巨大的缓存使得浏览网页、办公等常见应用的绝大部分内存访问请求,都能直接调用缓存数据,无需触发真正的内存访问,从根本上减少了对内存速度的依赖。

其次,CPU架构取得长足进步,现代CPU十分擅长掩盖内存访问延迟——即便缓存未命中,CPU也能智能执行后续独立指令,无需原地等待。如今的CPU乱序执行深度极高,以2020年底发布的苹果M1处理器为例,其集成了160亿个晶体管,乱序执行窗口高达600以上,意味着若某条指令需要等待内存数据,CPU可提前查看后续600条指令,并行执行无需依赖该数据的任务。此外,现代CPU的“数据预取(Prefetch)”技术愈发智能,能精准预判后续需访问的数据并提前载入缓存,进一步缓解了内存延迟的影响。

此外,2006年左右,受限于物理限制,CPU的频率不再能继续提升,单核性能提升的脚步也开始放缓——CPU自身的“减速”,也让内存与CPU的速度差距不再持续扩大,间接缓解了内存墙的压力。

另一方面,虽然内存访问延迟长期改进缓慢,但内存带宽却在持续提升。1990年代初,DDR(Double Data Rate,双倍数据率)技术问世,通过在时钟信号的上升沿和下降沿均传输数据,内存带宽得到了大幅提升。这一趋势延续至今:DDR3的最大带宽可达17 GB/s,2020年发布的DDR5则将峰值带宽提升至51 GB/s,带宽的提升,为高数据量处理场景提供了支撑。

那么,1995年关于内存墙的预测是否完全错误?其实也不尽然,这与应用场景密切相关。前面提到的CPU缓存、乱序执行、数据预取等技术,足以应对网页浏览、办公、聊天等日常场景,在这些应用中,内存带宽提升的感知并不明显。但在大规模数据分析、复杂模拟、高性能计算等对数据传输速度要求极高的场景中,内存带宽的提升能显著增强系统处理能力;即便CPU缓存再大,也无法容纳全部所需数据,乱序执行的优势也会大打折扣。

这类高带宽需求的应用,如今正是AI领域的核心场景。因此,进入2010年代后,内存墙并未消失,而是以“带宽瓶颈”的新形式重新出现——大量AI与高性能计算应用需要持续从内存中读取海量数据,使得系统性能越来越依赖内存带宽,内存再次成为限制算力释放的关键瓶颈。

2010年至今:AI时代的带宽内存墙与突破,涨价潮的核心诱因

2012年,AlexNet在ImageNet图像识别比赛中夺得冠军,深度学习技术由此迎来爆发式增长。与传统机器学习相比,深度学习的数据处理量更大、计算量更庞大,但逻辑相对简单,这使得CPU的技术优势几乎无从发挥。相反,此前主要用于图形计算的GPU,找到了理想的新应用场景——图形计算的核心是对海量像素点进行独立重复计算,数据量大、并行度高,与深度学习的计算模式高度契合,GPU也因此成为AI算力的核心载体。

然而,深度学习的计算量极其庞大,即便DDR5内存的带宽也难以满足需求。人们常关注GPU的海量计算单元,但在AI场景中,内存带宽才是真正的性能瓶颈。高性能计算领域经典的Roofline模型,直观展示了软件算术强度、硬件计算能力与内存带宽的关系:在AI计算中,相当一部分应用的算术强度较低,整体性能往往受限于GPU的内存带宽。由此,带宽成为AI时代的新“内存墙”,也成为制约AI算力释放的关键。

就像摩尔定律多次在终结边缘被工程师创新延续一样,带宽内存墙也迎来了解决方案——3D堆叠内存技术。工程师们将内存以3D堆叠形式直接集成在GPU或CPU附近,而非像传统DDR5那样通过主板内存通道连接。3D堆叠结构与物理近距离布置,让内存能提供极高带宽:例如HBM(High Bandwidth Memory,高带宽内存)采用1024位总线,而传统DDR5仅为64位总线,带宽可达DDR5的数十倍。

在HBM技术加持下,GPU的Roofline模型“斜屋顶”被显著拉高,AI计算性能大幅提升,带宽内存墙得以有效缓解。但需注意的是,HBM的发展已不再严格遵循摩尔定律——原始摩尔定律的核心前提是成本可控,而HBM虽带宽极高,价格却十分昂贵,且成本提升与带宽增加同步。以英伟达的H100 GPU为例,其HBM3内存的成本已占总制造成本的一半,这一比例在后代GPU中可能继续上升。此外,HBM的容量通常比DDR内存小许多,这是因为散热以及制程物理限制了其3D堆叠的最大层数,导致容量难以大幅扩展。

如今,各大AI公司纷纷加码算力中心建设,对HBM的需求呈爆发式增长。内存厂商为追求更高利润,开始将产能向HBM倾斜——一片晶圆制造HBM的利润可达DDR5的三倍,这直接导致传统内存产能大幅收缩,市场出现供不应求的局面,进一步推动了2025年底以来的内存价格暴涨。

从产业界角度来看,内存市场的供需失衡并非个例,叠加内存生产的特殊性,进一步加剧了价格波动:内存生产线投资巨大、建设周期长,扩产难度极高,往往需要数年时间和数百亿资金投入才能形成有效产能。值得注意的是,过去行业内曾多次发生工厂事故影响产能,比如SK海力士无锡工厂曾因火灾导致DRAM生产线全面中断,直接推动存储芯片价格暴涨19%,这类突发情况进一步放大了市场供需的不确定性。

与此同时,全球内存产业的技术竞争愈发激烈,中国近年来在内存领域持续发力,成为全球市场的重要变量。国产DRAM厂商长鑫存储自2016年成立以来,经过多年研发投入,已逐步建立起完整的DRAM研发和制造体系,近年来相继推出DDR4、DDR5以及LPDDR5X等产品并进入量产阶段。随着行业周期回暖和新产品放量,长鑫存储的经营状况也在持续改善。与三星、SK海力士、美光等国际巨头相比,长鑫在先进制程和HBM等高端产品上仍存在差距,但在主流DRAM产品领域正逐步靠拢,一些国内厂商和云服务企业也开始尝试采用其产品,国产存储产业链的能力正在逐步提升,成为传统三大厂之外全球内存市场新的竞争力量。

未来:容量成为新的内存挑战,软硬件协同突破瓶颈

AI发展已迈入大模型时代,工程师们刚刚突破带宽内存墙,却又面临了新的难题——大模型不仅需要处理海量数据、对带宽要求极高,模型本身的参数规模也极为庞大,这使得HBM的容量逐渐成为新的限制因素。如何在有限的内存中存放海量模型权重,成为行业面临的新挑战。

面对这一困境,硬件与软件工程师正协同发力:当内存硬件工程师寻求技术突破,尝试提升HBM容量、优化3D堆叠工艺时,算法与软件工程师也在通过优化模型架构、降低精度、设计高效计算策略等方式,减少内存占用,实现大模型在有限内存下的高效运行。软硬件的协同创新,成为突破内存新瓶颈的关键方向。

从1950年代的晶体管诞生,到1970年代DRAM技术奠基,再到今天AI时代对内存带宽与容量的极致需求,内存的发展始终与计算能力的提升紧密绑定。尽管内存从未像CPU那样万众瞩目,但正是它在背后默默支撑,让现代计算机的算力得以充分释放。

此次内存涨价,不仅是市场供需关系的直观体现,更提醒我们:在计算机世界里,没有真正的配角,每个组件都在支撑着数字时代的庞大舞台。随着AI技术的持续迭代,内存的重要性将进一步凸显,而如何突破内存的带宽与容量瓶颈,平衡成本与性能,将成为全球半导体行业面临的重要课题。

注:本文封面图片来自版权图库,转载使用可能引发版权纠纷。

作者:杏鑫娱乐




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 杏鑫娱乐 版权所有