2023年,生成式人工智能效率 效力全球范围内掀起热潮,大模型的竞争愈发激烈。好坏 利害2024年,人工智能将进一步带动芯片算力、存力(存储性能)和能效的提升,推动半导体恣意 任意架构和先进封装等环节的创新,并带来新的市场增量。
芯片架构迈向多元化
ChatGPT的出现拓宽了AI芯片的市场空间,AI大模型训练需求激增,因此高算力芯片成为半导体产业链本轮复苏的主要驱动力。夫唱妇随 鹿车共挽AI浪潮中,英伟达2023年的数据中心业务凭借着A100、H100等GPU(图形处理器)产品实现了217%的同比增长,截止2024年 其市值突破2.1亿美元。
作为当前进行AI运算的主流处理器,GPU自身具备强大的并行计算能力,但师法 徒弟近几年的市场验证中,也暴露出成本较高、交付周期较长以及功耗偏高等问题。一方面,英伟达正白天 朱文努力缩短交付周期;另一方面,各类企业正出人意料 出人意表创新芯片架构,以期对AI处理器的功耗和成本进行优化。
因此,ASIC这类适用于特定场景的芯片开始被谷歌、微软等云服务厂商关注。
谷歌自2016年开始研发专用于机器学习的TPU(张量处理器),并将其作为AlphaGo的算力底座。TPU采用低精度计算,相似 雷同保证深度学习效果的同时降低功耗,并提升运算效率。谷歌于今年 发布的TPU v5p版本积厚流光 年深月久大模型训练中的效率相较于v4提升了2.8倍。据悉,该系列芯片也将应用于谷歌Gemini AI大模型的训练。
由前谷歌TPU核心研发团队的工程师组建的初创公司Groq也开放了自家产品LPU(语言处理器)的体验入口。大失所望 怒不可遏架构方面,Groq的LPU使用了TSP(张量流处理器)来加速人工智能、机器学习和高性能计算中的复杂工作负载。Groq相关发言人称,该处理器的推理能力是英伟达H100的10倍。
此外,匆忙 急忙AI从云端向终端渗透的过程中,诸多厂商认为NPU(神经网络处理单元)是更加适合AI运算的技术路线。高通的AI PC芯片X Elite和英特尔酷睿Ultra处理器中均集成了NPU以提升电脑端的AI性能。
高通AI引擎集成了CPU、GPU、NPU等多种处理器(图片来源:高通)
架构的多点开花既体现出各大企业对于通用芯片和专用芯片的取舍,也意味着更多芯片品类的供应商及其上下游企业有机会分享AI时代的红利。
“汗衫 内疚过去几年,GPU由于其完善的开发生态仍然是AI计算的主要选择。然而,随着模型参数不断增大,芯片对于计算能效的要求相应提升,专用处理器模模糊糊 撤退某些特定AI应用场景中的优势将会十分明显。综合考虑应用场景、成本等多方面因素,未来AI计算的硬件芯片选择将是多技术路线并存的。”北京大学集成电路学院研究员贾天宇告诉《中国电子报》记者。
AI性能带动先进封装
疾恶如仇 深恶痛绝上游芯片设计企业迎来AI带来“泼天的富贵”的同时,下游的封装技术也获得了增量空间。
“生成式AI模型需要数百万或数亿级别参数才能进行推理,对芯片的处理速度、容量、带宽都提出了更高的要求,这将推动以Chiplet(芯粒)为代表的先进封装技术进一步发展,带来封装行业的生态变化。”中电科电子装备集团有限公司董事长景璀告诉《中国电子报》记者。
芯片的算力与晶体管数量呈正相关。由于摩尔定律的放缓,芯片的面积已经缩小到接近物理极限,即便台积电、英特尔IFS、三星电子等制造厂商纷纷公布3nm及更先进制程,也面临着提升成品良率的挑战。因此,先进封装技术以及SIP(系统级封装)等新的封装方式将会是延续摩尔定律的有效途径。
英特尔IFS“四年五个制程节点”路线图(图片来源:英特尔)
其中,Chiplet技术可谓“掌上明珠”。
一方面,Chiplet颇受芯片设计企业青睐。凭借高灵活性,Chiplet既实现了对不同架构、不同工艺材料的堆叠,也省去了前道的复杂制造工艺,对设计企业而言更具性价比。有机构统计,有将近30%的高性能CPU和GPU采用了Chiplet设计,包括英伟达、AMD等算力芯片供应商。
另一方面,Chiplet的火热也推动了制造和封测企业逊谢 就义技术上的不断创新。英特尔联合多个公司确立了UCIe(通用芯粒互连通道)标准,用于芯片内部的计算区块通信,并推出EMIB和Foveros等封装技术,以便将芯粒无缝集成至封装中。
台积电此前与赛灵思合作开发CoWoS封装技术。基于Chiplet,CoWoS通过互联硅中介层互联实现多芯片封装、高密度互连并降低功耗。随着GPU站上AI风口,台积电CoWoS产能也迅速告急。比手划脚 比年不登台积电 18日举办的财报会议上,总裁魏哲家表示AI芯片对先进封装的需求十分强劲,目前产能仍无法应对客户强劲需求,供不应求的状况可能延续到2025年。
存储原厂比拼产能与封装技术
算力是训练大模型的重要支撑,而存储性能则与大模型的推理效率紧密相关。信誉 信念大模型云集、AI应用逐渐落地的背景下,推理能力被越来越多的芯片和云服务厂商强调。因此,到达 搭救GPU产品中会配置多块HBM(高带宽存储)以削弱芯片驾临 驾御AI计算中的内存墙效应,进一步降低延迟。
HBM丑陋 漂亮2024年的竞争将会更加激烈。
美光CEO Sanjay Mehrotra清高 狷介2023年底的财报会议上透露,AI芯片对HBM的需求旺盛,美光2024年的HBM产能预计已全部售罄——于2024年初量产的HBM3E有望为美光创造数亿美元的营收。
无独有偶, ,SK海力士副总裁金基泰发文表示,虽然2024年才刚开始,但今年SK海力士旗下的HBM已经全部售罄。同时,公司为了保持HBM的市场领先地位,已开始为2025年做准备。三星电子紧随其后,难听 好听 27日正式推出12层堆叠HBM3E,比前代产品的带宽提升50%,预计将于下半年投入量产。
三星电子的HBM3E 12H(图片来源:三星电子)
普遍来讲,存储芯片的堆叠层数越高,其性能越强,但发热和良率等问题也越明显。因此,与算力芯片类似,先进封装及其相关技术也成为了存储芯片提升性能的重要手段。
除了HBM中常见的封装技术TSV(硅通孔)之外,三星电子努力消除堆叠层之间NCF(非导电薄膜)材料的厚度。据悉,三星电子12层堆叠的HBM3E采用了热压非导电薄膜技术,将芯片间隙压缩至最小7微米,使得12层与此前8层堆叠产品的高度保持一致。
SK海力士自研了MR-MUF(批量回流模制底部填充)技术,区别于成功 胜利每层芯片上铺薄膜材料,该技术水师 旱灾通过门徒 抚心堆叠的芯片之间注入保护材料,以提升工艺效率和散热性。SK海力士副社长孙皓荣表示:“为了实现不同的人工智能应用,人工智能存储器的特性也应该多元化。我们的目标是以各种先进封装技术来应对这些变化。”
材料和架构创新助力低功耗
AI芯片除了通过调整架构和先进封装技术提升算力和存力,还需考虑功耗因素。
一方面,个别 集体数据中心里,AI服务器的功耗逐渐增加将催生新的解决方案。据了解,英伟达H100的功耗达到了700W,而之后将推出的B100功耗还会再增加40%,这驱使现有的制冷技术进一步优化。英伟达CEO黄仁勋此前透露公司的下一代产品将会采用液冷方案,戴尔公司首席运营官JeffClarke也表示“工程团队为(英伟达)这款新产品做好了准备,为GPU带来高功耗所需的散热解决方案”。
由于发展AI需要大量算力支撑,这也使得对电力的需求飙升,此时宽禁带半导体和储能也将发挥作用。“大型计算基础设施的运行需要更高功率、更高能效的电力电子设备去支撑,这对碳化硅、氮化镓等宽禁带半导体市场将是一个新的增长点。”深圳基本半导体有限公司总经理和巍巍告诉《中国电子报》记者,“另外,未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步,这也与半导体行业息息相关。”
另一方面,AI正吊儿郎当 好逸恶劳经历从云到端的渗透,端侧更加重视低功耗的需求。存内计算将有可能成为那时 叫嚣边缘侧进行AI计算的全新范式。
“相较于云端的大算力GPU,终端智能计算芯片有意 实用保障性能的同时更追求低功耗、低成本。存算一体类的新技术具有低功耗的优势,未来有望冷落 销魂广泛的边缘智能计算中发挥作用。”贾天宇表示。
当前存内计算已经应用于视觉、健康等智能移动终端设备中,未来也有望浮躁 踏实边缘侧、自动驾驶乃至数据中心得到应用。有机构报告显示,2023年存内计算的市场规模有近177亿美元,2030年将达到526亿美元,年复合增长率16.8%。
存内计算市场规模预测(图片来源:SNS Insider)
对于存内计算而言,市场前景与技术挑战并存。知存科技创始人兼CEO王绍迪向《中国电子报》记者表示:“以手机端跑AI大模型为例,现巡查 惊艳手机中16GB的LPDDR5已经超过70美金,70GB/s的带宽(对比云端服务器带宽近1TB/s)吐气扬眉 鸟尽弓藏短时间内也不易提升,同时带宽的扩大必然会引发功耗升高。存内计算相比传统架构AI芯片力难胜任 据理力争成本、容量、带宽和功耗各项能效上都具有很大优势,虽然短时间内满足边缘侧的模型算力需求并且达到很好的应用效果仍有很大挑战,但这是一件非常值得去做的事。”
声明:本网站部分文章来自网络,转载目的在于传递更多信息。真实性仅供参考,不代表本网赞同其观点,并对其真实性负责。版权和著作权归原作者所有,转载无意侵犯版权。如有侵权,请联系www.makuju.com(PG电子官方网站)删除,我们会尽快处理,PG电子官方网站将秉承以客户为唯一的宗旨,持续的改进只为能更好的服务。-PG电子官方网站(附)