当地时间2024年8月26日,一年一度的芯片产业盛会Hot Chips 2024在斯坦福大学纪念礼堂召开。这是该会议的第36届,今年的主题无疑聚焦于AI基础设施建设与节能技术,是承载科技未来的重要舞台。令人瞩目的是,OpenAI硬件设施负责人Trevor Cai发表了一场长达一小时的演讲,题为“构建可扩展的AI基础设施”,引发了参会者的热烈讨论。
Trevor Cai在演讲中谈到,提升计算能力是AI模型变得更智能、更有用的关键驱动因素。他指出,计算量的提升呈指数级增长,而每次计算量翻倍,模型性能都会大幅提升。自2018年以来,前沿AI模型的计算量每年增长约4倍。这也意味着数据中心的能耗急剧上升,如何在提高算力的同时降低能耗成为各大科技企业面临的共同挑战。
根据摩根士丹利的研究预测,生成式AI的电力需求将在未来几年内每年飙升75%。这一趋势显示,到2026年,AI所消耗的能源将与西班牙在2022年的用电量相当。如此巨量的能源需求,对全球电力供应和环境都提出了严峻考验。
在Hot Chips 2024大会上,英伟达、英特尔、IBM等科技公司纷纷展示了各自的节能技术方案。英伟达揭示了最新的AI集群架构Blackwell,该架构支持多达10万亿参数的模型训练和实时推理。其创新点在于Quasar量化系统,这一系统可以通过使用较低精度的内容来减少计算和存储需求,从而提升能源效率。
IBM在会上披露了即将推出的Telum II处理器和Spyre加速器的架构细节。新技术旨在通过一个新的AI集成方法,显著扩展IBM Z大型机系统的处理能力,降低AI模型训练和推理的能耗。此外,IBM九游官网app强调其先进的I/O技术可以减少数据中心占用空间。
英特尔则展示了最新的节能技术和AI优化方案,聚焦于降低服务器能耗和提高计算效率。其新一代产品不仅在处理性能上有所突破,还在减少能源消耗方面表现出色。博通、海力士等公司同样在大会上提到了各自的节能技术创新。
随着AI技术的迅猛发展,数据中心的扩建成为科技公司支撑AI运算的必要举措。据彭博社报道,仅在2023年,大型科技公司就向数据中心设施投入了约1050亿美元。但这种扩展也导致了能源需求的激增。国际能源署预测,到2026年,全球数据中心的能源消耗将相当于日本当前的年电力需求。
面对这些挑战,许多企业正在寻找清洁高效的能源解决方案。亚马逊在宾夕法尼亚州东北部投资6.5亿美元建设了一个使用核能的数据中心园区设施,这种新型数据中心将减少对传统电网的依赖。微软则通过聘请核专家和与核电站运营商合作,为其数据中心提供稳定的电力供应。
另一方面,硬件和技术层面上的节能创新也不容忽视。谷歌正在开发针对AI任务优化的专用芯片(TPU),这些芯片在能效和计算性能上优于传统的GPU。英伟达对其Blackwell芯片的直接液体冷却系统进行研究,展示了如何将服务器的废热回收利用,减少数据中心的总能耗。
提高AI效率的努力并不总是如预期那样有效。威斯康星大学麦迪逊分校的教授辛克莱指出,杰文斯悖论在这里依然适用,即资源效率的提高往往会增加其总体使用率,而不是减少。“提高人工智能的效率,虽然减少了单次能耗,但整体使用率的增加最终会导致总体能耗的上升。”辛克莱指出,这个悖论不仅适用于19世纪的火车煤炭使用,同样适用于当今的人工智能和电力消耗。
然而,在提升技术水平的同时,我们也不能忽视环境和社会的影响。从长远来看,继续推动清洁能源的使用、优化AI硬件的设计以及改进数据中心的运营效率,都是减少碳足迹和应对能源危机的重要举措。更重要的是,全行业应协同合作,发展绿色技术,推动可持续发展。
最后,强烈建议大家,日常一定要学习使用先进生产力,要把AI用起来。不管任何人,不论你是多熟悉你的业务,也不要排斥AI。聪明的人已经把像ChatGPT这样的AI工具用得风生水起了,但大部分职场人还只知道埋头苦干,结果就是吃了信息闭塞的亏。会用AI和不会用AI的人,工作效率真的是天壤之别!其实只要愿意花点时间学学怎么用,简单的操作就能让工作效率翻个好几倍,省下大把时间做自己的事情。比如我常用的AI工具——简单AI,就是一个全能型AI创作助手,功能包括AI绘画、文生图、图生图、AI文案、AI头像、AI素材、AI设计等。可以一键生成创意美图、动漫头像、种草笔记、爆款标题、活动方案等。