和AI 聊天,需水量居然这么大?近日,谷歌发布《2023 年环境报告》(以下简称《报告》),其中一项数据引发行业和市场的广泛关注:其去年的用水量同比显著增加20%,达到56亿加仑,而其中绝大部分都被用于为该公司的数据中心散热。这约等于 212.079 亿升水,相当于大约31850个奥运标准游泳池的水量。报告还详细阐述了维持大型数据中心运行所带来的环境代价,而伴随着人工智能竞赛的日益激烈, 谷歌预计未来的用水量将继续增长。
谷歌数据中心冷却设备。图源网络
一头是人工智能发展的大势所趋,一头是数字经济绿色低碳的诉求。数字经济以云计算为重要基础设施,在AI革命提速的今天,让算力更加高效低碳变得尤为重要。
(资料图片)
AI很“口渴”:聊10句天,ChatGPT可能要费半斤水
2023年初,由OpenAI打造的ChatGPT火遍全球,人们迫不及待地体验、分享,沉浸在人工智能所带来的新奇体验中,其一跃成为人工智能领域的现象级应用,也引发了全球互联网公司的AIGC军备竞赛。
在大众的认知里,AI的前景和未来更依赖于硬件和软件等基础设施以及技术的更迭。殊不知,AI需要进行大量的训练,数据中心更承载着传递、展示、计算、存储数据信息的功能,动辄集成上百万台服务器,这也就意味着需要更强的算力中心和与之匹配的散热能力,让服务器保持良好的运行温度。在AI快速进步的道路上,对水资源的消耗也不断加码升级。
冷却数据中心最常用的方法就是蒸发和放空,而这也是水冷型数据中心耗水量的主要部分之一。除了蒸发会失去水分,数据中心会定期对冷却系统进行清洗,这也将消耗一定数量的水资源。
卡罗拉多大学与德克萨斯大学的研究人员在一篇《让AI更节水》的预印论文中也发布了训练AI的用水估算结果,显示训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。ChatGPT(在GPT-3推出之后)每与用户交流25~50个问题,就得“喝下”一瓶500毫升的水来降温。
除了谷歌,另一个巨头Meta在美国亚利桑那州建设了数据中心,仅2022年用水量超过260万立方米(约6.97亿加仑)。随着全球人工智能军备竞赛的持续升级和大量科技公司竞相建设新数据中心,其消耗的水量很可能会继续上升。
AI快速发展,还需解决“喝水”和能耗问题
近年来,随着数据中心的规模越来越大,以冷水系统作为冷源的大型数据中心的耗水量、水源问题开始引发关注,如何减少数据的耗水量,降低WUE(水资源使用效率)值在业界被广泛讨论起来。
“整体来看,当前数据中心耗水已经成为制约数据中心快速发展的因素之一,国内很多地方已经将耗水作为了数据中心的重要考核指标。”中国通信工业协会数据中心委员会常务副理事长、中国IDC圈创始人CEO黄超表示。
近日,北京市发展改革委修订印发了《关于进一步加强数据中心项目节能审查的若干规定》,其中就新增了关于引导数据中心充分利用再生水的内容:再生水输配管网覆盖范围内的数据中心,设备冷却水、机房加湿等非生活用水应采用再生水。
相关专家呼吁尽快为数据中心用水建立一套规范、统一的标准与利用效率评价方法,使其成为数据中心实现绿色低碳发展的关键标准工具。
实际上,为了节约宝贵的自来水资源,很多企业尝试用各种方法为数据中心散热,例如,微软曾尝试部署海下数据中心,Facebook数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷。
在高密度、高能耗的数据中心庞大需求下,制冷领域技术的革新也开始涌现,一个加速的趋势就是,液冷出现且有望逐步成为制冷领域的主力。
液冷技术是指使用液体取代空气作为冷媒,与CPU、芯片组、内存条以及扩展卡等发热部件进行热交换,带走热量的技术。相比于传统的风冷技术,液冷技术的制冷效率更高,可有效降低制冷系统的运行能耗,使数据中心PUE(电源使用效率)达到1.3以下。
今年7月6日,在第六届世界人工智能大会上,互联网头部企业和运营商合计发布了30多款大模型和10多款高算力智能芯片,其背后都有液冷数据中心的影子。随着大模型时代的到来,能够实现超高密度IT设备散热的液冷技术也将在数据中心领域得到高速发展。
科技企业要成为绿色低碳云计算的领跑者
数据中心是数字经济的基座,除了水资源,电力资源的紧张、“双碳”目标的要求,以及整体用电量的快速提升等现实,都使得数据中心运营的难度会越来越大,同时还要面临节能审查和“碳能双考”等多重压力。
联通数字科技有限公司工作人员车凯曾撰文指出:“数据中心实质上是将能源转换为算力的载体,转换效率越高,意味着数据中心实现相同算力付出的能源成本越低。《2022年中国数据中心运营质量分析发展报告》中显示,能源成本在数据中心整体运营成本中占比最高,达到41%。液冷技术将有效提升转换效率,不仅可以提高数据中心整体利润,还可以降低碳排放,加快实现碳中和。”
在未来,力争成为绿色低碳云计算的领跑者,是科技企业破局的关键。
以阿里云数据中心为例,分别从绿色能源、绿色产品及技术、绿色架构、绿色运营、绿色服务等多个维度将自身打造成一朵清洁的云。阿里云数据中心相关负责人介绍,“不仅包括让更多的机构通过上云来减少对本地化部署机房和服务器的依赖,还包括提供基于云计算的数智工具,帮助客户在数智化转型的同时实现绿色低碳,从而真正发挥绿色通用算力在数字循环经济转型中的价值。”
在液冷服务器技术上,阿里云数据中心主力研发的基础设施和 IT 设备一体化浸没式液冷架构,可以完全脱离风扇、空调等机械制冷,达到年均PUE低至1.09,较行业平均水平节能36%。截至2023年3月31日,在7个大规模数据中心部署智能算法运维策略后,实现冷却系统能耗下降 5%—11%。阿里云数据中心相关负责人表示,“液冷技术下的全场景实时精确温控,能释放芯片计算潜能,有效解决未来更高性能的计算需求。”
(透视社综合中国环境报、每日经济新闻报道)
编辑:李煦、廖明娟(实习)
校对:李旭颖
审核:龚紫陌
关键词:
Copyright@ 2015-2022 亚洲包装网版权所有 备案号: 京ICP备2021034106号-51 联系邮箱:5 516 538 @qq.com