清野 裸舞
《中国综划算力指数申诉(2024)》中骄横,适度 2024 年 6 月,中国在用算力中心的机架数目特等 830 万,算力范围达到 246 EFLOPS(以 FP32 精度盘算推算),智能算力同比增速特等 65%。中国在 2025 年的看法是算力范围特等 300 EFLOPS。
通过数据不错看出,智能算力中心依然成为畴昔数据中心栽种的主要趋势和标的。
算力底座步入 AIDC 时间
智算中心的火爆不错说一泰半的功劳要归功于以 ChatGPT 为代表的东说念主工智能时刻在百行万企掀翻了新一轮的创新,让智算中心成为当下炙手可热的存在。
回看整个这个词数据中心产业发展不错浅显分为三个阶段,第一个阶段,2010 年以前,中国数据中心行业的主力军主如果三大电信运营商,以及小数的第三方中立 IDC 做事商,比如诞生于 1999 年的世纪互联,以及诞生于 2001 年的万国数据。这个时期的数据中心大多承载着电信通讯的业务为主。
第二阶段,2010 年— 2020 年前后,伴跟着云盘算推算产业在中国的快速发展,互联网成为时间的骄子,这 10 年间显现了遍及的第三方数据中心供应商,而秦淮数据行动新兴的超大范围数据中心厂商,成为妥当这一阶段高速发展互联网业务的典型代表。IDC(互联网数据中心 Internet Data Center)的名号也在此期间得以加强。
2020 年于今,跟着企业关于多元算力需求的激增,GPU 启动遍及在企业级数据中心得以应用,传统的 IDC 也启动逐渐向 AIDC 回荡,东说念主工智能时刻正在重塑数据中心行业。
在 IDC 向 AIDC 回荡的进程中,用户和企业最容易感受到的一丝即是——主流 CPU、GPU 功耗和做事器节点功耗指数级增长,在秦淮数据 CTO 张炳华看来,当下的 AIDC 要具备高算力、高弹性、大范围、高效率和智能化五大才调,才能搪塞东说念主工智能大模子带来的算力供给和能耗挑战。
开心情色网高算力方面,跟着大模子越来越大,智算中心需要提供更高的算力。从 CPU 到 GPU,从通用盘算推算到异构盘算推算,数据中心的性能进步了许多倍,机柜的功率密度向上式增长,以使用 GB200 的做事器为例,最大单机柜功率已达 132kW,这就需要具备高性能的盘算推算和数据处理才调,以支握复杂的东说念主工智能算法和模子覆按。
高弹性方面,为了知足用户多元化的需求,智算中心需要更弹性。"目下,智算中心总体在向高效、怒放、环保、智能标的发展,这是势必旅途。"张炳华如是说,"同期 , 行动赋能东说念主工智能发达价值的中枢底座,智算中心基础范例通常需要知足更多互异化、多元化的算力场景需求,要通过弹性联想同期兼容风冷和液冷,兼容 CPU 和 GPU 等不同性能的盘算推算和存储资源,也要活泼匹配不同的算力部署。"
大范围方面,为了知足东说念主工智能关于算力浩瀚的需求,智算中心范围会越来越大,张炳华觉得,畴昔单个智算集群需能提供 5~10 万卡 GPU 大范围的算力和存储资源,"要知足东说念主工智能应用对数据和盘算推算的需求;畴昔单个 AZ(可用分区)数据中心的 IT 容量将从几十 MW 级别增长到几百 MW 级别。"张炳华告诉钛媒体 APP。
高效率方面,除了提高请托成果外,行动公认的"电老虎",数据中心的动力奢侈和环境保护一直是业内慈祥的要点,尤其是在 2020 年 9 月中国忽视了" 3060 "的双碳政策看法之后,若何"减碳增效"成为 IDC 行业慈祥的焦点,即便在 AIDC 时间,能效依然是关键看法。智算中心的节能环保依然被进步到了一个全新的高度。张炳华对钛媒体 APP 示意,在提高能效方面,智算中心需要充分利用当然资源,选拔数据中心全栈式处置决议,通过优化联想和运营策略,已毕极简供电、极致冷却,捏造数据中心的动力奢侈,提高能效比。
智能化方面,主要体当今智算中心的智能化经管。复杂性和各样性的业务需求对数据中心运维器具系统忽视了更高要求,传统运维器具对运维经管的进步组成了严重的制约,致使在一定进度上影响着业务的知晓性和安全性。在张炳华看来,智算中心在为 AI 提供底层因循的同期,也需要借助 AI 和机器学习的才调,已毕数据中心的自动化经管和优化,包括智能监控、智能预测、智能散热、故障智能定位,提高运营成果。
高算力、碳中庸要兼顾
在 AIDC 发展的进程中,若何作念到高质料算力与碳中庸的"既要 .... 又要 .... ",已成为繁密 IDC 厂商政策布局的关键。
从能耗占比角度开赴,数据中心里面 IT 开导耗能占比超 60%,非 IT 开导能耗不到 40%。其中,空调开导能耗占比最大,特等 20%。目下数据中心节能减排时刻焦点主要如故连结在制冷系统。
"畴昔 5 年间,GPU 算力增长近 90 倍。"中国工程院院士刘韵洁曾公开示意,伴跟着算力加多而来的即是芯片能耗的加多。目下主流系列处理器功耗已达 350~400TDP/W。这还仅是 CPU 的功耗,而 GPU 的功耗远远高于 CPU,以英伟达 H100 为例,构建万卡的 H100 智算中心集群,其 IT 功耗可达 10MW。况且跟着摩尔定律逐渐失效,在后摩尔定律时间下,芯片算力与其功耗仍将大幅进步。
把柄 IDC 测算,瞻望到 2027 年,AI 数据中心容量的复合年增长率 ( CAGR ) 将达到 40.5%,与此同期 AI 数据中心的动力奢侈瞻望将以 44.7% 的 CAGR 增长,到 2027 年达到 146.2 太瓦时 ( TWh ) 。
从时刻发展上看,近两年液冷时刻从" PPT 画饼"逐渐走向了锻练落地应用,据科智探讨瞻望,2024 年中国液冷数据中心市集将同比增长 53%,市集范围将增长至 236 亿元;瞻望 2022 — 2027 年,中国液冷数据中心市集将以 59% 的复合增长率握续旺盛发展;瞻望到 2027 年,跟着 AI 系列应用的范围化落地以及液冷生态的日趋锻练,市集范围将碎裂千亿大关。
这个进程中,不仅是诸如宁畅、海浪信息这么的硬件开导供应商涉足这个赛说念,IDC 做事商也启动逐渐在液冷规模开发产物和处置决议。以秦淮数据为例,张炳华告诉钛媒体 APP,为了知足大模子时间对更大盘算推算所需的冷却需求,秦淮数据也早已在冷板式液冷和浸没式液冷时刻方面进行布局,目下可支握高达 150kW 的高密度机柜。
张炳华觉得,是否应用液冷主要如故取决于用户关于时刻的承袭度,"目下大多数用户如故可爱选拔传统风冷的决议,因为它是解耦的,时刻发展也更为(与液冷比拟)锻练,"张炳华指出,"同期,以冷板液冷为例,冷却工质大多选拔纯水加药或以纯水为基础的配方液,或者用乙二醇、丙二醇溶液,运行时刻真切有管说念腐蚀、漏液的风险。"
不外,在张炳华看来,上述的痛点目下行业内依然有一些看法不错处置,最终影响用户对液冷的取舍,如故硬件开导的耦合度、模范化进度,致使是老本和生态的完善度,"通过这些举措不错进步用户关于应用液冷的承袭度,"张炳华告诉钛媒体 APP。
无特有偶,中国信息通讯计划院云盘算推算与大数据计划所总工程师郭亮曾经示意,跟着英伟达 Blackwell 架构的 GPU 芯片产物(瞻望于本年第四季出货)的部署,将鼓舞液冷散热决议的渗入率理会增长,从 2024 年的 10% 傍边至 2025 年将碎裂 20%。
除此之外,张炳华觉得,跟着时刻进度、模范化,以及生态的完善,液冷的部署老本也会越来越低,这也会鼓舞液冷时刻在数据中心的应用。据赛迪参谋人发布的《2023 中国液冷应用市集计划申诉》,2022 年液冷数据中心 1kW 的散热老本为近 6500 元,比拟 2021 年依然下跌了 54.2%,瞻望 2023 年 1kW 的散热老本有望降至 5000 元傍边,与传统风冷的栽种老本已基本握平。
从目下角度开赴,张炳华觉得风液搀杂是面前液冷应用较好的一种面孔。基于此,秦淮数据始创性地在数据中心中选拔"液侧冷板液冷和风侧磁悬浮相变"的冷却组合系统。据张炳华先容,该时刻奏效应用于秦淮数据华北某基地的两栋数据中心神色," 2024 年上半年,神色中负载端庄的机房现实运行 PUE 低至 1.128,全年 WUE 瞻望仅为 0.15。相较于 IDEC 冷却时刻机房,该神色的冷却时刻大幅捏造了电力和水资源奢侈,每 100MW 可从简用电 3950 万度,特等于捏造标煤奢侈 4850 吨,可节水 88 万吨,约等于 233 个模范游池塘的蓄水量。"张炳华用一个个数据佐证了风液搀杂是当下知足企业大范围智算需求的智算中心供冷最优解的不雅点。
不唯有液冷
除液冷之外,跟着时刻的发展,比年来数据中心供冷的面孔依然从单一的传统空调机组变得更各样化,波折挥发冷却、磁悬浮冷机组等新一代制冷面孔层出不穷,一种新式制冷系统,致使诸如风液搀杂的多种制冷面孔组合的体式在数据中心大范围应用的场景依然日出不穷。
以磁悬浮冷却机组为例,该系统选拔磁悬浮无油离心时刻,已毕无机械损耗,在免珍贵的同期,还可进一步进步冷却系统的活泼性和可靠性,对此,张炳华示意,磁悬浮冷却系统破解了单机柜 10 至 35kW 高功率密度的空气冷却时刻艰苦,创新的溜达式冗余决议可碎裂建筑条款、征象、水源制约,已毕弹性适配按需部署,"该系统在秦淮数据华北和马来西亚的数据中心依然获取使用,CLF(制冷负载整个)分手低至 0.08 和 0.15。"张炳华与钛媒体 APP 共享了几个应用磁悬浮冷却系统的案例。
据钛媒体不雅察,除了磁悬浮冷却系统之外,2022 年秦淮数据还与维谛时刻联手发布了名为"玄冰"的无水冷却时刻,通过抑遏时刻和感当令刻高度协同,"玄冰"无水冷却将制冷系统的输出与环境温度细巧衔接,不错充分利用当然冷能捏造数据中心能耗,处置了朔方地区数据中心所处地水资源匮乏和能耗规矩,"每 100MW 范围的数据中心年节水量多达 120 万吨,特等于 320 个国度游水中心水立方模范游池塘的蓄水量,可知足 10000 户四口之家的年用水量。"张炳华先容到。
除了 IDC 做事商积极布局减碳时刻之外,硬件开导厂商也都在这方面进行布局,联念念集团推出了自研的海神(Neptune ™)温水水冷时刻。该时刻的中枢上风在于能已毕 90% 的余热回收再利用,热移除成果最高达 98%,可捏造 42% 的能耗,并将数据中心 PUE 可降至 1.1 以下;海浪信息、超聚变做事器厂商等也纷纷在冷板式液冷方面进行布局 .....
另一方面,还有不少 IDC 做事商从供电方面,通过进步供电成果,进而捏造数据中心碳排放,无人不晓,电在缆线中传输的进程中会产生热量,同期也会奢侈掉部分电能,而"电"行动数据中心不行或缺的独一能量起原,若何好像捏造传输进程中的损耗,提高"电"在数据中心中的利用成果,通常成为行业内慈祥的焦点。
以现存时刻来看,选拔 DR、RR 供电架构,UPS ECO、高压直流等时刻技巧可灵验捏造"电"在传输进程中的损耗,因减少了逆变的进程,高压直流一般可达到 96.5% 的利用率,致使更高。
秦淮数据在算力大会期间发布了全新"玄铁"极简供电架构,对多个供电系统进行预制化、模块化升级,"比拟传统配电样式,通过一体化集成和与土建解耦的弹性请托才调,‘玄铁’智能电力模块 3.0 不错已毕举座测试、模块部署、弹性扩容,大大揆情审势占大地积,捏造现场请托周期。灵验处置算力激增下数据中心供配电系统部署周期长、动力成果低、运维老本高档挑战,保险供电全人命周期的安全可靠。"张炳华告诉钛媒体 APP。
行动算力底座的数据中心依然步入了新的时间,这个时间下,如安在保证算力供给的前提下,已毕碳中庸看法,依然成为整个这个词 IDC 行业高卑劣需要共同面临的挑战。(本文首发于钛媒体 APP清野 裸舞,作家|张申宇,剪辑丨盖虹达)