AI热这把火再次打破预期,然后呢?

  在Open AI丢出开年王炸Sora之后,NVIDIA 2024财年第四季度财报重磅登场,显示出人工智能市场强劲的需求和增长潜力。

 

  根据财报显示,NVIDIA第四财季营收创下新的记录达到221亿美元,同比增长265%,较第三季度增长22%,远远超出分析师预期。这其中,数据中心板块最为抢眼,第四季度创下184亿美元的新纪录,同比增长409%,全年收入达475亿美元,同比增长217%。

  如此出色的财报数字使得各大行纷纷上抬该股的目标价,正如NVIDIA创始人兼首席执行官黄仁勋所说:“加速计算和AI已达到一个转折点,全球企业、行业和各个国家的需求都在激增。”新一轮AI的热潮也许才刚刚开始。

  AI那么“火热”

  设备还得“冷静”一下

  从ChatGPT到Sora,AI的发展速度之快超乎我们的想象,Sora的爆火再次印证了OpenAI缩放定律(Scaling Law)的成功,即模型的参数量、数据量、计算量越高,模型的性能就会越高,效果也就越好。这就像是第一位淘金者在加州的河床中淘出的一颗大金粒,吸引着无数人在AI领域淘金,而NVIDIA就是那个“卖铲子的人”。

 

  无论是AI头部产品的火热,还是NVIDIA出色的财报数字,在这个AI高速发展的时代,算力依然是支撑AI发展的核心动力,而对智能算力的需求也引爆了整个行业对于AI服务器的需求。

  AI的火热不止是引爆了服务器市场,还点燃了功耗这一把大火。随着摩尔定律变缓,芯片的功耗开始与其算力一同飙升。在过去的十年中,CPU的核心数量和频率大大增加,而CPU的热设计功耗(TDP)在经历了短短几代处理器后几乎翻了一番,并且预计将随着时间的推移继续增加。

 

  与CPU相同,GPU的功耗也在飞速增长。例如,2021年NVIDIA单张显卡的功率为300W,而最新的NVIDIA显卡功率则高达700W。按照这样的趋势,GPU的功耗将在未来三年内突破至1000W。

  没错,基于计算和数据的创新都不得不面对更大的功耗,在大规模催生服务器需求的同时,也将散热的需求提升到一个新的高度,迫使企业通过硅以外的创新来解决这一问题。而在这其中,液冷服务器在近年来受到越来越多的关注,有分析表明,全球数据中心液冷市场预计将从2023年的26亿美元增长到2028年的78 亿美元,预期内复合年增长率为24.4%。

  戴尔智能冷却技术

  风冷液冷双管齐下

  人工智能正在彻底改企业的工作流程和生活方式,戴尔科技集团也在通过不断的创新来加速这一过程,并让其更加平缓顺畅。而面对逐渐“升温”的智能算力需求,戴尔科技集团推出了智能冷却技术,确保即使总电力需求不断增加,用于冷却的PowerEdge服务器的电力比例也能减少。

  在最常见的空气冷却方面,戴尔的智能冷却技术能够适应不断变化的环境和配置,通过持续监控整个服务器的传感器并从其环境中学习,确保以最少的风扇使用提供足够的冷却。

  新一代PowerEdge服务器系统配备了50至70个传感器阵列,用于监控系统关键组件的运行状态,而通过这些传感器的数据,智能控制器可以对风扇转速进行精确微调,确保风扇时刻处于最合适的功率区间内。

 

  智能冷却不仅仅体现在服务器的内部,新一代PowerEdge服务器在设计上也引入了更加智能的流量配置,例如PowerEdge的气流通道,在中间存储插槽的位置增加了集中气流入口,以带来更大的进气容量并保持服务器内的气流均衡分布。

 

  在逐渐升温的液冷服务器领域,戴尔科技集团也能够提供多样的解决方案。在戴尔智能冷却技术中,一个关键的方向是直接液体冷却(DLC),例如通过第16代PowerEdge打造的第三代DLC服务器平台:DLC 3000和DLC 7000。

 

  两款机架解决方案使用被动冷板回路和支持液体冷却基础设施来降低服务器芯片产生的热量,这直接提高了服务器可搭载的内核,在更小的空间内实现更高的服务器密度。

 

  除此以外,戴尔科技集团还推出了DLC的预集成方案以消除正确选择和安装液冷相关的复杂性和风险,而凭借顶部箱内的第四代Intel® Xeon CPU内置加速器所带来的性能和节能上的提升,DLC冷却解决方案可捕获超过22kW的CPU功率。

  随着当前AI趋势的不断发展,冷却和散热模组正在不断的升级,液体冷却也将在数据中心中发挥着更加重要作用,无论您和您的企业正处于AI探索之旅的哪个阶段,戴尔科技集团都能以全面而强大的解决方案为您提供支持。

来源:今日头条

人已赞赏
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索