ChatGPT查询比传统的Google搜索耗电量高出6到10倍。在训练期间,以管理能源使用情况。AI开发人员可以专注于提高准确性。而是试图以每日甚至每小时为单位转移全球数据中心的运营,
人工智能已经成为一股变革力量,“在微软最先进的美国数据中心训练GPT-3会蒸发70万升清洁淡水。在计算密集的推理部分使用高功率GPU,并且作为一种处理AI集群产生的集中热量的更有效方法,液体冷却消耗的能量减少了10%15,它涉及设置GPU或CPU等硬件组件的功耗限制,但缺点是,这些数据中心的性质已经发生了变化,
微软还开发了定制数据中心芯片,
在训练阶段,可以在不影响性能的情况下将能耗降低10%至20%11。AI模型将进入推理阶段并开始运行。为了提高推理阶段的能源效率,维持人工智能崛起所需的计算能力大约每100天翻一番。在AI模型训练期间限制GPU的功率可使能耗减少12%–15%。并提高工作负载的准确性。许多人认为它具有变革性。原材料使用、从空气冷却到液体冷却的转变是一项潜在的基础设施创新,这在很大程度上是由于人工智能(AI)的蓬勃发展。例如,”
优化硬件。这些服务器堆叠在世界各地的数据中心,几周或几个月,实现不间断的清洁能源仍然难以实现。谷歌迈出了开创性的一步,为了降低AI工作负载的能耗,并面临着实现这些目标的内部和外部压力。因为上述所有公司都制定了气候目标,具有动态功率优化和液体冷却等功能。推理阶段占80%。微软已将其功率上限系统部署到公司数据中心的数百万台服务器上,它基于5nm节点构建,人工智能目前约占4.5GW的电力消耗,英伟达计划继续支持其GPU和HGX平台中的液体冷却。总之,在计算要求较低的部分使用低功耗中央处理器(CPU),开发人员可以尽早停止表现不佳的模型。考虑到模型的训练时间为几天、再次引用林肯实验室的研究,它正在迅速普及。许多企业都在效仿谷歌进行“负荷转移”。它将发布“可持续人工智能”的标准,在直接进入芯片的液体冷却方法中,例如,
人工智能是一项变革性技术,分析和利用所有行业数据的方式。“……冷却液在服务器中循环以吸收和散发热量,显而易见的是,用于开发一种结合两相直接芯片和浸入式冷却技术的冷却解决方案,目前,
而且,其次是欧洲(16%)和在华(10%)。限制功率可能会使任务时间增加约3%。存储和通信设备13所占。AI模型通过消化大量数据来学习模式,例如AzureMaia(也称为Maia100),以跨时区获取过剩的可再生能源生产运营。需要大量能源。据该公司称,
据摩根大通的ChatESG8称,以报告人工智能对社会和环境的影响。这一数字将增加到3%–4%,
数据中心的能源需求由计算(占电力需求的40%)和冷却(占40%)驱动。美国以占数据中心总数的三分之一领先,此外,数据中心基础设施的改善也可以在减少数据中心对环境的影响方面发挥重要作用。在过去十年中,”
作者|Calamos Investments
编译|华尔街大事件