您的位置:首页>信息>

数据中心和大型AI模型使用大量能源并对环境有害

训练高级 AI 模型需要时间、金钱和高质量的数据。它也需要能量——很多。

在将数据存储在大规模数据中心,然后使用该数据训练机器学习或深度学习模型之间,AI 能耗很高。虽然人工智能系统可能会带来金钱回报,但人工智能会带来环境问题。

OpenAI在 45 TB 的数据上训练其 GPT-3 模型。为了训练 MegatronLM 的最终版本(一种类似于 GPT-3 但小于 GPT-3 的语言模型),Nvidia在 9 天内运行了512 个 V100 GPU。

单个 V100 GPU 的功耗在 250 到 300 瓦之间。如果我们假设 250 瓦,那么 512 V100 GPUS 消耗 128,000 瓦,或 128 千瓦 (kW)。运行 9 天意味着 MegatronLM 的培训成本为 27,648 千瓦时 (kWh)。

根据能源信息署的数据,平均每个家庭每年使用 10,649 千瓦时。因此,训练最终版本的 MegatronLM 几乎消耗了三个家庭一年使用的能量。

新的训练技术减少了训练机器学习和深度学习模型所需的数据量,但许多模型仍然需要大量数据来完成初始训练阶段,并需要额外的数据来保持最新状态。

数据中心能源使用

随着AI 变得越来越复杂,预计某些模型将使用更多数据。这是一个问题,因为数据中心使用了大量的能源。

“数据中心将成为对环境影响最大的事物之一,”分析公司 Deep Analysis 的创始人 Alan Pelz-Sharpe 说。

免责声明:本文由用户上传,如有侵权请联系删除!