機械学習モデルなどの高度なAI(人工知能)モデルのトレーニングには、時間、コスト、データに加えて、大量のエネルギーが必要になる。企業が大規模なデータセンターにデータを蓄積して、そのデータを使ってAIモデルをトレーニングするまでの間には、膨大な電力量を消費する。AI技術は企業に金銭的利益をもたらす反面、環境に害を及ぼす側面もある。
AI技術の利用に必要な電力量は、どの程度なのか。言語データを基に単語の出現頻度をモデル化した「言語モデル」を例に、具体的な数字を見てみよう。
NVIDIAは言語モデル「Megatron-LM」の最終版のトレーニングにGPU(グラフィックス処理プロセッサ)「NVIDIA V100」を512基使用し、9日を費やした。V100の1基当たりの消費電力は250〜300ワット。今回のトレーニングにおける1基当たりの消費電力を250ワットと想定すると、512基のV100の消費電力は12万8000ワット、つまり128キロワットだ。このシステムを9日間稼働させたということは、2万7648キロワット時の電力量をMegatron-LMのトレーニングに消費したということになる。
米エネルギー情報局によると、2019年における米国の1世帯当たりの年間平均電力量は1万649キロワット時だった。つまりMegatron-LMの最終版のトレーニングは、米国の3世帯分に相当する電力量を消費したということだ。
データセンターが消費する電力量
新しい技術により、AIモデルのトレーニングに必要なデータの量は以前より少なくなったものの、初期トレーニングには依然として大量のデータが必要だ。AIモデルを更新するにはさらにデータを追加しなければならない。
AI技術の複雑化に伴い、AIモデルが使用するデータはさらに増える見込みだ。そうなるとデータセンターが消費する膨大な電力量が問題になる。調査会社Deep Analysisの創業者アラン・ペルツ・シャープ氏は、「データセンターは環境に甚大な影響を及ぼす原因になる」と語る。
調査会社IDCの推計によると、2020年に世界中で生成されたデータは64.2Z(ゼタ)Bだった。エネルギーと気候分野のシンクタンクEnergy Innovationは、最大規模のデータセンターの中には100メガワット以上の電力容量が必要なものもあると分析する。
調査企業Synergy Research Groupの調査では、サーバ5000台以上、床面積1万平方フィート以上のデータセンター「ハイパースケールデータセンター」は2020年末時点で世界に約600カ所ある。これらのデータセンターが管理する全てのデータの保持に必要な電力量は不明だが、驚異的な数値になることは想像に難くない。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。