生成AIの開発競争が激化しているというニュースが多くなってきました。これにともなって将来的な電力の需要が加速的に伸びるという話も増えてきたように思われます。
今回はS&Pグローバルの記事を要約しながら、これからの電力需要がどうなるかを考えてみたいと思います。
電力需要の増大の予測
電力需要が増えるという話を聞くと、昨年までは仮想通貨の採掘の影響の話が思い起こされました。今年に入ってからはモビリティシフトによって電気自動車(EV)の台数が増えることによる電力需要の懸念の話が多くなっていたような気がします。
ところが最近では生成AIの開発競争の激化に伴って、将来的に半導体需要とともに電力需要の増大の予測を聞くことが増えてきたようです。
ーーー 要約 ーーー
- 2030年までにAIは世界の電力需要の3%から4%を占める可能性がある。グーグルでは現在AIのための年間電力使用量が2.3TWh、10%から15%を占めている
- グーグル検索にChatGPTのような生成AIを実装するためには、Nvidiaの410万個のGPUを積んだA100 HGXサーバ(現在一台200万円ほど)が50万台以上必要になる。計算上では、一台6.5kWとして一日80GWh、年間29.2TWhのエネルギー消費量になる
- AIの開発が急速に進むとグーグルなどの企業のエネルギー消費が大幅に増大する
- 2023年から2030年にかけて米国のデータセンターの電力需要は80%増加すると予測され、約19GWから約35GWになると見込まれている
- AIをトレーニングするための初期の電力需要は通常のデータセンターよりも高く、AI用のプロセッサを搭載したサーバーのラックは30kWから40kWを使用しており、これは従来のものより2,3倍になっている
- 電力消費を減らすような新しいモデルのトレーニング方法が必要とされている
- 電力使用量はAIの種類によっても異なり、生成AIのような推論を行うもの、大規模言語モデルは電力消費が大きい
- 特に学習過程での電力消費が大きく、ChatGPTクラスのものを訓練するためには1つのクエリに使われる電力の10億倍以上の電力が使われる
- データセンターの電力消費を抑えるために、データセンターの構造や制御、学習アプリケーションの動作、サーバの負荷割り当て規則などをAIによって行わせる取り組みが始まっている
- 電気自動車などの充電設備を利用して電力需要の時間的変化に対応させるバーチャル発電所が構想されており、AIの訓練用アプリケーションをこれに対応させて、電力供給に余裕がある時間に機動的に訓練を行うといったことが計画されている
このようにAIの開発に電力がかなり必要になってくることは間違いないようです。電力利用のためのいろいろな工夫が考えられてはいるようですが、絶対的な発電量が足りなくなるのも時間の問題ということなのでしょう。
電力会社はカーボンニュートラルや再生可能エネルギーの利用を課せられており、供給を加速的に増やすことは難しいでしょう。グーグル、マイクロソフト、アマゾンといったAI開発事業者は自社用の発電施設を増設、新設を行うでしょう。
しかしそれでも発電費用の高騰はおそらく避けられないでしょうから、結果的に市場原理によって開発のペースは抑えられることになるのではないでしょうか。
仮想通貨やEVのための電力需要も含めて電力の供給がタイトになり、今後は米国内の一般の消費者も電気代の高騰のあおりを受けることになってゆく可能性は高そうです。
国内は昨年も節電の呼びかけが行われるほどでしたし、予測される電力需要の増大に対応できるほどの発電能力を大幅に上げるような投資が行われる可能性は高くはなさそうです。データセンターがほとんどないのでこうした心配はいらないのでしょうが、別の心配が出てきそうに思います。
とはいえEVなどへの対応もありますから、いずれにしても近く電力については課題になってくるのではないでしょうか。
コメント