ここから本文です
Yahoo!ファイナンス
投稿一覧に戻る

日本電信電話(株)【9432】の掲示板 2024/05/03〜2024/05/08

現在の大規模データセンターは約100〜150MWの電力を消費しています。

エヌビディアのGPU「A100」は1台で250Wを消費し、「B200」は約1kWを消費しますので、1MWのデータセンターは1000〜2000個のGPUをサポート出来ることになります。

chatGPTの大規模言語モデル「GPT-4」は15000〜25000個のGPUを使用してトレーニングされているため、電力消費量は15〜25MWと推定出来ます。

次期モデル「GPT-5」は10倍の処理能力を必要と仮定すると1〜2.5GWのデータセンターが必要になりますが、その規模のデータセンターは現在存在しないため、生成AIは頭打ちとなります。

現在のペースでAIの処理能力をスケールアップし続けるために必要なGPUの処理能力と電力消費量の相関関係を考慮すると、データセンター誘致地域には複数の原発稼働が必要になるため、将来的に持続不可能になりつつあります。

NTTがデータセンターへの大規模投資と、電力効率の良いIOWNを研究開発しているのは、こういった背景があると個人的に思っています(知らんけど)。