人工知能(AI)への投資が、テクノロジー大手や各国政府、ベンチャーキャピタリスト(VC)によって前例のない水準で急増している。その背景には、投資の焦点が従来の大規模言語モデル(LLM)から、推論モデルやAIエージェントといった技術にシフトしていることがあるようだ。
推論モデルは、その高度な能力ゆえに、従来モデルをはるかに上回るコンピューティングリソース(計算資源)を必要とする。これがデータセンターや高性能チップへの需要を爆発的に押し上げると予測されている。
推論モデル、はるかに多くのリソースを消費
米ウォール・ストリート・ジャーナル(WSJ)によれば、LLMのトレーニング(学習)には依然として、膨大な電力と計算時間が必要である。しかし、最近は必要なリソースの量を減らす方法が研究されている。一方、推論モデルはLLMを基盤とするものの、その実際の動作には、半導体と電力の両面で従来のLLMよりもはるかに多くのリソースを消費することが示されるようになった。
先ごろ、中国スタートアップのディープシーク(DeepSeek、深度求索)の生成AIが市場を動揺させた。なぜなら、同社のAIモデルが他のモデルに比べて非常に低いコストでトレーニングできることが示されたからだ。同時に、ディープシークのAIモデルは推論に重点を置く手法で、論理的思考(リーズニング)能力を高めたとされる。すなわち、ディープシークはAIモデルの開発手法やその投資対象を、従来のトレーニングからリソース集約型の推論モデルへと移行させた。今後、推論モデルが普及することで、全体的なコンピューティング需要は増加の一途をたどると言われている。

本記事は、日本ビジネスプレス社のサイト「JBpress(日本ビジネスプレス)」向けに弊社が執筆した記事「AI投資は前例なき水準で急増、けん引役は「推論モデル」 データセンター需要も爆発的 コンピューティング需要はトレーニングから推論へシフト」の一部です。全文は、JBpress(日本ビジネスプレス)のサイトにてお読みください。