グーグル、AIメモリ使用量を6分の1に削減する「TurboQuant」技術発表
グーグルがAIモデルのメモリ使用量を大幅に削減する新技術「TurboQuant」を発表。半導体メモリー需要の構造変化が予想される。
グーグルは3月27日、人工知能(AI)モデルのメモリ使用量を従来の6分の1まで圧縮できる新技術「TurboQuant」を発表した。この技術により、大規模言語モデル(LLM)の運用コストを大幅に削減できるとしており、AI業界に大きなインパクトを与えている。
TurboQuantは、AIモデルの重みパラメータを効率的に量子化する技術で、従来の32ビット浮動小数点から2ビット整数への変換を可能にする。グーグルの発表によると、同技術を適用したLLMは性能劣化を5%以内に抑えながら、メモリ使用量を約83%削減できるという。
この発表を受けて、AIメモリ関連企業の株価に影響が波及している。3月28日の取引開始前段階で、メモリ専業メーカーの株価は軒並み下落しており、業界関係者からは「メモリ需要の構造的変化が加速する可能性がある」との指摘も出ている。
近年、AI技術の発展により半導体メモリの需要は急激に拡大している。業界データによると、AI向けメモリの価格は過去半年で約4倍に上昇し、製造各社は24時間体制で生産を続けても需要に追いつかない状況が続いていた。
しかし、TurboQuantのようなメモリ効率化技術の普及により、今後のメモリ需要予測には不確実性が増している。専門家の間では「技術革新によりメモリ需要の伸び率が鈍化する可能性がある一方で、AI応用分野の拡大により総需要は増加するとみられる」との分析もある。
グーグルは同技術のオープンソース化も検討しているとしており、他のAI開発企業への技術普及が進めば、AI業界全体の運用コスト削減につながる可能性がある。一方で、メモリ業界では新たなビジネスモデルの構築が急務となりそうだ。
今後は、メモリ効率化技術の進展とAI応用領域の拡大という相反する要因が、半導体メモリ市場にどのような影響を与えるかが注目される。業界関係者は「短期的にはメモリ価格の調整局面もありうるが、中長期的にはAI技術の普及により新たな需要創出が期待される」としている。
