グーグル、AIメモリを6分の1に圧縮する新技術発表
グーグルが発表した新技術により、AI処理に必要なメモリ使用量を大幅に削減できることが明らかになりました。この発表を受け、AI向けメモリ関連銘柄の株価が下落しています。
グーグルは28日、人工知能(AI)処理に必要なメモリ使用量を従来の6分の1まで圧縮する新技術を発表しました。この技術は「Adaptive Memory Optimization(AMO)」と名付けられ、大規模言語モデルの推論処理において劇的な効率化を実現するとされています。
同技術は、AI処理の際に必要となるデータの重要度を動的に判定し、優先度の低い情報を一時的に圧縮保存することで、メモリ使用量を大幅に削減します。従来のAI処理では、大容量のメモリが必要とされていましたが、この技術により同等の性能を維持しながら必要メモリ量を83%削減できるとみられます。
この発表を受け、AI向けメモリ製品を手がける関連企業の株価が軒並み下落しました。米国市場では、高帯域メモリ(HBM)製造大手の株価が前日比12%下落したほか、国内でも半導体メモリ関連銘柄が売り込まれる展開となっています。
AI処理に使用される高性能メモリの市場は、この半年間で価格が約4倍に高騰するなど急速な拡大を見せていました。特にデータセンター向けのHBMメモリは供給不足が深刻化しており、製造各社は24時間体制での生産を続けている状況でした。
業界関係者は、グーグルの新技術がAI業界全体に与える影響について注視しています。メモリ効率の大幅な改善により、これまで高コストだったAIサービスの運用コストが削減される可能性がある一方で、メモリ需要の急減により関連企業の業績に影響を与える懸念も指摘されています。
グーグルは同技術を2026年第2四半期から自社のAIサービスに段階的に導入する予定としています。また、他の技術企業への技術提供についても検討しているとされ、AI業界のメモリ使用量削減に向けた取り組みが今後加速する可能性があります。
専門家は、この技術革新がAI開発の民主化を促進し、より多くの企業がAI技術を活用できる環境整備につながるとの見方を示しています。一方で、メモリ業界は新たなビジネスモデルの構築が急務となり、業界構造の変化が予想されます。
