LPDDR5X ベースの 192GB SOCAMM2 で、
AI インフラ向け省電力ソリューションのリーダーシップをさらに拡大
2025 年 10 月 21 日、米国アイダホ州ボイシ — 今日、AI イノベーションはかつてないスピードで進展し、データセンターのエコシステム全体が、持続可能な成長を支える電力効率の高いインフラへの転換に取り組んでいます。AI システムではメモリの役割がますます重要となり、この転換の中心に低消費電力のメモリソリューションがあります。Micron Technology, Inc.(Nasdaq:MU)は本日、AI データセンターでの低消費電力メモリの導入拡大を目指し、192GB SOCAMM2(Small Outline Compression Attached Memory Module)の顧客向けサンプル出荷の開始を発表しました。
SOCAMM2 は、マイクロンが市場に初めて投入した LPDRAM SOCAMM の機能拡張モデルで、同等の省スペースのフットプリントで 50% の容量拡大を実現しました。この容量拡大により、リアルタイムの推論ワークロードでは最初のトークンまでの時間(TTFT)が大幅に短縮され、80% 以上の高速化が見込まれます*1。また、192GB 容量のSOCAMM2 は、マイクロン最先端の 1γ(1ガンマ) DRAM プロセス技術を採用し、電力効率を 20% 以上、向上させ*2、大規模データセンターにおけるクラスタ構成の電力設計で一層の最適化を実現します。この省電力化により、CPU に 50 テラバイトを超える低消費電力 DRAM メインメモリを接続できるなど*3、フルラック構成の AI クラスタで大きな効果があります。さらに、SOCAMM2 のモジュール設計は保守性を向上させ、将来的な容量拡張にも柔軟に対応できる基盤となります。
マイクロンは、5 年間にわたり NVIDIA と協業し、データセンターでの低消費電力サーバーメモリの導入を推進してきました。SOCAMM2 は、LPDDR5X の低消費電力と広帯域幅という固有の特性を AI システムのメインメモリに展開できるテクノロジーです。ますます高度化する超大規模コンテキストAIプラットフォームの要件に応えるべく設計された SOCAMM2 は、AI ワークロードに求められる高データスループットを維持すると同時に、電力効率を次世代レベルへと引き上げ、AI 学習/推論システムの新たな基準を確立します。これらの優位性により、SOCAMM2 は最先端 AI プラットフォームの主要なメモリソリューションとして、今後も重要な役割を果たすと期待されています。
マイクロンのクラウドメモリ事業部門シニア VP 兼ゼネラルマネージャーであるラジ・ナラシンハン(Raj Narasimhan)は「AI ワークロードが複雑化し要件が高度化する中、データセンターのサーバーは効率性を向上させながら、消費電力あたりのトークン生成数を最大化しなければなりません。SOCAMM2 モジュールは、マイクロンが実証してきた低消費電力 DRAM テクノロジーにおけるリーダーシップをもとに、AI データセンターの次世代サーバーに欠かせないデータスループット、電力効率、容量、品質のすべてを提供します」と述べています。
SOCAMM2 製品は、マイクロン独自の設計と強固な検証プロセスを経て、モバイル向けに設計された低消費電力 DRAM をデータセンタークラスへと転換させたソリューションです。マイクロンが培ってきたデータセンター向けの高品質 DDR メモリの豊富な実績を活かし、データセンター顧客が定める厳格な品質と信頼性の要件に準拠しています。
SOCAMM2 は同等容量の RDIMM と比較して電力消費を 3 分の 2 に削減し*4、パフォーマンスを維持しながらモジュールサイズを 3 分の 1 に縮小 しました*5。データセンターのサーバー設置面積を最適化し、容量と帯域幅を最大化します。SOCAMM のモジュール設計と革新的な積層構造は、保守性を向上させ、液冷サーバーの設計を支えます。
マイクロンは、JEDEC が定める SOCAMM2 仕様の策定にも積極的に参加しています。業界パートナー各社との緊密な協業を通じて、AI データセンターでの低消費電力メモリの採用を促進し、さらに業界全体規模での電力効率の向上に寄与する標準化を推進しています。現在、モジュールあたり最大容量 192GB、最大速度 9.6Gbps の SOCAMM2 の顧客向けサンプル出荷が始まり、量産は顧客の製品リリースに合わせて開始となる予定です。
参考資料
• SOCAMM2 Technology Enablement Program ウェブページ(英語)
*1: マイクロン社内で検証したパフォーマンス向上結果。テスト環境: Llama 3 70B モデル OSL=128 での推論処理、GH200 NVL2 構成(288GB HBM3E + 1TB LPDDR5x)、LMCache を使用
*2: マイクロンの前世代 LPDDR5X との比較
*3: NVL144 ラックシステムの公表された容量に基づく数値。
*4: 128GB 容量/バス帯域幅 128 ビットの SOCAMM2 x1 モジュールを使用してワット単位で算出。128GB 容量/バス帯域幅 128 ビットの DDR5 RDIMM x2 モジュールと比較した結果
*5: SOCAMM2 の基板面積(14x90mm)を標準的なサーバー RDIMM と比較して算出。
Micron Technology, Inc.について
マイクロンは、情報活用のあり方を変革し、すべての人々の生活を豊かにするために、革新的なメモリおよびストレージソリューションを提供するリーディングカンパニーです。顧客第一主義を貫き、テクノロジーの最前線でリーダーシップを発揮し続け、洗練された製造技術と事業運営を妥協なく追求するマイクロンの製品ポートフォリオは、DRAM、NAND、NOR の各種メモリからストレージ製品まで多岐にわたり、Micron® または Crucial® のブランドを冠した高性能な製品を多数展開しています。マイクロンで生まれた数々のイノベーションは、データの活用を加速すると同時に、人工知能や計算集約型アプリケーションといった最先端分野の進歩の基盤として、データセンターからインテリジェントエッジ、さらにはクライアントコンピューターとモバイルをまたいだユーザーエクスペリエンスまで、さまざまな事業機会を新たに生み出し続けています。Micron Technology, Inc.(Nasdaq:MU)に関する詳細は、micron.com をご覧ください。
© 2025 Micron Technology, Inc. All rights reserved. 情報、製品、仕様は予告なく変更されることがあります。マイクロン、マイクロンのロゴ、およびその他のすべてのマイクロンの商標は Micron Technology, Inc. に帰属します。他のすべての商標はそれぞれの所有者に帰属します。