ウィンボンド・エレクトロニクスは、主流のユースケースにおける手頃な価格のエッジAIコンピューティングを実現する、強力なテクノロジーを発表しました。
ウィンボンドの新しいCustomized Ultra-Bandwidth Elements(CUBE)は、ハイブリッドエッジ/クラウドアプリケーション上で生成AIのシームレスなパフォーマンスを実現するメモリテクノロジー最適化を可能にします。
ウィンボンド・エレクトロニクスCustomized Ultra-Bandwidth Elements(CUBE)
CUBEは、チップオンウェハ(Chip on Wafer / CoW)やウェハオンウェハ(Wafer on Wafer / WoW)などのフロントエンドの3D構造だけでなく、基板上のSiインターポーザおよびファンアウトソリューションにおけるバックエンドの2.5D/3Dチップのパフォーマンスも向上させます。
クラウドベースAIサーバーの需要の高まりに対応するべく設計されており、シングルダイで256Mビット~8Gビットのメモリ容量に対応、さらに高容量を必要とする場合WoWによる3Dスタックも可能です。
また、データ転送の消費電力を削減しながら帯域幅を強化します。
ウィンボンドはCUBEで大きな一歩を踏み出し、さまざまなプラットフォームやインターフェイスへのシームレスな展開を可能にします。
このテクノロジーは、ウェアラブル機器やエッジサーバー機器、監視機器、ADAS、コ・ロボットなどの先進アプリケーションに適しています。
ウィンボンドは、次のように述べています。
「CUBEアーキテクチャは、AI展開におけるパラダイムシフトを可能にします。
当社では、クラウドAIと強力なエッジAIの統合が、AI開発の次の段階を定義すると考えています。
CUBEによって、新たな可能性を解き放ち、強力なエッジAIデバイスにおけるメモリ性能の向上とコスト最適化への道を開きます」
CUBEの主な特徴は次のとおりです。
● 電力効率:CUBEは、消費電力1pJ/ビット未満という優れた電力効率を実現し、長時間の動作とエネルギー使用の最適化を確約します。
● 優れたパフォーマンス:ダイあたり32Gバイト/秒~256Gバイト/秒の帯域幅を備えたCUBEは、業界標準を上回る卓越したパフォーマンスを保証します。
● コンパクトなサイズ:CUBEは現時点でD1Yテクノロジー、2025年にはD1αテクノロジーに基づき、ダイあたり256Mビット~8Gビットまでの幅広い容量帯にて提供可能です。
これにより、より小さなフォームファクタに対応しています。
シリコン貫通ビア(Through-Silicon Vias / TSV)を導入することで、性能がさらに向上し、シグナルインテグリティ、パワーインテグリティが改善されます。
また、パッドピッチを小さくすることでIO面積が縮小し、トップダイにSoC、ボトムダイにCUBEを搭載した場合、放熱性も改善されます。
● 高帯域幅で費用対効果に優れたソリューション:
- 卓越したコストパフォーマンスを実現するCUBEのIOは、合計1K IOで最大2Gbpsという驚異的な速度を誇ります。
28nm/22nm SoCのようなレガシーファンドリープロセスと組み合わせることで、32Gバイト/秒~256Gバイト/秒(HBM2帯域幅)という超高帯域幅能力を発揮し、これは4-32個*LP-DDR4×4266Mbps×16 IOの帯域幅に相当します。
● SoCダイサイズの縮小によるコスト効率の向上:
- CUBE(TSV付きボトムダイ)の上にSoC(TSVなしトップダイ)を積層することで、SoCのダイサイズを最小化し、TSV面積の制約をなくすことができます。
これにより、コスト優位性が高まるだけでなく、エッジAIデバイスの全体的な効率にも貢献します。
ウィンボンドは、次のように述べています。
「CUBEは、ハイブリッドエッジ/クラウドAIの可能性を最大限に引き出し、システム性能、応答時間、エネルギー効率を高めることができます。
ウィンボンドによるイノベーションとコラボレーションへのコミットメントによって、開発者や企業は、さまざまな業界において進化を遂げることができます」
ウィンボンドは、CUBEの機能を活用した3DCaaSプラットフォームの確立に向け、パートナー企業と積極的な連携を進めています。
ウィンボンドは、CUBEを既存のテクノロジーに組み込むことで、AIによる変革の時代に企業が成功するための最先端のソリューションを提供することを目指しています。