株テーマ:HBM(広帯域メモリ)の関連銘柄

・新着情報

HBM型DRAM統合SoCを開発しているのはソシオネクストのみと見られる。HBM型DRAM統合SoCは、エヌビディア、AMD、インテルなどに限られている。メモリーテスト用ソリューションをHBM型DRAMのテストに適用したのは、世界で初めてで、ソシオネクストは今回の手法を、2つのMaster Die(ダイ)と、12個のHBM 3 DRAMを1パッケージ収めた次世代SoCにも適用する。

マイクロン・テクノロジーは、米政府による国内生産の取り組みで、工場建設プロジェクトの資金支援で60億ドル(約9250億円)超の補助金を受け取ると、報じられている。マイクロンはメモリ不況で大赤字だが、最先端HBMの量産開始、最先端HBMの需給逼迫と価格上昇が黒字転換の可能性を高めている。(6315)TOWAの切り返しも無縁ではあるまい。HBMはAI用GPUに必ず付属する。マイクロンの今期の生産予定分は完売しており、2025年8月期は大増産も期待出来る。


生成AI半導体市場の大きな成長により、HBM(High Bandwidth Memory)に対する注目度が高まっている。HBMは、DRAMチップを積層化し、高速・大容量のデータ処理を可能にする高・広帯域メモリ。

モルガン・スタンレーによると、2022年に19億ドルだった世界HBM市場規模は2023年に40億ドル(約6000億円)と倍以上に拡大した。2027年には330億ドルまで成長すると予想される。ゴールドマンサックスは、人工知能(AI)システムに不可欠な高帯域幅メモリ(HBM)チップ市場が、2022年の23億ドルから2026年までに230億ドルに急成長すると予測する。これは、エヌビディアがAIに特化した新しいGPUチップ「Blackwell」を発表したことに伴い、最新世代のHBMチップが必要になったことを受けての予測。


3D積層メモリ技術の一種で、平面メモリよりもはるかに広い電波や周波数の帯域幅を持っているため、大量の情報を処理できる。

SKハイニックスが業界初でHBM3の開発に成功し、これをAI用GPUで世界トップシェアを保有する米エヌビディアに独占的に供給することでHBM市場のトップシェアを獲得。直近では第5世代のHBM3Eも開発し、24年上期から量産する予定となっている。

SKハイニックスはAI半導体分野で世界市場シェア90%以上のエヌビディアと提携し、HBM業界1位になった。2023年の世界HBM市場シェアはSKハイニックスが53%、サムスン電子が38%、マイクロン・テクノロジーが9%。

SKハイニックスは、米国で半導体の組み立て工場の建設を検討していると明らかにした。投資規模は約40億ドル(約6000億円)となる見通しで、難易度が高いが、需要が拡大中の広帯域メモリー(HBM)の製造を睨んでいるようだ


生成AIではGPU(画像処理装置)と共にHBMが必須となっている。HBMはDRAMを10枚以上積層するほか、GPUと実装されることでコスト面から不良品が許されない繊細な製品であり、高品質確保のため検査時間もこれまでの数倍以上になる。


次世代DRAMのHBM(広帯域メモリー)でもコンプレッション成形が必須となっている。(6315)TOWAは、HBMの歩留まりを圧倒的に改善させ、ユーザーの支持を得ている。HBM向けの封止装置は納入を始めたばかりで、収益拡大の期待がかかる。

エヌビディアのジェンスン・フアン最高経営責任者(CEO)は、「データ処理速度を大きく引き上げたHBMがなければAIチップもない」と、発言している。第1世代のHBMは、128GB/s(4GB)で、ハイエンドGPUやネットワーク機器に使用されたが、今では第5世代のHBM3E・800GB/s(32GB)が次世代AIの主戦場になりつつある。

TOWAのコンプレッション方式封止装置は、AI半導体製造に欠かせないHBM(広帯域メモリー)の積層チップを、高精度かつ歩留まり向上を実現する。24年3月期に韓国半導体メーカーから15から20台の受注予定がある。これがSKハイニックスとサムスン電子である事は容易に想像できる。

レゾナックの絶縁接着フィルム「NCF」
HBMと呼ばれるメモリーを接続しながら多段積層するために使用。接着力、デバイスの接続信頼性、サブミクロン単位の厚み精度が要求される。レゾナックは、長年培った技術と経験を生かし、要求される品質を実現している。



DRAMのプローブ試験の重要度が高まるため、(6857)アドバンテストや、メモリ向けプロープカードで世界3位の(6871)日本マイクロニクス、(7729)東京精密、(6855)日本電子材料に恩恵が大きい。

ボンディング装置の(8035)東京エレクトロン、高性能DRAMの量産に向け半導体の後工程で使用するモールディング装置で世界最大手の(6315)TOWAも注目される。


・AI用高帯域幅メモリー(HBM)開発の流れ

SKハイニクス
HBM3で世界市場の約半分を占めていた。

マイクロン
HBM3=8層、24GB(ギガバイト)

サムスン
HBM3E=12層、36GB


HBM3市場の90%以上を占めているSKハイニックスはメモリーメーカーで最初に第5世代であるHBM3Eをエヌビディアに納品する。サムスン電子は業界で初めて開発したHBM3Eの12層製品を上半期中に量産する計画で、現在エヌビディアがテスト中。


HBM世代別比較表

HBM世代別比較表

世代 規格 データ転送速度 メモリ容量 主な用途
第1世代 HBM 128GB/s 4GB ハイエンドGPU、ネットワーク機器
第2世代 HBM2 256GB/s 8GB AI、HPC、データセンター
第3世代 HBM2E 400GB/s 16GB 次世代AI、HPC、データセンター
第4世代 HBM3 640GB/s 24GB 次世代AI、HPC、データセンター、超高性能コンピューティング
第5世代 HBM3E 800GB/s 32GB 開発中

HBM(広帯域メモリ) 関連銘柄

HBM(広帯域メモリ) 関連テーマ

半導体
IMEC HBM(広帯域メモリ) エヌビディア ガラス基板 三次元半導体 システムLSI ナノインプリント 半導体パッケージ 半導体商社 光チップレット

株式情報更新 (4月26日)


会員ログイン

パスワードを忘れてしまった場合

申込みがまだの方