Antwort 1:

DDR-SDRAM-Speicher sind verpackte Komponenten, die auf eine Platine gelötet werden sollen. Diese Chips haben entweder einen 4b-, 8b- oder 16b-Datenpfad, und eine Gruppe von ihnen ist auf einem DIMM-Modul verbunden, um einen 64-Bit-Datenpfad zu bilden. Diese Komponentenpakete enthalten normalerweise nur einen Chip im Inneren, können jedoch mehr enthalten, wenn Sie eine höhere Kapazität benötigen.

HBM ist immer noch DRAM auf der Innenseite des Chips, was bedeutet, dass die Bitzelle dieselbe ist, aber fast alles andere ist anders. Unterschiedliche Chiparchitektur, unterschiedliche E / A, unterschiedliche Gehäusetechnologie.

HBM ist definiert als ein Stapel von HBM-Chips, bei denen die Chips über eine TSV-Verbindung (Through Silicon Via) verbunden sind. Die Verbindung des Chips wird verwendet, um breite Busarchitekturen aufzubauen. In einem HBM-Paket können bis zu 8 Chips gestapelt werden. Die Schnittstelle des Pakets besteht aus acht 128b-Bussen (Kanäle genannt), die jeweils eindeutig gesteuert werden.

Die Pinanzahl bei HBM ist sehr hoch und erfordert entweder Direktanbringung oder Silizium-Interposer-Technologie.

AMD ist der Branchenpionier für die Verwendung von HBM der 1. Generation auf seiner GPU. Xilinx verfügt über umfangreiche Erfahrung im Verbinden von Chips mit Silicon Interposer und hat Produkte angekündigt, die HBM der 2. Generation verwenden werden. Nvidia und Intel / Altera haben einige Ankündigungen zu solchen Technologien gemacht.


Antwort 2:

Obwohl Michael eine umfassende Antwort gegeben hat, möchte ich nur die Unterschiede zwischen den beiden hinzufügen:

  1. Verpackung: DDR-Speicher sind in der Regel Off-Chip-DIMMs (Dual Inline Memory Modules). Dies bedeutet, dass sie vom CPU-Chip getrennt und in einem Abstand von der CPU auf dem Motherboard sind (obwohl der Controller normalerweise mit der CPU verpackt ist sterben). HBM hingegen werden mithilfe der TSV-Verbindungen (Through Silicon Via) auf dem CPU-Chip verpackt und können übereinander gestapelt werden. Daher sind sie im Vergleich zu DDR-basierten DIMMs viel näher an der CPU (oder GPU). Bandbreite: Hier kommt tatsächlich der Vorteil von HBM ins Spiel. HBM-basierte DRAM-Speicher, die Teil desselben Pakets (On-Die) sind, wie es sich der Prozessor leisten kann, im Vergleich zu einem Off-Die-DIMM eine große Pin-Anzahl (für Befehl, Adresse und Daten) zu haben. Wenn die Pin-Anzahl eines DIMMs erhöht würde (z. B. für einen paralleleren Datenzugriff), müsste das CPU-Paket auch die Pin-Anzahl erhöhen, was eine Signalübertragung über die Motherboard-Platine unmöglich macht. HBM, das mit TSVs auf dem Chip verbunden ist, kann eine größere Pin-Anzahl bieten, was einen größeren Umfang des parallelen Zugriffs auf Daten ermöglicht (breiterer Bus mit mehr Kanälen), wodurch die Bandbreite erhöht wird. Latenz: Auch hier bietet HBM näher am Prozessor-Chip geringere Latenz im Vergleich zu DDR-basierten DIMMs. Aus Punkt 2 und 3 ist zu beachten, dass HBM im Vergleich zu einem DDR-basierten Modul einen höheren Durchsatz (Kombination aus Bandbreite und Latenz) bietet. Kapazität: Hier ist der DDR-Speicher der klare Gewinner. Da es sich um ein separates Modul handelt, kann es sogar mit 8 HBM-basierten DRAM-Chips, die auf dem CPU-Chip gestapelt sind, viel mehr Kapazität bieten. Protokoll- / PHY / IO-Design: HBM ist in Bezug auf das Protokoll (immer noch) eine abgeleitete Version von DDR verwendet Dual-Edge-Daten-Strobing), wobei der Hauptunterschied darin besteht, dass ein breiterer Datenbus neben einer größeren Anzahl von Kanälen mehr DQS-Strobe-Generierung erfordert. Das logische und elektrische PHY- und das E / A-Design für HBM unterscheiden sich aufgrund von Faktoren wie dem Speicher in der Nähe des Chips, Signalintegritäts- und Leistungsproblemen bei der Datenübertragung über TSVs und der Form des DRAM-Chips, die den Grundriss dieser Designs beeinflussen (wo die Verbindungen auf dem Würfel landen). Dieses Thema erfordert eine separate Diskussion an sich.

Aus Sicht der Anwendung werden DDR-basierte DRAM-DIMMs weiterhin als Hauptsystemspeicher für die meisten Client- und Serversysteme verwendet, während HBM für Anwendungen verwendet wird, die eine geringe Latenz, eine hohe Bandbreite, jedoch auf Kosten einer geringeren Kapazität erfordern. AMD hat HBM aktiv für seine diskreten GPUs verwendet, während einige andere Halbleiterunternehmen die HBM-basierten DRAMs als separaten lokalen Cache für High-End-Anwendungen auf Servern (KI, maschinelles Lernen usw.) verwenden, um eine große Datenmenge lokal (als System) zu speichern Gedächtnis), wodurch die Leistung gesteigert wird. Samsung hat versucht, das Wide IO (ähnlich wie HBM) als Systemspeicher für mobile SoCs zu verwenden.