Im Jahr 2020 machte Apple einen mutigen Schritt; Sie gaben Intel auf und wechselten zu ihrem proprietären Silizium, um ihre MacBooks mit Strom zu versorgen. Obwohl die Umstellung auf die ARM-Architektur von der x86-Designsprache einige Augenbrauen hochgezogen hat, hat Apple hat allen das Gegenteil bewiesen, als die MacBooks mit Apple-Silizium eine überwältigende Leistung pro geboten haben Watt.

Laut mehreren Experten war die Umstellung auf die ARM-Architektur ein wesentlicher Grund für die Steigerung der Leistung/Watt. Die neue Unified Memory Architecture spielte jedoch auch eine entscheidende Rolle bei der Verbesserung der Leistung der MacBooks der neuen Generation.

Was ist die Unified Memory Architecture von Apple und wie funktioniert sie? Finden wir es heraus.

Warum braucht Ihr Computer Arbeitsspeicher?

Bevor Sie sich mit Apples Unified Memory Architecture befassen, ist es wichtig zu verstehen, warum primäre Speichersysteme wie Random Access Memory (RAM) überhaupt benötigt werden.

Sie sehen, ein herkömmlicher Prozessor läuft während einer Taktrate von 4 GHz

instagram viewer
Turbo Schub. Bei dieser Taktrate kann ein Prozessor Aufgaben in einer Viertelnanosekunde erledigen. Speicherlaufwerke wie SSDs und HDDs können jedoch nur alle zehn Millisekunden Daten an die CPU liefern – das sind 10 Millionen Nanosekunden. Das bedeutet, dass die CPU in der Zeit zwischen der Verarbeitung der Daten, an denen sie arbeitet, und dem Empfang des nächsten Informationsstapels im Leerlauf ist.

Dies zeigt deutlich, dass Speicherlaufwerke nicht mit der Geschwindigkeit des Prozessors mithalten können. Computer lösen dieses Problem, indem sie primäre Speichersysteme wie RAM verwenden. Obwohl dieses Speichersystem Daten nicht dauerhaft speichern kann, ist es im Vergleich zu SSDs viel schneller – es kann Daten in nur 8,8 Nanosekunden senden: unendlich schneller als die derzeit schnellsten SSDs.

Diese geringe Zugriffszeit ermöglicht es der CPU, Daten schneller zu empfangen, sodass sie kontinuierlich Informationen verarbeiten kann, anstatt darauf zu warten, dass die SSD einen weiteren Stapel zur Verarbeitung sendet.

Aufgrund dieser Designarchitektur werden Programme in den Speicherlaufwerken in den RAM verschoben und dann von der CPU über die CPU-Register aufgerufen. Daher verbessert ein schnelleres primäres Speichersystem die Leistung eines Computers, und genau das tut Apple mit seiner Unified Memory Architecture.

Verstehen, wie traditionelle Speichersysteme funktionieren

Jetzt, da wir wissen, warum RAM benötigt wird, müssen wir verstehen, wie die GPU und die CPU es nutzen. Obwohl sowohl die GPU als auch die CPU für die Datenverarbeitung ausgelegt sind, ist die CPU für allgemeine Berechnungen ausgelegt. Im Gegenteil, die GPU ist darauf ausgelegt, die gleiche Aufgabe auf verschiedenen Kernen auszuführen. Aufgrund dieses unterschiedlichen Designs ist die GPU bei der Bildverarbeitung und dem Rendern hocheffizient.

Obwohl CPU und GPU unterschiedliche Architekturen haben, sind sie zum Abrufen von Daten von primären Speichersystemen abhängig. Auf einem herkömmlichen System mit einer dedizierten GPU gibt es zwei Arten von Random Access Memorys. Dies ist der VRAM und der System-RAM. Auch als Video-RAM bekannt, ist der VRAM für das Senden von Daten an die GPU verantwortlich, und der System-RAM überträgt Daten an die CPU.

Aber um Speicherverwaltungssysteme besser zu verstehen, schauen wir uns ein Beispiel aus dem wirklichen Leben an, in dem Sie ein Spiel spielen.

Wenn Sie das Spiel öffnen, kommt die CPU ins Spiel, und die Programmdaten für das Spiel werden in den System-RAM verschoben. Danach verarbeitet die CPU die Daten und sendet sie an das VRAM. Die GPU verarbeitet diese Daten dann und sendet sie an den RAM zurück, damit die CPU die Informationen auf dem Bildschirm anzeigt. In Fällen eines integrierten GPU-Systems teilen sich beide Rechengeräte denselben RAM, greifen aber auf unterschiedliche Bereiche im Speicher zu.

Dieser traditionelle Ansatz beinhaltet viele Datenbewegungen, die das System ineffizient machen. Um dieses Problem zu lösen, verwendet Apple die Unified Memory Architecture.

Wie funktioniert die Unified Memory Architecture auf Apple Silicon?

Apple macht einige Dinge anders, wenn es um Speichersysteme geht.

Bei generischen Systemen wird der Arbeitsspeicher über einen Sockel auf der Hauptplatine mit der CPU verbunden. Diese Verbindung führt zu Engpässen bei der an die CPU gesendeten Datenmenge.

Auf der anderen Seite, Apple-Silizium verwendet das gleiche Substrat für die Montage des Arbeitsspeichers und des SoC. Obwohl der Arbeitsspeicher in einer solchen Architektur nicht Teil des SoC ist, verwendet Apple ein Interposer-Substrat (Fabric), um den Arbeitsspeicher mit dem SoC zu verbinden. Der Interposer ist nichts anderes als eine Siliziumschicht zwischen dem SOC und dem RAM.

Im Vergleich zu herkömmlichen Sockeln, die zur Datenübertragung auf Drähte angewiesen sind, ermöglicht der Interposer dem RAM, sich über Silizium-Durchkontaktierungen mit dem Chipsatz zu verbinden. Das bedeutet, dass die Apple-Silizium-betriebenen MacBooks ihren RAM direkt in das Gehäuse eingebrannt haben, wodurch die Datenübertragung zwischen dem Speicher und dem Prozessor beschleunigt wird. Der RAM ist auch physisch näher an dem Ort, an dem die Daten benötigt werden (den Prozessoren), sodass die Daten früher dort ankommen, wo sie benötigt werden.

Durch diese unterschiedliche Anbindung des Arbeitsspeichers an den Chipsatz kann dieser auf hohe Datenbandbreiten zugreifen.

Bildnachweis: Apfel

Zusätzlich zu dem oben erwähnten Unterschied hat Apple auch geändert, wie die CPU und die GPU auf das Speichersystem zugreifen.

Wie bereits erwähnt, haben die GPU und die CPU in herkömmlichen Einstellungen unterschiedliche Speicherpools. Im Gegensatz dazu erlaubt Apple GPU, CPU und Neural Engine den Zugriff auf denselben Speicherpool. Aus diesem Grund müssen Daten nicht von einem Speichersystem zu einem anderen übertragen werden, was die Effizienz des Systems weiter verbessert.

Aufgrund all dieser Unterschiede in der Speicherarchitektur bietet das Unified Memory System dem SoC eine hohe Datenbandbreite. Tatsächlich bietet das M1 Ultra eine Bandbreite von 800 GB/s. Diese Bandbreite ist im Vergleich zu Hochleistungs-GPUs wie der wesentlich höher AMD Radeon RX 6800 und 6800XT, die eine Bandbreite von 512 GB/s bieten.

Diese hohe Bandbreite ermöglicht es CPU, GPU und Neural Engine, in Nanosekunden auf riesige Datenpools zuzugreifen. Darüber hinaus setzt Apple in der M2-Serie LPDDR5-RAM-Module mit 6400 MHz Takt ein, um Daten in erstaunlicher Geschwindigkeit zu liefern.

Wie viel Unified Memory benötigen Sie?

Nachdem wir nun ein grundlegendes Verständnis der Unified Memory Architecture haben, können wir uns ansehen, wie viel Sie davon benötigen.

Obwohl die Unified Memory Architecture mehrere Vorteile bietet, weist sie dennoch einige Mängel auf. Erstens ist der Arbeitsspeicher mit dem SoC verbunden, sodass Benutzer den Arbeitsspeicher ihres Systems nicht aufrüsten können. Darüber hinaus greifen CPU, GPU und Neural Engine auf denselben Speicherpool zu. Dadurch steigt der vom System benötigte Speicherplatz drastisch an.

Wenn Sie also jemand sind, der im Internet surft und eine Menge Textverarbeitungsprogramme verwendet, würden Ihnen 8 GB Speicher ausreichen. Wenn Sie Adobe Creative Cloud-Programme jedoch häufig verwenden, ist die 16-GB-Variante eine bessere Option, da Sie Fotos, Videos und Grafiken auf Ihrem Computer reibungsloser bearbeiten können.

Sie sollten den M1 Ultra mit 128 GB RAM auch in Betracht ziehen, wenn Sie viele Deep-Learning-Modelle trainieren oder an Videozeitleisten mit unzähligen Ebenen und 4K-Material arbeiten.

Ist die Unified-Memory-Architektur nur zum Guten?

Die Unified Memory Architecture auf Apple-Silizium nimmt mehrere Änderungen an den Speichersystemen auf einem Computer vor. Von der Änderung der Verbindung des Arbeitsspeichers mit den Recheneinheiten bis hin zur Neudefinition der Speicherarchitektur ändert Apple die Art und Weise, wie Speichersysteme entworfen werden, um die Effizienz ihrer Systeme zu verbessern.

Allerdings schafft die neue Architektur eine Race-Condition zwischen CPU, GPU und der Neural Engine und erhöht die Menge an RAM, die das System benötigt.