Huma: Gemeinsamer Speicher für CPU und GPU nicht nur für PS4
Mit der Architektur "Huma" wird AMD Ende 2013 auch PC-Chips ausstatten. CPU und GPU haben dann einen einheitlichen Speicher, der von beiden Prozessoren angesprochen werden kann. Das bringt Tempo und Vereinfachungen für Programmierer.
Unter dem Namen "Heterogeneous Uniform Memory Access" (Huma) hat AMD eine neue Speicherarchitektur für seine kommenden APUs vorgestellt. In PCs soll Huma erstmals mit Kaveri Einzug halten. Diese APU mit Steamroller-Kernen und einer GCN-Grafikeinheit will AMD Ende des Jahres 2013 vorstellen.
- Huma: Gemeinsamer Speicher für CPU und GPU nicht nur für PS4
- Zero Copy mit Erweiterungen
Huma unterscheidet sich schon im Namen leicht von dem, was seit Jahrzehnten als "Unified Memory Access" (Uma) bei PCs bekannt ist. Bei Uma gibt es zwar physikalisch gemeinsamen Speicher für CPU und GPU, dieser wird aber von den beiden Prozessoren getrennt angesprochen und verwaltet. Dazu muss die GPU einen festen Teil des Hauptspeichers belegen, der für die CPU nicht mehr zur Verfügung steht. Das ist jedoch nur einer der Nachteile von UMA.
Der größte ist, dass zwischen den von CPU und GPU belegten Bereichen kein direkter Austausch vorgesehen ist. Wenn beispielsweise die GPU Daten benötigt, an denen die CPU gerade arbeitet, müssen diese Daten erst vom CPU- in den GPU-Speicher kopiert werden. Die Daten sind also doppelt vorhanden, was unnötig viel Speicher belegt. Zudem braucht das Kopieren Zeit, während der Prozessor, der sie braucht, kaum etwas anderes tun kann.
Die getrennte Adressierung von Daten ist also reichlich unelegant, und deshalb hat AMD mit Huma die Speicherbereiche gleich als "uniform" zusammengefasst. Huma kennt in der Logik von CPU und GPU nur noch einen Speicher, keine getrennten Bereiche mehr. Dafür erhalten die Daten nicht mehr feste, sondern für jeden Prozessor eigene virtuelle Adressen. Diese bezeichnet AMD als "Pointer" - wie sie technisch realisiert sind, hat das Unternehmen noch nicht verraten.
Zero Copy mit Erweiterungen |
- 1
- 2
Nein, immer noch nicht. Es ist immer noch min. Double Buffering. Beim Double Buffering...
Das ist so nicht ganz korrekt :) An sich hast du recht. Die hohe Parallelisierung macht...
Das Konzept gab es auch schon bei 8-Bit Rechnern (Apple, Commodore, Atari usw.). GPU ist...