Stromsparer

Supercomputer mit GPUs könnten starke Konkurrenz werden

ISC

Der Grafikchiphersteller Nvidia drängt in den Markt der Supercomputer. Mit dem Erreichen des zweiten Platzes in der Top500 der Supercomputer ist es dem Chipdesigner gelungen, die derzeit ungewöhnliche Kombination aus GPUs und CPUs ganz nach vorne zu bringen und dabei auch noch deutlich weniger Leistung aufzunehmen.

Artikel veröffentlicht am ,

Der Supercomputer Nebulae mit Nvidias Tesla-C2050-Karten, Codename Fermi, ist Chinas schnellster Supercomputer und weltweit im Linpack-Benchmark die Nummer zwei. Mit der ungewöhnlichen Kombination - die Top500 wird bisher von CPU-basierten Rechnern beherrscht - hat der vergleichsweise junge Teilnehmer in der HPC-Szene gezeigt, dass ein anderer Weg auch zum Ziel führen kann.

  • Ab 2010 will Nvidia in der Top500 mehr Bedeutung gewinnen.
  • Wachstum durch HPC
  • Entwicklung mit GPUs
  • Nvidia sieht sich gut aufgestellt.
  • OpenCL auf Tesla-Karten
  • Die unscharf dargestellten grünen Punkte sind Supercomputer mit Nvidias Technik.
  • Große Vorteile für Nvidia? Intels Knights Corner ist hier allerdings noch nicht berücksichtigt worden.
Ab 2010 will Nvidia in der Top500 mehr Bedeutung gewinnen.

Das Besondere an Supercomputern, die auf Nvidias Fermi, aber auch auf anderen GPUs aufsetzen, ist anscheinend die niedrige Aufnahme elektrischer Leistung. Für den Betreiber eines Supercomputers ist das ein großer Vorteil, schließlich muss das System nicht nur angeschafft, sondern auch betrieben werden. Auf die zu erwartende Stromrechnung wird dabei auch geschaut. Laut Nvidia nimmt Nebulae zwischen 2 und 3 Megawatt auf und erreichte in der Top500 einen Linpack-Wert von 1,271 PFlops. Damit liegt dieser Supercomputer deutlich unterhalb der Nummer 1, Jaguar, die für 1,759 PFlops fast 7 Megawatt benötigt. Das klingt paradox, denn Nvidias Fermi gilt in Desktops sonst nicht als besonders stromsparend. Bei Supercomputern wird in ganz anderen Dimensionen gerechnet. Nvidias Angabe ist allerdings nicht offiziell und taucht deswegen nicht in der Top500-Liste auf.

Für Nvidia sind GPUs für High-Performance-Computing eine Möglichkeit, die Firma weiter wachsen zu lassen. Noch investiert die Firma aber überwiegend. Nvidia ist allerdings nicht allein im Feld der GPU-Supercomputer. Chinas zweitschnellster Rechner ist mit AMD-GPUs der Radeon-4000-Serie bestückt und nimmt in der jetzigen Liste Platz 7 ein. Bei der letzten Listung erreichte Tianhe-1 noch den fünften Platz. Zudem hat Intel gerade erst bekanntgegeben, sein Grafikkartenprojekt Larrabee lieber in Supercomputern unterzubringen. Bis hier erste Installationen vorhanden sind, wird es aber noch dauern. Intels Lösung verspricht, besonders stromsparend zu sein.

Nvidia selbst rechnet langfristig damit, nur halb so viel Energiebedarf für dieselbe Rechenleistung zu haben wie eine vergleichbare x86-Lösung. Für 5 PFlops mit einer x86-Lösung sollen 20 Megawatt benötigt werden. Ein Tesla-basiertes System soll hingegen mit nur 10 Megawatt auskommen. Mit Knights Corner alias Larrabee hat die Firma allerdings wohl nicht gerechnet.

Doch GPU-basierte Systeme sollen ihre Probleme haben. Der Code muss teils komplett neu geschrieben werden, da es nicht immer möglich ist, alle Daten eines Zwischenschritts einer Berechnung über den vergleichsweise langsamen PCIe-Bus zur Grafikkarte zu schicken. Besser wäre es, die meisten Rechenaufgaben gleich auf die GPU auszulagern, damit nur dort Datenmengen für Zwischenschritte anfallen und am Ende idealerweise nur das kleine Ergebnis herauskommt. Zumindest gab es Klagen, dass die PCIe-Anbindung in bestimmten Fällen nicht schnell genug ist. Diese Probleme existieren in diesem Umfang im vom x86 dominierten Markt anscheinend nicht. Die Effizienz von GPU-basierten Supercomputern hochzutreiben ist ein aufwendig zu lösendes Problem, wie von mehreren Seiten auf der ISC10 zu hören war.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
20 Jahre Far Cry
Das deutsche Grafikwunder

Mit Far Cry feierte der deutsche Entwickler Crytek 2004 ein viel beachtetes Debüt. Kann der Südsee-Shooter auch 20 Jahre später noch beeindrucken?
Von Benedikt Plass-Fleßenkämper

20 Jahre Far Cry: Das deutsche Grafikwunder
Artikel
  1. Softwareentwicklung: Events und APIs mit DDD entwerfen
    Softwareentwicklung
    Events und APIs mit DDD entwerfen

    Anforderungen an Software ändern sich schneller als je zuvor. Damit Entwickler da mitkommen, sollten sie Domain-driven Design nutzen. Wie das geht, zeigen wir an einem Beispiel.
    Von Annegret Junker

  2. KI-PCs: Microsoft erwartet von NPUs mindestens 40 TOPS
    KI-PCs
    Microsoft erwartet von NPUs mindestens 40 TOPS

    Der in Windows integrierte Copilot soll wesentliche KI-Funktionen künftig lokal auf der NPU und nicht mehr in der Cloud ausführen.

  3. Elektromobilität: Warum der Elektroauto-Hype erst anfängt
    Elektromobilität
    Warum der Elektroauto-Hype erst anfängt

    In den vergangenen Wochen konnte man den Eindruck gewinnen, als sei das Elektroauto schon abgeschrieben. Doch das scheint eine typisch deutsche Debatte zu sein.
    Eine Analyse von Friedhelm Greis

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Prime: Filme leihen für 0,99€ • Super Sale bei Alternate • MindStar: CHERRY Xtrfy MZ1 RGB Wireless 79€ • Alternate: DeepCool LS520 76,89€, Corsair RM850x 124,90€ und 750x 109,90€, ADATA 64-GB-Kit DDR5-6000 206,89€ • Gratis-Zugaben PS5 Slim & Nintendo Switch OLED beim TV-Kauf [Werbung]
    •  /