Open ACC: Code für CPUs und GPUs automatisch parallelisieren

Die Hardwarehersteller Cray und Nvidia sowie die Softwareentwickler PGI und Caps haben OpenACC vorgestellt. Damit soll ein offener Standard für die automatische Parallelisierung von Programmen auf CPUs wie GPUs entstehen.

Artikel veröffentlicht am ,
Der Compiler schlägt Parallelisierung auf der GPU vor.
Der Compiler schlägt Parallelisierung auf der GPU vor. (Bild: Nvidia)

Wer bisher parallelisierte Anwendungen für CPUs und GPUs schreiben musste, hatte dabei mit verschiedenen Entwicklungswerkzeugen zu tun. So stellte beispielsweise Intel viele Tools für CPUs zur Verfügung, die sich in IDEs einklinkten, die CUDA-Werkzeuge von Nvidia waren aber ebenfalls noch nötig.

Wo der Code dann genau landete, ob auf der CPU oder der GPU, war ebenfalls Sache des Entwicklers - das soll sich nun ändern. Mit OpenACC, das allgemein für "Beschleuniger" steht, und keine Abkürzung ist, soll der Compiler selbst vorschlagen, wo sich Code durch Einsatz von GPUs optimieren lässt.

  • Das Konzept - der Compiler gibt Hinweise (Bilder: Nvidia)
  •  
  •  
  •  
  • Das Angebot gilt ab Erscheinen der PGI-Compiler im ersten Quartal 2012
  •  
  •  
  •  
Das Angebot gilt ab Erscheinen der PGI-Compiler im ersten Quartal 2012

Die Compiler dafür, die die Portland Group (PGI) und Cray im ersten Quartal 2012 vorstellen wollen, sollen dabei in den Code nach einer ersten Komplierung "Hints" einfügen. Werden sie vom Programmierer bestätigt, soll der Compiler selbsttätig die Parallelisierung vornehmen.

Das klingt ein bisschen wie Zauberei, ist aber nur das Ergebnis der Integration von Schnittstellen wie Nvidias CUDA und dessen Performance-Primitives in die Compiler. Viele Standardaufgaben wie eine FFT beherrschen die CUDA-Bibliotheken schon lange - nur mussten diese Funktionen bisher von Hand und als für die GPU gedacht gekennzeichnet in Programme eingebaut werden.

Der GPU-Hersteller ist auch die treibende Kraft hinter OpenACC. Wie Nvidias CUDA, das sich in C oder Fortran programmieren lässt, sollen die OpenACC-Compiler diese beiden Sprachen unterstützen. Eine Koexistenz mit OpenCL, das als etablierter Standard ebenfalls CPUs und GPUs unterstützt, ist laut der FAQ des Gremiums möglich, aber noch nicht umgesetzt.

Doppelt so schnell oder Geld zurück

Die Performance-Versprechen sind gegenüber den zigfachen Beschleunigungen, die Nvidia gerne für den Einsatz von GPUs angibt, bisher noch moderat. Die ersten 1000 Entwickler sollen das Geld für die OpenACC-Compiler zurückerhalten, wenn sie die Geschwindigkeit ihrer Anwendungen nicht in vier Wochen verdoppeln können.

Da Ziel von OpenACC ist über die vereinfachte Programmierung hinaus auch portabler Code, der einmal erstellt wird und dann je nach System CPUs oder GPUs nutzt. Spannend bleibt bei diesem Ansatz, ob sich auch die anderen Hersteller geeigneter Hardware an der Initiative beteiligen - AMD und Intel haben sich dazu bisher noch nicht geäußert.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Windows
Smart-TV bringt Computer zum Absturz

Über Jahre sind bei der Sound-Designerin Priscilla Snow immer mehr Funktionen ihres PCs ausgefallen, bis er fast unbrauchbar war. Als Übeltäter hat sich ihr Hisense-Fernseher herausgestellt.

Windows: Smart-TV bringt Computer zum Absturz
Artikel
  1. Fritzbox: AVM bestätigt gute Einigung mit Huawei zu Patenten
    Fritzbox
    AVM bestätigt "gute Einigung" mit Huawei zu Patenten

    Trotz viel Geheimhaltung lobt AVM die Einigung mit Huawei zu Wi-Fi-Patenten. Die Workarounds für die Fritzbox werden zurückgenommen.

  2. Militär: Laserantrieb soll chinesische U-Boote leise machen
    Militär
    Laserantrieb soll chinesische U-Boote leise machen

    Es könnte der Albtraum für die Gegner sein: ein U-Boot mit Laserantrieb, das sehr schnell und leise durchs Wasser gleiten soll.

  3. KI-Modell: Microsoft stellt mit Phi-3 Mini ein LLM für das iPhone vor
    KI-Modell
    Microsoft stellt mit Phi-3 Mini ein LLM für das iPhone vor

    Microsoft hat mit Phi-3 Mini sein bisher kompaktestes KI-Modell vorgestellt. Es soll die Leistung von GPT 3.5 bieten, läuft aber auch auf dem iPhone.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Galaxy S23 400€ günstiger • MindStar: Radeon-Grafikkarten zu Tiefstpreisen • Alternate: Asus Gaming-Laptop 899€ statt 1.599€ • Anker USB-Ladegeräte -45% • MSI MEG 342CDE OLED 999€ • Gamesplanet Spring Sale [Werbung]
    •  /