Xeon Phi 3100 und 5110P: Intels erste GPU-Beschleuniger ab 2.000 US-Dollar
Was früher Larrabee hieß, wird nun wirklich zu einem kaufbaren Produkt: Intel hat zwei GPU-Beschleuniger der Serie Xeon Phi angekündigt. Der erste soll Ende Januar 2013 erscheinen, eine sparsamere Variante einige Monate später. Nvidia schießt sich schon einmal ein.
Ganz hat es Intel nicht mehr zum großen Launch geschafft, den Nvidia und AMD mit ihren GPU-Beschleunigern für die aktuelle Top-500-Liste bereits vollzogen haben. Während Nvidia mit dem Rechner Titan den schnellsten Computer der Welt ausgerüstet hat, kommt der einzige Rechner mit den Xeon-Phi-Beschleunigern in den Top Ten nur auf Platz sechs.
- Xeon Phi 3100 und 5110P: Intels erste GPU-Beschleuniger ab 2.000 US-Dollar
- Performance pro Watt kaum ideal
Aber immerhin hat Intel nun nach Jahren der Ankündigung und zahllosen Gerüchten einige Daten zu dem veröffentlicht, was seit dem Jahr 2006 als Larrabee bekannt war: Die ersten Many-Core-Prozessoren (MIC) des Unternehmens werden auf zwei Steckkarten mit den Namen Xeon Phi 3100 und 5110P zu finden sein.
Als erstes soll ab dem 28. Januar 2013 das Modell 5110P für 2.649 US-Dollar verfügbar sein. Es vereint 61 x86-Kerne, die mit je 1,1 GHz laufen. Dazu kommen 8 GByte GDDR5-Speicher. So viel Hardware benötigt viel Energie: 300 Watt TDP gibt Intel an. Die weiteren Kenngrößen, wie die Größe des 22-Nanometer-Dies oder die Zahl der vorhandenen, aber wegen geringer Ausbeute abgeschalteten Kerne, behält das Unternehmen für sich. Dass es 64 Kerne gibt, von denen nur 61 funktionieren, ist aber eine naheliegende Annahme.
Noch weniger Daten verrät Intel zum Xeon Phi 3110, der in der ersten Hälfte des Jahres 2013 erscheinen soll. Da er aber nur weniger als 2.000 US-Dollar kosten soll, 6 GByte Speicher und 225 Watt TDP mitbringt, dürfte es sich um eine abgespeckte Variante des Chips handeln. 20 Prozent weniger Speicher lassen auf 48 Kerne schließen - so viel sollen angeblich auch einige der unter den Codenamen "Knights Corner" und "Knights Ferry" an Wissenschaftler gelieferten Prototypen besessen haben.
Performance pro Watt kaum ideal |
- 1
- 2
Das Problem ist, dass du die Anwendungen zwar zum laufen kriegst aber der code halt 0 auf...
Im Prinzip könntest du die CPU auch raus nehmen, sofern die GPU die dafür notwendigen...
Also so wie jedes OS?
Auf den Websites von Intel wird der Chip tatsächlich als Grafikchip angepriesen. Es gibt...