The (simulated) Machine: Bios und Betriebssystem können nun entwickelt werden
The Machine macht Fortschritte. Das neu gedachte Computersystem befindet sich im Simulationsmodus, und das Geschwindigkeitspotenzial hat HP bereits demonstriert. Einzelne Teile der Entwicklung können damit beginnen.
Hewlett-Packards Ansatz für neue Computer ist einen großen Schritt weiter. Anders als bei der Ankündigung auf der HP Discover in Las Vegas funktioniert The Machine jetzt schon. HPs Technikchef und Leiter des Projekts, Martin Fink, nennt sie The Simulated Machine und hat sie auf der HP Discover in Barcelona vorgestellt.
Das heißt, dass The Machine jetzt zumindest als Simulation schon starten kann. Wichtig sei das für Bios, Firmware und Betriebssystementwickler, sagte Fink. Richtige Hardware gibt es bisher nur zum Teil. So ist das Gehäuse für die kommende Hardware schon fertig. Es handelt sich dabei um ein mehrere Höheneinheiten hohes Rack. Fink betonte aber, dass The Machine weiterhin als stark skalierendes System konzipiert sei. Zum einen als 160-Serverschränke-System, bei dem der Zugriff auf jedes Bit im 160-PByte-Speicher nur wenige hundert Nanosekunden dauern soll. Und zum anderen so klein, dass es auch für das kommende Internet der Dinge geeignet sein soll.
Dafür sind allerdings weiterhin einige Probleme zu lösen. 2015 erwartet HP etwa das Sampling der ersten vielversprechenden Memristor-Speichertechnik. Diese ist zwar nicht gerade schnell. HP glaubt, dass DRAM 8-mal schneller als Memristor-Speicherbausteine sein wird. Aber im Vergleich zum Flash-Speicher ist die neue Technik immerhin 100-mal so schnell. Zudem gibt es in The Machine nur diesen einen nicht flüchtigen Speichertyp. DRAM, SSDs und Festplatten soll es in Zukunft nicht mehr geben. In einem Block, der etwas größer als eine 3,5-Zoll-Festplatte ist, sollen 4 TByte an Daten gespeichert werden. Mit der Perspektive auf 100 TByte, sobald Memristor mit 10-nm-Strukturen und mehrlagigen Schichten produziert werden kann. In Zukunft hofft Fink sogar darauf, volatile Caches in Prozessoren durch nicht volatile Techniken ersetzen zu können. Es wäre der "ultimative Traum", wie er sagt.
Auch die Kommunikation zwischen den Systemen soll verbessert werden. Bisher waren 6 TBit/s für die Photonics-Technik angedacht. Ein zweiter Forschungsansatz, der parallel entwickelt wird, lässt auf 20 TBit/s hoffen.
Um das Potenzial von The Machine zu verdeutlichen, hat Fink die Suche nach ähnlichen Bildern im Vergleich demonstriert. Dabei musste ein Festplattensystem vier Millionen Bilder durchsuchen. Das dauerte so lange, dass HP den Versuch nicht komplett durchführte. Eigentlich hätte die Suche drei Minuten dauern müssen. Ein In-Memory-System brauchte bei nun 80 Millionen Bildern 1.624 ms. Die simulierte Version von The Machine kam auf 122 ms bei der gleichen Bildanzahl. Für die Suche wurde der Arbeitsspeicher auf Memristor-Geschwindigkeit reduziert.
Project Moonshot als Vorlage für The Machine
Bereits vor einigen Jahren hatte HP Grundlagen für The Machine gelegt. Das Project Moonshot half dabei, herauszufinden, wie wichtig spezialisierte Arbeiten sind, die von spezialisierten Einheiten gelöst werden. Moonshot ist bereits einige Zeit auf dem Markt erhältlich und bietet nicht mehr reine Rechenleistung, sondern wird auf die zu lösende Aufgabe hin angepasst. Damit funktionieren Moonshot-Systeme nicht bei allen Arbeitsszenarien, einige wenige kann das System dafür umso effizienter erfüllen.
Diesen Ansatz soll auch The Machine mit ihren spezialisierten Kernen verfolgen, wie HP angab. Moonshot ist damit auch ein Testvehikel für die kommende Entwicklung von The Machine. Es gibt aber noch andere Probleme zu bewältigen. Das eine ist das Betriebssystem. Zwar wird an Konvertierungen von Linux und Android auf The Machine gearbeitet. Doch sinnvoller ist der komplette Neuanfang. Laut Fink sind aktuelle Betriebssysteme beispielsweise ständig damit beschäftigt, Paging durchzuführen. Das Bewegen von Daten vom nicht volatilen Datenträger wie einer Festplatte zum volatilen Arbeitsspeicher entfällt aber bei The Machine. Der universale Speicher macht das unnötig. Demzufolge muss das Betriebssystem von Grund auf neu erdacht werden, um die Vorteile der neuen Architektur nutzen zu können. Das soll komplett quelloffen und mit Hilfe von Universitäten noch 2015 begonnen werden.
HPs Projekt liegt damit bisher im Zeitplan, der bis in das Jahr 2020 hineinreicht und bereits für 2018 erste sogenannte Edge Devices beinhaltet. Bis dahin wird auch herkömmliche PC-Technik Fortschritte machen.
1,624 Sekunden ;)
Memristor-Speicher wird derzeit unter der Bezeichnung ReRAM auch für normale Computer als...
Die: The Machine Wir: Der Gerät. Damit wären die Kompetenzen dann wohl auch geklärt :)
Ymmd