LizardFS: Software-defined Storage, wie es sein soll

Alternativen zu teuren Appliances gibt es im Bereich Software-defined Storage einige: Oft genügt es, Standardhardware mit einer Software zu einem ausfallsicheren Storage-Pool zusammenzuschalten. Wer dabei mit Lösungen wie GlusterFS nicht zufrieden war, sollte LizardFS testen.

Artikel von Valentin Höbel veröffentlicht am
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Ein klassisches Mittel, um Speicherplatz zur Verfügung zu stellen, ist der Erwerb einer oder mehrerer Storage-Appliances, die Software und Hardware fest miteinander verzahnen. Allerdings sind diese nicht sehr flexibel, nicht skalierbar und lassen sich nicht so einfach zu Lösungen anderer Hersteller migrieren.

Anders sieht das beim Software-defined Storage (SDS) aus: Hier abstrahiert Software die Storage-Funktion der Hardware. Im Idealfall können verschiedene herkömmliche Server mit Festplatten oder SSDs zu einem Pool an Geräten zusammengeschaltet werden, wobei jedes System Speicherplatz bereitstellt und - je nach Lösung - unterschiedliche Aufgaben übernehmen kann. Skalierung ist möglich, indem weitere Geräte hinzugefügt werden, Flexibilität ist durch die Unabhängigkeit vom Hardwarehersteller und eine schnelle Reaktion auf wachsende Anforderungen gegeben. Im Normalfall sorgt die Software zudem dafür, dass Daten ausfallsicher über Server-Grenzen hinweg vorgehalten werden.

Große Auswahl und große Unterschiede

Im Open-Source-Bereich gibt es bereits einige Lösungen: Die bekanntesten sind Lustre, GlusterFS, Ceph und MooseFS. Nicht alle sind gleich gut, und einige haben sich spezialisiert, wie etwa Ceph auf Object Storage. Besonders gefragt ist das Feature, bei dem ein SDS ein Posix-kompatibles Dateisystem bereitstellt - aus Sicht des Clients soll das verteilte Dateisystem die gleichen Merkmale aufweisen wie ein gewöhnliches lokal verwendetes Dateisystem (beispielsweise Ext4).

Einige der verfügbaren Lösungen werden von großen Firmen betrieben, wie etwa Lustre, GlusterFS und Ceph. Andere hängen von wenigen Entwicklern ab oder werden gar überhaupt nicht mehr gepflegt, wie MooseFS. Das Projekt wirkt streckenweise wie tot oder auch wie ein Ein-Mann-Projekt ohne Langzeitstrategie und aktive Community. Diesen Umstand nahmen einige Entwickler aus Polen im Sommer 2013 zum Anlass, um einen Fork zu erstellen und ihn unter GLPLv3-Lizenz aktiv weiterzuentwickeln: LizardFS war geboren.

LizardFS wird von seinen Entwicklern als verteiltes skalierbares Dateisystem mit Enterprise-Features wie Fehlertoleranz, Ausfallsicherheit und Hochverfügbarkeit bezeichnet. Die Software wird hauptsächlich von rund zehn Entwicklern unter dem Dach der Warschauer Firma Skytechnology eigenständig entwickelt.

Wer LizardFS installieren möchte, kann die Software aus den Quellen bauen oder von der Download-Seite Pakete für Debian, Ubuntu, CentOS und Red Hat beziehen. Zudem gibt es LizardFS seit den vergangenen Monaten über diverse offizielle Distributionsquellen.

Komponenten und Architektur

Das Design von LizardFS sieht eine Trennung von Metadaten wie Dateinamen, Speicherorten und Prüfsummen von den eigentlichen Daten vor. Damit keine Inkonsistenzen entstehen und atomare Aktionen auf Dateisystemebene möglich sind, müssen sämtliche Vorgänge durch einen sogenannten Master geschleust werden. Er hält alle Metadaten vor und ist der zentrale Ansprechpartner für Server-Komponenten und Clients.

Damit ein Master ausfallen darf, kann er auch in einer "Shadow"-Rolle laufen. Hier wird ein Master auf einem zusätzlichen Server installiert, der aber passiv bleibt. Der Shadow-Master holt permanent alle Änderungen der Metadaten ab und spiegelt damit den Zustand des Dateisystems im eigenen Arbeitsspeicher. Fällt der Master aus, kann das zweite System mit dem Shadow-Master in die aktive Rolle hinüberschalten und weiter alle Teilnehmer mit Informationen versorgen.

Die Open-Source-Variante von LizardFS beinhaltet allerdings keinen automatischen Failover zwischen dem primären und theoretisch beliebig vielen sekundären Mastern. Als Administrator ist man daher entweder gezwungen, manuell umzuschalten oder eine eigene Failover-Mechanik zu bauen, etwa auf Grundlage eines Pacemaker-Clusters. Da das Umschalten der Master-Rollen jedoch nur aus dem Abändern einer Konfigurationsvariablen sowie einem Reload des Master-Daemons besteht, sollten Administratoren mit Erfahrung im Betrieb von Clustern schnell eine eigene Lösung finden können.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Verwaltet, gespeichert und repliziert wird über die Chunk-Server 
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8.  


felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Aktuell auf der Startseite von Golem.de
Quellcode auf Github
MS-DOS 4.00 ist jetzt Open Source

Nachdem der ehemalige CTO eine alte MS-DOS-Floppy entdeckt hat, veröffentlicht Microsoft ein Stück Betriebssystem-Geschichte.

Quellcode auf Github: MS-DOS 4.00 ist jetzt Open Source
Artikel
  1. Startrampe Set: Lego bietet Milchstraße und Nasa-Rakete Artemis als Bausatz
    Startrampe Set
    Lego bietet Milchstraße und Nasa-Rakete Artemis als Bausatz

    Lego hat zwei neue Sets vorgestellt, die für Weltraumenthusiasten gedacht sind: das Nasa-Artemis-Startrampen-Set und das Milchstraßen-Galaxie-Set.

  2. Tarifrunde: Montag erneut Streiktag bei der Deutschen Telekom
    Tarifrunde
    Montag erneut Streiktag bei der Deutschen Telekom

    Beim letzten Warnstreik bei der Telekom waren 12.500 Beschäftigte beteiligt. Diesmal wird breiter mobilisiert. Die Telekom versucht Schadensbegrenzung.

  3. Auszieh-Apps: Apple entfernt KI-Nudify-Apps aus dem App Store
    Auszieh-Apps
    Apple entfernt KI-Nudify-Apps aus dem App Store

    Apps, die Personen per KI ungefragt digital ausziehen, sind beliebt. Nun entfernt Apple einige dieser Anwendungen aus dem App Store - aber erst nach Hinweisen von Journalisten.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Asus OLED-Monitor zum Tiefstpreis • Gigabyte GeForce RTX 4070 Ti im Sale • MediaMarkt: Asus Gaming-Laptop 999€ statt 1.599€ • Gamesplanet Spring Sale [Werbung]
    •  /