DRBD

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
DRBD
DRBD logo.svg
Entwickler LINBIT HA-Solutions GmbH
Aktuelle Version 8.4.y
Betriebssystem GNU/Linux
Programmier­sprache C
Lizenz Freie Software (GPL)
www.drbd.org
Übersicht des DRBD-Konzepts

DRBD® (Distributed Replicated Block Device) ist eine freie Netzwerkspeicherlösungs-Software. Als Kernel-Modul zusammen mit einer Management-Applikation im Userspace und einem Skript dient es dazu, ein Blockgerät auf einem produktiven (primary) Server in Echtzeit auf einen anderen (secondary) Server zu spiegeln. Dieses Verfahren wird verwendet, um Hochverfügbarkeit (HA) im Linux-Umfeld zu realisieren und somit eine gute Verfügbarkeit verschiedener Dienste zu erreichen. Alternativen sind hierzu verteilte Filesysteme wie z.B. GlusterFS.

Funktionsweise[Bearbeiten]

Es werden alle Schreibzugriffe über das Netzwerk an den zweiten Server übermittelt. Erst wenn der zweite Server den erfolgreichen Schreibvorgang an den ersten Server zurückgemeldet hat, meldet dieser der Applikation das Ende des Schreibvorgangs (diese Technik ist vergleichbar mit einem RAID 1 über TCP/IP). Falls der erste Server ausfällt, wird dieser als inaktiv gemeldet. Durch eine Serverüberwachungssoftware wie Heartbeat kann der zweite Server die Funktion des ersten Servers übernehmen und mit denselben Daten weiterarbeiten.

Jede DRBD-Komponente (lokal auch als Partition bezeichnet) besitzt einen Status, welcher entweder primär oder sekundär sein kann. Zwischen allen Systemen erzeugt DRBD eine Verbindung von der lokalen Partition zu einem virtuellen Gerät /dev/drbdX, welches nicht direkt angesprochen werden kann. Schreibzugriffe auf das primäre System werden über das Low-level-Blockgerät (die Partition) und gleichzeitig an das sekundäre System propagiert. Das sekundäre System übermittelt dann die Daten an sein eigenes lokales Low-level-Blockgerät. Alle Lesezugriffe werden stets lokal durchgeführt.

Sollte das primäre System ausfallen, versetzt ein Cluster-Management-Prozess das sekundäre System in den primären Systemzustand. Wenn das ehemals primäre System wieder verfügbar ist, wird dieses nach einer Resynchronisation der Gerätedaten normalerweise, um keine überflüssige Downtime zu erzeugen, als sekundäres System weiterlaufen, kann aber auch wieder in den primären Status versetzt werden. Der Algorithmus der DRBD-Synchronisation arbeitet dadurch effizient, dass nur während des Ausfalls geänderte Datenblöcke wieder resynchronisiert werden müssen, nicht das ganze Gerät.

In der im Januar 2007 erschienenen Version 8 wurde eine Unterstützung für Konfigurationen mit Lastverteilung eingeführt, welches beiden Systemen ermöglicht, einzelne DRBDs im Lese-/Schreib-Modus wie bei gemeinsam genutztem Speicher (shared storage) zu nutzen[1]. Diese Art der Nutzung erfordert die Verwendung eines Sperrmechanismus, dem „distributed lock manager“.

Vorteile gegenüber gemeinsam genutztem Cluster-Speicher[Bearbeiten]

Konventionelle Computer-Cluster-Systeme benutzen in der Regel eine Art gemeinsamen Speicher, der für die Clusterressourcen benutzt wird. Dieser Ansatz hat jedoch eine Reihe von Nachteilen, die DRBD umgeht.

  • Gemeinsam genutzte Speicher (shared storage) bringen typischerweise eine einzelne Fehlerstelle (Single Point of Failure) mit sich, da beide Clustersysteme vom gleichen gemeinsamen Speicher abhängig sind. Bei der Verwendung von DRBD besteht hier keine Gefahr, da die benötigten Clusterressourcen lokal repliziert werden und nicht auf einem eventuell wegfallenden gemeinsamen Speicher liegen. Allerdings kann in modernen SAN-Lösungen mit Spiegelungsfunktionen gearbeitet werden, welche diese früher unvermeidliche Fehlerstelle beseitigen.
  • Gemeinsam genutzter Speicher wird in der Regel über ein SAN oder ein NAS adressiert, was einen gewissen Mehraufwand beim Lesezugriff erfordert. Bei DRBD wird dieser Aufwand signifikant reduziert, da Lesezugriffe immer lokal stattfinden.

Anwendungen[Bearbeiten]

DRBD arbeitet innerhalb des Linux-Kernels auf Blockebene und ist damit für darauf aufsetzende Schichten transparent. DRBD kann somit als Grundlage verwendet werden für:

  • konventionelle Dateisysteme
  • gemeinsam genutzte Cluster-Dateisysteme wie z.B. GFS oder OCFS2
  • ein weiteres logisches Blockgerät wie z.B. LVM
  • jede Applikation, die den direkten Zugriff auf ein Blockgerät unterstützt.

DRBD-basierende Cluster werden eingesetzt, um z. B. Dateiserver, relationale Datenbanken (wie MySQL) und Hypervisor/Server-Virtualisierung (wie OpenVZ) um synchrone Replikation und Hochverfügbarkeit zu erweitern.

Versionsgeschichte[Bearbeiten]

Im Juli 2007 stellten die DRBD-Autoren die Software der Linux-Entwicklergemeinde für eine mögliche zukünftige Aufnahme von DRBD in den offiziellen Linux-Kernel zur Verfügung[2]. Nach zweieinhalb Jahren wurde DRBD in den Kernel 2.6.33[3], der am 24. Februar 2010[4] veröffentlicht wurde, aufgenommen.

Die kommerziell lizenzierte Version DRBD+ wurde in der ersten Hälfte des Dezembers 2008 mit der Open-Source-Version zusammengeführt und unter der GNU General Public Licence freigegeben. Seit der daraus resultierenden Version 8.3 ist es möglich, den Datenbestand auf einen dritten Knoten zu spiegeln. Die Höchstgrenze von 4 TiByte pro Gerät wurde auf 16 TiByte erhöht[5],[6].

Seit 2012 gibt es keine Grössenbeschränkung mehr pro DRBD-Device. [7] Die offizielle Nutzungsstatistik zählt rund 30.000 regelmäßig aktualisierte Installationen mit Device-Größen von bis zu 220 TB. [8]

Weblinks[Bearbeiten]

 Commons: DRBD – Album mit Bildern, Videos und Audiodateien

Quellen[Bearbeiten]

  1. Philipp Reisner, Lars Ellenberg: DRBD v8–Replicated Storage with Shared Disk Semantics (PDF; 673 kB) In: Proceedings of the 12th International Linux System Technology Conference. 6. August 2007. Abgerufen am 21. Februar 2011.
  2. Lars Ellenberg: DRBD wants to go mainline. In: Linux-kernel-Mailingliste. 21. Juli 2007. Abgerufen am 21. Februar 2011.
  3. DRBD schafft es in den Linux-Kernel. golem.de. 10. Dezember 2009. Abgerufen am 21. Februar 2011.
  4. Linux 2.6.33 released. gmane.org. 24. Februar 2010. Abgerufen am 28. August 2012.
  5. Hochverfügbarkeitslösung DRBD+ wird Open Source. heise.de. 17. November 2008. Abgerufen am 21. Februar 2011.
  6. Ankündigung von DRBD 8.3 unter der GPL. LINBIT. Abgerufen am 21. Februar 2011.
  7. Maximum volume size on DRBD. Linbit. 2. April 2012. Abgerufen am 23. August 2013.
  8. Usage Page. Abgerufen am 28. August 2014.