Verteiltes Rechnen

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Verteiltes Rechnen (auch Dezentralisiertes Rechnen, Verteilte DV; englisch distributed computing) ist eine Technik der Anwendungsprogrammierung, bei der die einzelnen Prozesse einer verteilten Anwendung ein gemeinsames Ergebnis berechnen.

Idee[Bearbeiten]

Hintergrund ist die Überlegung, dass die Hauptprozessoren vieler Rechner zeitweise nicht ausgelastet sind, da der Anwender meistens nur mit wenigen Programmen arbeitet, welche nur einen Teil der gesamten CPU-Leistung beanspruchen. Diese ungenutzten Ressourcen möchte man beim verteilten Rechnen nutzbar machen. Hierzu wird eine entsprechende Client-Software auf dem betroffenen Rechner installiert, die diese Aufgaben meistens weitgehend im Hintergrund übernimmt.

Prinzip[Bearbeiten]

Verteiltes Rechnen muss organisiert werden. Dazu wird eine Software zur Verfügung gestellt, die auf den Clients zur Lösung der speziellen Aufgabe laufen muss. Weiterhin müssen die Aufgaben, die abgearbeitet sind, gerade bearbeitet werden, oder noch verteilt werden müssen, verwaltet werden.

Will man sich nun an der Problemlösung beteiligen, das heißt die ungenutzte Rechenleistung eines Computers zur Verfügung stellen, lädt man zunächst die Clientsoftware auf den Computer, installiert diese und testet die Installation mittels vorgegebener Testdaten. Danach meldet man sich an der Webseite an und lässt sich Daten zuteilen, die bearbeitet werden sollen. Nach Berechnung des Datenpaketes, die einige Stunden bis mehrere Wochen Rechenzeit in Anspruch nehmen kann, wird das Ergebnis an die Webseite zurückgemeldet, und man kann sich neue Daten geben lassen.

Einsatzgebiete[Bearbeiten]

Distributed Computing wird in vielen Bereichen der Forschung eingesetzt, vor allem bei sehr rechenintensiven Anwendungen (z. B. Docking-Simulationen für das Design künftiger Medikamente, die Berechnung von Proteinfaltungsvorgängen, die Suche nach Primzahlen oder die Widerlegung von mathematischen Vermutungen), für deren Bearbeitung die Leistung von herkömmlichen Supercomputern nicht ausreicht, oder für die nur ungenügende finanzielle Mittel zur Verfügung stehen. Distributed-Computing-Projekte finden sich demnach sehr häufig bei von Universitäten, Stiftungen oder kleinen, bzw. mittelständischen Firmen durchgeführten Projekten.

Konkrete Projekte[Bearbeiten]

Eines der ersten Projekte, welches die Technik des verteilten Rechnens nutzte, war das SETI@home-Projekt der University of California, Berkeley, das somit die Rechenkraft eines teuren Supercomputers erzielte.

Viele Projekte folgten, so zum Beispiel

Heute gibt es fast in allen naturwissenschaftlichen Bereichen verteilte Rechenprojekte, sogar die Industrie bedient sich bereits der Technik.

Eine neue Stufe der Verbreitung erreichte das Projekt Folding@home, das die Fähigkeiten der Spielekonsole PlayStation 3 sowie von ATI und Nvidia Grafikprozessoren (GPU) nutzt und so eine Leistung von bis zu 4 Billiarden Rechenoperationen pro Sekunde (4 Petaflops) erreicht. Mit bis zu 700.000 angemeldeten PS3-Teilnehmern und regelmäßig etwa 50.000 aktiven Konsolen steht dieses Projekt als leistungsstärkstes verteiltes Rechnernetzwerk aller Zeiten im Guinness-Buch der Rekorde.[1][2]

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

 Commons: Verteiltes Rechnen – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten]

  1. Meldung auf der BBC-Website (englisch)
  2. Folding@home-Statistikseite