Einstein@home

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Einstein@Home
Einstein-at-home.gif
Bereich: Astronomie
Ziel: Nachweis von Gravitationswellen,
Suche nach binären Radiopulsaren
Betreiber: LIGO Scientific Collaboration (LSC)
Land: International
Plattform: BOINC
Website: einstein.phys.uwm.edu
Projektstatus
Status: aktiv
Beginn: 19. Februar 2005
Ende: noch aktiv

Einstein@Home ist ein Volunteer-Computing-Projekt der LIGO Scientific Collaboration. Es sucht in den vom Laser Interferometer Gravitational wave Observatory in den Vereinigten Staaten und dem deutschen GEO600 gesammelten Daten nach Hinweisen auf Gravitationswellen von extrem dichten, schnell rotierenden kompakten Sternen wie Pulsaren. Seit März 2009 wird zusätzlich nach binären Radiopulsaren in den Daten des Areciboteleskops gesucht.[1] Zudem wird in Daten des Fermi Gamma-ray Space Telescopes nach Gammastrahlung abgebenden Pulsaren gesucht.[2]

Hintergrund[Bearbeiten | Quelltext bearbeiten]

Einstein@home dient der astrophysikalischen Grundlagenforschung. Laut der Allgemeinen Relativitätstheorie deformieren massereiche und beschleunigte Objekte wie Neutronensterne die Raumzeit um sie herum, wobei messbare Gravitationswellen entstehen sollten. Die Messung der Gravitationswellen soll durch Gravitationswellendetektoren auf Basis von Michelson-Interferometern geschehen. Nur ein Bruchteil derartiger Sterne ist wegen der grossen Entfernungen überhaupt per Teleskop erfassbar.

Dem Nachweis derartiger Wellen wird mit zwei Ansätzen nachgegangen. Zum einen wird der gesamte Himmel abgesucht nach Pulsaren mit einer ausgereifteren Methodik als klassischen Teleskopen. Zum anderen wird mittels der Detektoren direkt nach Gravitationswellen gesucht. Hauptziel ist das Aufinden kontinuierlich abgegebener Wellen. Das Suchverfahren konzentriert sich daher auf das Umfeld von Pulsaren und vergliechbarer Objekte mit bekannter Position.

Ziele[Bearbeiten | Quelltext bearbeiten]

Dabei fallen wegen unbekannter Parameter wie Lage und Masse große Datenmengen an, die selbst auf heutigen Supercomputern auf Cluster-Basis lange Zeit zur vollständigen Analyse benötigen. Um die für die Analysen vergleichbar hohe Rechenleistung preisgünstig bei allerdings höherem Software-Wartungsaufwand erreichen zu können, kam man auf den Ansatz des verteilten Rechnens.

Ein weiteres Projektziel ist die Steigerung der Zahl der aktiven Teilnehmer, um die von den Detektoren gewonnenen Daten in annähernd Echtzeit analysieren zu können.

Geschichte[Bearbeiten | Quelltext bearbeiten]

Das Projekt wurde im Rahmen des Jahres der Physik 2005 am 19. Februar 2005 offiziell gestartet. Maßgeblich am Projekt beteiligt ist auf deutscher Seite das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut). Dort wird ein großer Teil der wissenschaftlichen Software entwickelt. Auf internationaler Seite besteht u.a. eine Kooperation mit der University of Wisconsin–Milwaukee.

Das Albert-Einstein-Institut war im März 2008 mit seinen Clustern Merlin (180 Dual-Athlon XP-Maschinen) und Morgane (615 AMD Opteron-Knoten) der zweitgrößte Einzelteilnehmer des Projekts. In ähnlicher Größenordnung stellte auch die D-Grid-Initiative dem Projekt Rechenzeit zur Verfügung. Auch die anderen in der LIGO Scientific Collaboration organisierten Forschungseinrichtungen stellen dem Projekt Rechnerpools und Cluster zur Verfügung. Das Albert-Einstein-Institut betreibt zur Auswertung der Daten in Hannover einen ATLAS genannten Rechnercluster.[3] Der größte Teil der Arbeit wird jedoch von den Computern von mittlerweile in kumulierter Betrachtung mehreren hunderttausen Freiwilligen geleistet, wovon jedoch nur mehrere zehntausend Teilnehmer, teils mit mehreren Endgeräten, regelmäßig aktiv sind. Im September 2010 standen dem Projekt damit durch rund 118.000 Computern über 300 Teraflops an Rechenleistung zur Verfügung, was zu diesem Zeitpunkt dem Platz 14 in der Liste der weltweit schnellsten Supercomputer[4] entsprach. Entsprechend dem Mooreschen Gesetz nimmt die Leistung ständig zu. 2016 leistete das Projekt mehr als 1600 Teraflops, wovon der ATLAS-Cluster mit rund 3000 Intel Xeon-CPUs etwa ein Viertel beitrug und somit schnellster Einzelteilnehmer und zugleich schnellster Rechner der Gravitationswellenforschung war.

Methoden[Bearbeiten | Quelltext bearbeiten]

Infrastruktur[Bearbeiten | Quelltext bearbeiten]

Zum Management der Arbeitspakete wird die BOINC-Plattform verwendet. Projektteilnehmer erhalten nach Installation der BOINC-Software und Auswahl des Projekts Einstein@home automatisch Datenpakete, die dann auf ihren Desktops oder Smartphones während sonst ungenuzter Rechenzeit verarbeitet werden. Auf Endgeräten wie Smartphones, Tablets oder Raspberry Pi werden die Daten wegen der ARM-Architektur besonders energiesparend, aber auch vergleichsweise langsam verarbeitet, während die schnellsten Berechnungen auf Endgeräten wie Desktops mit GPGPU erfolgen.

Die Datenpakete und die Rechenergebnisse werden auf Servern des Albert-Einstein-Instituts vorgehalten. Das Rechenzentrum ist als Serverfarm angelegt, deren Geräte durch Gigabit-Ethernet zusammengeschaltet sind. Die innerhalb des Rechenzentrums abzuarbeitenden Aufgaben werden mittels HTCondor verteilt. Über Ganglia und Intelligent Platform Management Interface kann jeder Server einzeln überwacht werden. Ein kleiner Teil der Server organisiert die Aufgaben für Einstein@home, der größte Teil arbeitet Aufgaben des Projekts ab. Das System ist nicht auf Hochleistungsrechnen, d.h. für die schnellstmögliche Abarbeitung einer Aufgabe, optimiert, sondern auf schnellen Durchsatz verschiedener parallel abzuarbeitender Aufgaben.

Verfahren[Bearbeiten | Quelltext bearbeiten]

Die von den Teleskopen ermittelten Daten werden in Segmente aufgeteilt. Diese werden einer Schnellen Fourier-Transformation und nach Zwischensortierung schließlich einer Hough-Transformation unterzogen. Dadurch werden Signale ermittelt, die sich vom Weißen Rauschen abheben.[5] Diese werden letztlich mittels Pattern Matching per Optimalfilter verglichen mit theoretisch erwarteten Signalen, deren mathematisches Muster berechnet wurde aus den Parametern Amplitude, Phase und der sich aus der Drehachse des Neutronensterns ergebenden Polarisation der Gravitationswelle.

Bei der Auswertung wirkt sich die begrenzte Empfindlichkeit der Detektoren nachteilig auf das Signal-Rausch-Verhältnis aus. Dem soll entgegengewirkt werden zum einen durch fortlaufende technische Verbesserungen der Detektoren. Zum anderen sollen die zahlreichen Fehlbefunde, die bislang manuell aussortiert werden müssen, zukünftig per Computer gefunden werden. Dazu muss eine erhebliche Anzahl manueller Befunde erfasst werden, die der Software später als Datenbank dienen kann. Zur Beschleunigung des Verfahrens wurde daher auf das Konzept Citizen Science zurückgegriffen und 2016 das Projekt "Gravity Spy" auf der Plattform Zooniverse gestartet.[6]

Ergebnisse[Bearbeiten | Quelltext bearbeiten]

Einstein@Home begann seine Analysen mit 600 Stunden Datenmaterial aus dem LIGO-Durchlauf S3, dessen Genauigkeit jedoch noch um einiges von der angestrebten Präzision des LIGO-Detektors entfernt war. Die Daten waren bereits vorher auf Clustern untersucht worden, wobei keine Auffälligkeiten entdeckt worden waren. Der erste Einstein@Home-Durchlauf mit S3-Daten diente daher vor allem dem Test der wissenschaftlichen Anwendung und einer besseren Kalibrierung. Dabei wurden zahlreiche Störsignale entdeckt und entfernt. Diese Störsignale kommen durch die Empfindlichkeit der Detektoren zustande. Vor allem durch seismische Störungen, aber auch durch Signale aus dem Stromnetz oder die Meeresbrandung schlagen sie permanent aus. Von diesen Störungen ist jeder Detektor individuell betroffen. Eine Gravitationswelle würde sich dadurch verraten, dass alle Detektoren weltweit gleichzeitig ausschlagen. Nach der "Säuberung" der S3-Daten wurde diese neue Version nochmals analysiert. Zusätzlich wurden einige falsche Signale eingestreut, um Aussagen über die Entdeckungswahrscheinlichkeit von relevanten Signalen zwischen den Störungen machen zu können. Von Ende Juni 2005 bis Mitte 2006 lief die Analyse des Anfang 2005 durchgeführten LIGO-Durchlaufs S4, der einen Genauigkeitsfaktor von 2 erreichen sollte. S5 sollte der erste Durchlauf werden, der die angepeilte Genauigkeit erreicht. Im Rahmen von S5 wurden die LIGO-Detektoren kontinuierlich ein Jahr lang betrieben[7]. Die Analyse der S5-Daten begann im Juni 2006. Der erste Suchlauf S5R1 in diesem Datensatz wurde im Februar 2007 abgeschlossen. Es folgte ein kurzer Suchlauf S5RI in einem begrenzten Frequenzbereich mit einem modifizierten Parametersatz, der bis Mitte April 2007 andauerte. Währenddessen sammelten die Detektoren weiter Daten im Rahmen von S5. Der Berechnungsaufwand steigt dabei exponentiell. Um die Berechnungen bewältigen zu können, wurde im Suchlauf S5R2 eine neue Anwendung getestet, die eine hierarchische Suche implementiert. Dabei wird zunächst nur in einem groben Raster gesucht, und sich später auf die vielversprechenden Stellen konzentriert. Ab 23. September 2007 begann der Suchlauf S5R3 mit einer zweiten Version des Algorithmus zur hierarchischen Suche, die die Empfindlichkeit etwa um den Faktor 6 verbessert[8]. Der Lauf S5R3b ist eine nahtlose Fortsetzung des S5R3 im Frequenzband oberhalb von 800 Hz. Seit August 2008 fand der Suchlauf S5R4a statt. Wurden bereits im Dezember 2008 Testläufe für die Suche nach binären Radiopulsaren durchgeführt, werden seit Ende März 2009 Workunits für die Arecibo Binary Pulsar Search genannte Applikation an alle Teilnehmer des Einstein@Home-Projekts verteilt, sofern die Teilnehmer diese in den teilnehmerspezifischen Einstellungen nicht deaktivieren. Nach einigen Wochen von Tests wurden am 26. November 2009 die GPU-Anwendungen zur Arecibo Binary Pulsar Search für Windows und Linux freigegeben. Während der Großteil der Berechnungen weiterhin auf der CPU stattfinden, werden die schnellen Fourier-Transformationen nun auf der GPU berechnet, was zumindest für diesen Teil der Aufgabe zu einer erheblichen Verkürzung der Rechenzeit führt.

Im Juni 2010 gelang dem Projekt der Fund des bisher unbekannten Pulsars PSR J2007+2722 im Sternbild Fuchs.[9] Im März 2011 konnte ein zweiter Erfolg verzeichnet werden mit der Entdeckung des Pulsars PSR J1952+2630 in den Daten aus dem Jahre 2005 des Arecibo-Observatoriums.[10] Bis August 2012 wurden durch das Projekt 46 neue Pulsare entdeckt.[11][12][13]

Das Projekt hat von der Rechenleistung her im Januar 2013 die 1 Petaflop-Grenze überschritten und befindet sich von der Rechenleistung des Grids her gesehen auf Augenhöhe mit den 23 leistungsfähigsten Großrechnern der Welt.[14]. Das Projekt ist auch verbunden mit der Entdeckung von Gravitationswellen [15].

Zu den Entdeckungen gehört ein 2015 nachgewiesener Pulsar, der sich hinter einem anderen Stern befand. 2016 wurden 17 Gammastrahlung abgebende Pulsare entdeckt, von denen einer einen Glitch durchmachte.[16]

Begriffe[Bearbeiten | Quelltext bearbeiten]

  • Gravitational Wave search (fortlaufend nummeriert): Suche nach Gravitationswellen
  • Binary Radio Pulsar Search (Arecibo): Suche nach binären Pulsaren in den Daten des Arecibo-Teleskops
  • Gamma-ray pulsar search (fortlaufend nummeriert): Suche nach Gamma-Pulsaren

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Presseinformation: Startschuss für ein neues Einstein@Home-Projekt (PDF; 32 kB)
  2. Fermi Gamma-ray Space Telescope - New insights into Pulsar Physics
  3. Start für ATLAS - Deutschlands viertschnellster Computer für wissenschaftliche Zwecke wird eingeweiht
  4. Top 500 Liste der schnellsten Supercomputer
  5. J. Aasi et al.: Einstein@Home all-sky search for periodic gravitational waves in LIGO S5 data, Phys.Rev. D87 (2013) no.4, 042001 online
  6. Gravity Spy
  7. Sintes, A.: Gravitational wave astronomy: now and future (PDF; 481 kB) S. 6
  8. Forenpost des Projektwissenschaftlers Reinhard Prix zum S5R3
  9. Pulsar Discovery by Global Volunteer Computing Science Mag
  10. Binary Pulsar Discovery by Volunteer Computing Cornell University
  11. Einstein@Home pulsar discoveries in Parkes Multibeam Survey data. Abgerufen am 6. September 2011.
  12. Seven new pulsars discovered by Einstein@Home volunteers! Abgerufen am 27. August 2012.
  13. Einstein@Home new discoveries and detections of known pulsars in the BRP4 search. Abgerufen am 19. Dezember 2011.
  14. Einstein@Home passes 1 Petaflop of computing power! Abgerufen am 13. Januar 2013.
  15. Gravitationswellen: Wer hat's gefunden? Abgerufen am 14. Februar 2016.
  16. C. J. Clark et al.: The Einstein@home gamma-ray pulsar survey I - search methods, sensitivity and discovery of new young gamma-ray pulsars, 2016, arXiv:1611.01015 online