Einstein@Home

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Einstein@home)
Zur Navigation springen Zur Suche springen
Einstein@Home
Bereich: Astronomie
Ziel: Nachweis von Gravitationswellen,
Suche nach binären Radiopulsaren
Betreiber: LIGO Scientific Collaboration (LSC)
Land: International
Plattform: BOINC
Website: einstein.phys.uwm.edu
Projektstatus
Status: aktiv
Beginn: 19. Februar 2005
Ende: noch aktiv

Einstein@Home ist ein Volunteer-Computing-Projekt, das die LIGO Scientific Collaboration betreibt, eine internationale wissenschaftliche Kollaboration physikalischer Forschungsinstitute. Es handelt sich um ein komplexes Projekt der Datenanalyse, dessen zeitlich aufwändigster Teil auf anderweitig nicht ausgelasteten Rechnern der teilnehmenden Öffentlichkeit abläuft.

Das Projekt sucht in den vom Laser Interferometer Gravitational wave Observatory in den Vereinigten Staaten und dem deutschen GEO600 gesammelten Daten nach Hinweisen auf Gravitationswellen von Pulsaren, die eine untypische Asymmetrie aufweisen. Seit März 2009 wird zusätzlich nach binären Radiopulsaren in den Daten des Areciboteleskops gesucht.[1] Zudem wird in Daten des Fermi Gamma-ray Space Telescopes nach Gammastrahlung abgebenden Pulsaren gesucht.[2]

Einstein@home dient der astrophysikalischen Grundlagenforschung. Laut der Allgemeinen Relativitätstheorie deformieren massereiche und beschleunigte Objekte wie Neutronensterne die Raumzeit um sie herum, wobei messbare Gravitationswellen entstehen sollten. Die Messung der Gravitationswellen soll durch Gravitationswellendetektoren auf Basis von Michelson-Interferometern geschehen. Nur ein Bruchteil derartiger Sterne ist wegen der großen Entfernungen überhaupt per Teleskop erfassbar.

Dem Nachweis derartiger Wellen wird mit zwei Ansätzen nachgegangen. Zum einen wird der gesamte Himmel nach Pulsaren mit einer ausgereifteren Methodik als klassischen Teleskopen abgesucht. Zum anderen wird mittels der Detektoren direkt nach Gravitationswellen gesucht. Hauptziel ist das Auffinden kontinuierlich abgegebener Wellen. Das Suchverfahren konzentriert sich daher auf das Umfeld von Pulsaren und vergleichbarer Objekte mit bekannter Position.

Dabei fallen wegen unbekannter Parameter wie Lage und Masse große Datenmengen an, die selbst auf heutigen Supercomputern auf Cluster-Basis lange Zeit zur vollständigen Analyse benötigen. Um die für die Analysen vergleichbar hohe Rechenleistung preisgünstig bei allerdings höherem Software-Wartungsaufwand erreichen zu können, kam man auf den Ansatz des verteilten Rechnens.

Ein weiteres Projektziel ist die Steigerung der Zahl der aktiven Teilnehmer, um die von den Detektoren gewonnenen Daten in annähernd Echtzeit analysieren zu können.

Organisation und Teilnehmer

[Bearbeiten | Quelltext bearbeiten]

Maßgeblich am Projekt beteiligt ist auf deutscher Seite das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut). Dort wird ein großer Teil der wissenschaftlichen Software entwickelt. Auf internationaler Seite besteht eine Kooperation mit der University of Wisconsin–Milwaukee. Die Leitung obliegt Bruce Allen. Die Institute sind Teil der LIGO Scientific Collaboration, einer Arbeitsgemeinschaft von mehreren hundert Experten aus Gebieten wie Physik und Informatik, die Forschungseinrichtungen zahlreicher Länder, überwiegend den Vereinigten Staaten, angehören. Diese stellen auch einen erheblichen Teil der für das Projekt notwendigen Rechner. Die anderen Rechner stellen freiwillige Projektteilnehmer, d. h. private Unternehmen oder Personen, aus einem vergleichbaren Spektrum von Ländern.

Im Rechenzentrum des ATLAS-Clusters

Das Projekt wurde im Rahmen des Jahres der Physik 2005 am 19. Februar 2005 offiziell gestartet.

Das Albert-Einstein-Institut war im März 2008 mit seinen Clustern Merlin (180 Dual-Athlon-XP-Maschinen) und Morgane (615 AMD-Opteron-Knoten) der zweitgrößte Einzelteilnehmer des Projekts. In ähnlicher Größenordnung stellte auch die D-Grid-Initiative dem Projekt Rechenzeit zur Verfügung. Das Albert-Einstein-Institut betreibt zur Auswertung der Daten in Hannover den Rechnerverbund ATLAS.[3] Der größte Teil der Arbeit wird jedoch von den Computern von mittlerweile in kumulierter Betrachtung mehreren 100.000 Freiwilligen geleistet, wovon jedoch nur mehrere 10.000 Teilnehmer, teils mit mehreren Endgeräten, regelmäßig aktiv sind. Im September 2010 standen dem Projekt damit durch rund 118.000 Computern über 300 Teraflops an Rechenleistung zur Verfügung, was zu diesem Zeitpunkt dem Platz 14 in der Liste der weltweit schnellsten Supercomputer[4] entsprach. Entsprechend dem Mooreschen Gesetz nimmt die Leistung ständig zu. Im Jahr 2016 leistete das Projekt mehr als 1600 Teraflops, wovon der ATLAS-Cluster mit rund 3000 Intel-Xeon-CPUs etwa ein Viertel beitrug und somit schnellster Einzelteilnehmer und zugleich schnellster Rechner der Gravitationswellenforschung war.

Zum Management der Arbeitspakete wird die BOINC-Plattform verwendet. Projektteilnehmer erhalten nach Installation der BOINC-Software und Auswahl des Projekts Einstein@home automatisch Datenpakete, die auf ihren Desktops oder Smartphones während sonst ungenuzter Rechenzeit verarbeitet werden. Auf Endgeräten wie Smartphones, Tablets oder Raspberry Pi werden die Daten wegen der ARM-Architektur besonders energiesparend, aber auch vergleichsweise langsam verarbeitet, während die schnellsten Berechnungen auf Endgeräten wie Desktops mit GPGPU erfolgen.

Die Datenpakete und die Rechenergebnisse werden auf Servern des Albert-Einstein-Instituts vorgehalten. Das Rechenzentrum ist als Serverfarm angelegt, deren Geräte durch Gigabit-Ethernet zusammengeschaltet sind. Die innerhalb des Rechenzentrums abzuarbeitenden Aufgaben werden mittels HTCondor verteilt. Über Ganglia und Intelligent Platform Management Interface kann jeder Server einzeln überwacht werden. Ein kleiner Teil der Server organisiert die Aufgaben für Einstein@home, der größte Teil arbeitet Aufgaben des Projekts ab. Das System ist nicht auf Hochleistungsrechnen, d. h. für die schnellstmögliche Abarbeitung einer Aufgabe, optimiert, sondern auf schnellen Durchsatz verschiedener parallel abzuarbeitender Aufgaben.

Ein wesentliches Teilziel ist die Trennung des Messsignals von Störeinflüssen, da das erwartete Ereignis sehr schwach ist. Dazu werden die von den Teleskopen ermittelten Daten in Segmente aufgeteilt. Die Enden der Segmente überlappen sich, um falsch-negative Befunde zu vermeiden. Mittels Fensterfunktion wird eine Überbewertung dieser Enden verhindert.[5] Die Segmente werden einer Schnellen Fourier-Transformation und nach Zwischensortierung einem Chi-Quadrat-Test unterzogen. Analysen zu kontinuierlichen Gravitationswellen schließen zudem eine komplexe statistische Berechnung wie z. B. eine Hough-Transformation ein. Dadurch werden Signale ermittelt, die sich vom Weißen Rauschen abheben.[6] Diese werden letztlich mittels Pattern Matching per Optimalfilter verglichen mit theoretisch erwarteten Signalen, deren mathematisches Muster berechnet wurde aus den Parametern Amplitude, Phase und der sich aus der Drehachse des Neutronensterns ergebenden Polarisation der Gravitationswelle.

Bei der Auswertung wirkt sich die begrenzte Empfindlichkeit der Detektoren nachteilig auf das Signal-Rausch-Verhältnis aus. Dem soll zum einen durch fortlaufende technische Verbesserungen der Detektoren entgegengewirkt werden, zum anderen sollen die zahlreichen Fehlbefunde, die bislang manuell aussortiert werden müssen, zukünftig per Computer gefunden werden. Dazu muss eine erhebliche Anzahl manueller Befunde erfasst werden, die der Software später als Datenbank dienen kann. Zur Beschleunigung des Verfahrens wurde daher auf das Konzept Citizen Science zurückgegriffen und im Jahr 2016 das Projekt "Gravity Spy" auf der Plattform Zooniverse gestartet.[7]

Die Observatorien werden jeweils von mehreren Forschungsprojekten genutzt. Zudem ist die Menge der fortlaufend anfallenden Daten mit einigen Megabyte pro sec erheblich, denn die LIGO-Rohdaten werden mit einer Frequenz von 16 kHz gesammelt, was weit über der Nyquist-Frequenz liegt, damit auch Millisekundenpulsare sicher erfasst werden.[8] Daher werden ihre Rohdaten zwischengespeichert. Daten des Arecibo-Observatoriums werden vom Rechenzentrum der Cornell University an das Einstein@Home-Projekt übertragen und unterliegen dort Hierarchischem Speichermanagement.[9] Daten des Large Area Teleskops werden vom Rechenzentrum des Jodrell-Bank-Radioobservatoriums an das Einstein@Home-Projekt übertragen.[10] Daten der LIGO-Observatorien können vom California Institute of Technology oder vom Spiegelserver der beteiligten University of Wisconsin–Milwaukee an das Einstein@Home-Projekt übertragen werden.[11] Soweit die Original-Instrumentendaten im 16-bit- oder 4-bit-Format vorliegen, werden sie bereits im Projektserver zu IEEE 754-Gleitkommazahlen konvertiert.

Da die Rechenkapazität letztlich beschränkt ist, werden Rohdaten in einem begrenzten Zeitraum gesammelt und anschließend in einem Arbeitsablauf analysiert. Je nach Zielsetzung wird ein solcher Ablauf als Testlauf oder als wissenschaftlicher Lauf (S = englisch science run) bezeichnet. Ein Arbeitsablauf besteht im Wesentlichen aus drei Arbeitsschritten, von denen der erste und der dritte von Experten ausgeführt wird, während der zweite auf den Rechnern der teilnehmenden Laien abläuft. Der erste Schritt umfasst das Erstellen des Algorithmus, die Aufbereitung der Daten und ihre Anpassung an die Leistungsfähigkeit der unterschiedlichen Rechner sowie an deren Betriebssysteme Linux, Windows, macOS und Android und die Konfiguration der Server. Im zweiten Schritt arbeitet die Einstein@home-Software die im ersten Schritt vorbereiteten Aufgaben, d. h. Arbeitseinheiten, auf den Geräten der Teilnehmer ab und veranlasst den Upload der Ergebnisse auf die Server. Der dritte Schritt umfasst das Speichern der Ergebnisse des zweiten Schritts einschließlich Bewertung und Nachbereitung sowie die wissenschaftliche Publikation.

Einstein@Home begann seine Analysen mit 600 Stunden Datenmaterial aus dem LIGO-Durchlauf S3, dessen Genauigkeit jedoch noch um einiges von der angestrebten Präzision des LIGO-Detektors entfernt war. Die Daten waren bereits vorher im Rechnerverbund untersucht worden, wobei keine Auffälligkeiten entdeckt worden waren. Der erste Einstein@Home-Durchlauf mit S3-Daten diente daher vor allem dem Test der wissenschaftlichen Anwendung und einer besseren Kalibrierung. Dabei wurden zahlreiche Störsignale entdeckt und entfernt. Diese Störsignale kommen durch die Empfindlichkeit der Detektoren zustande. Vor allem durch seismische Störungen, aber auch durch Signale aus dem Stromnetz oder die Meeresbrandung schlagen sie permanent aus. Von diesen Störungen ist jeder Detektor individuell betroffen. Eine Gravitationswelle würde sich dadurch verraten, dass alle Detektoren weltweit gleichzeitig ausschlagen. Nach der „Säuberung“ der S3-Daten wurde diese neue Version nochmals analysiert. Zusätzlich wurden einige falsche Signale eingestreut, um Aussagen über die Entdeckungswahrscheinlichkeit von relevanten Signalen zwischen den Störungen machen zu können.

Von Ende Juni 2005 bis Mitte 2006 lief die Analyse des Anfang 2005 durchgeführten LIGO-Durchlaufs S4, der einen Genauigkeitsfaktor von 2 erreichen sollte.

S5 sollte der erste Durchlauf werden, der die angepeilte Genauigkeit erreicht. Im Rahmen von S5 wurden die LIGO-Detektoren kontinuierlich ein Jahr lang betrieben.[12] Die Analyse der S5-Daten begann im Juni 2006. Der erste Suchlauf S5R1 in diesem Datensatz wurde im Februar 2007 abgeschlossen. Es folgte ein kurzer Suchlauf S5RI in einem begrenzten Frequenzbereich mit einem modifizierten Parametersatz, der bis Mitte April 2007 andauerte. Währenddessen sammelten die Detektoren weiter Daten im Rahmen von S5. Der Berechnungsaufwand steigt dabei exponentiell.

Um die Berechnungen bewältigen zu können, wurde im Suchlauf S5R2 eine neue Anwendung getestet, die eine hierarchische Suche implementiert. Dabei wird zunächst nur in einem groben Raster gesucht und sich später auf die vielversprechenden Stellen konzentriert.

Ab 23. September 2007 begann der Suchlauf S5R3 mit einer zweiten Version des Algorithmus zur hierarchischen Suche, die die Empfindlichkeit etwa um den Faktor 6 verbessert.[13] Der Lauf S5R3b ist eine nahtlose Fortsetzung des S5R3 im Frequenzband oberhalb von 800 Hz. Seit August 2008 fand der Suchlauf S5R4a statt.

Wurden bereits im Dezember 2008 Testläufe für die Suche nach binären Radiopulsaren durchgeführt, werden seit Ende März 2009 Workunits für die Arecibo Binary Pulsar Search genannte Applikation an alle Teilnehmer des Einstein@Home-Projekts verteilt, sofern die Teilnehmer diese in den teilnehmerspezifischen Einstellungen nicht deaktivieren. Nach einigen Wochen von Tests wurden am 26. November 2009 die GPU-Anwendungen zur Arecibo Binary Pulsar Search für Windows und Linux freigegeben. Während der Großteil der Berechnungen weiterhin auf der CPU stattfinden, werden die schnellen Fourier-Transformationen nun auf der GPU berechnet, was zumindest für diesen Teil der Aufgabe zu einer erheblichen Verkürzung der Rechenzeit führt.

Im Juni 2010 gelang dem Projekt der Fund des bisher unbekannten Pulsars PSR J2007+2722 im Sternbild Fuchs.[14] Im März 2011 konnte ein zweiter Erfolg verzeichnet werden mit der Entdeckung des Pulsars PSR J1952+2630 in den Daten aus dem Jahr 2005 des Arecibo-Observatoriums.[15] Bis August 2012 wurden durch das Projekt 46 neue Pulsare entdeckt.[16][17][18] 2013 veröffentlichte man die Entdeckung von 24 Pulsaren im Rahmen einer Analyse, der mit dem Parkes-Observatorium gesammelte Daten zugrunde lagen.[19]

Das Projekt hat von der Rechenleistung her im Januar 2013 die 1-Petaflop-Grenze überschritten und befindet sich von der Rechenleistung des Grids her gesehen auf Augenhöhe mit den 23 leistungsfähigsten Großrechnern der Welt.[20] Das Projekt ist auch verbunden mit der Entdeckung von Gravitationswellen.[21]

Zu den Entdeckungen gehört ein im Jahr 2015 nachgewiesener Pulsar, der sich hinter einem anderen Stern befand. Im Jahr 2016 wurde vergeblich versucht, Gravitationswellen bei dem relativ jungen Objekt Cassiopeia A nachzuweisen.[22] Im selben Jahr wurden 17 Gammastrahlung abgebende Pulsare entdeckt, von denen einer einen Glitch durchmachte.[23] 2016 wurden mit diesem Verfahren zwei Neutronensterne entdeckt, die als Doppelstern zusammenwirken.[24]

Im Jahr 2018 wurden mit Daten der fünf vorherigen Jahre des Fermi Gamma-ray Space Telescopes 2 weitere Pulsare nachgewiesen. Erstmals handelte es sich dabei um solche, die zwar Gammastrahlung abgaben, deren mit Radioteleskopen nachzuweisende Strahlung jedoch zu schwach war oder nicht in Richtung Erde strahlte. Somit wurde ein Werkzeug vorgestellt, mit dem derartige Objekte auch bei Einflüssen von Streuung oder Dunkler Materie zwischen Teleskop und Objekt nachweisbar sein können.[25]

Bis Anfang 2019 konnten kontinuierliche Gravitationswellen nicht nachgewiesen werden, obwohl die Suche auf einige Supernova-Überreste wie Cassiopeia A konzentriert wurde. Dennoch gelang eine Absenkung der Nachweisgrenze.[26]

2021 klärte das Projekt Einstein@Home die Natur eines Doppelsterns auf. Dabei konnte eine zuvor aufgestellte Vermutung bestätigt werden, nach der das System J2039-5617 einen sogenannten Redback-Pulsar enthält, der Material aus einem masseärmeren Begleiter, einem Roten Zwerg aufnimmt.[27] Zudem konnten eine Umlaufzeit von 5,5 Stunden und weitere Details des Systems ermittelt werden.[28]

Die Ergebnisse betreffen also:

  • die Suche nach Gravitationswellen (englisch Gravitational Wave search)
  • die Suche nach binären Pulsaren in den Daten des Arecibo-Teleskops (englisch Binary Radio Pulsar Search)
  • die Suche nach Gamma-Pulsaren (englisch Gamma-ray pulsar search)
Commons: Einstein@Home – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Presseinformation: Startschuss für ein neues Einstein@Home-Projekt (Memento vom 25. Oktober 2017 im Internet Archive)
  2. Fermi Gamma-ray Space Telescope - New insights into Pulsar Physics
  3. Start für ATLAS - Deutschlands viertschnellster Computer für wissenschaftliche Zwecke wird eingeweiht (Memento vom 23. November 2016 im Internet Archive)
  4. Top 500 Liste der schnellsten Supercomputer
  5. Martin A. Green, J. W. Moffat: Extraction of black hole coalescence waveforms from noisy data, 2017, arXiv 1711.00347
  6. J. Aasi et al.: Einstein@Home all-sky search for periodic gravitational waves in LIGO S5 data, Phys.Rev. D87 (2013) no.4, 042001 online
  7. Gravity Spy
  8. Werner Becker: Neutron Stars and Pulsars, 2009, S. 666
  9. Allen, B.; Knispel, B.; Cordes, J. M.; Deneva, J. S.; Hessels, J. W. T.; et al.: The Einstein@Home search for radio pulsars and PSR J2007+2722 discovery, The Astrophysical Journal. 773 (2): 91, 2013
  10. B. Knispel et al.: EINSTEIN@HOME discovery of 24 pulsars in the parkes multi-beam pulsar survey, arXiv 1302.0467v3, 2013
  11. Ian J. Taylor, Ewa Deelman, Dennis B. Gannon, Matthew Shields (Hrsg.): Workflows for e-Science - Scientific Workflows for Grids. 2007, S. 43–46
  12. Sintes, A.: Gravitational wave astronomy: now and future (PDF; 481 kB) S. 6.
  13. Forenpost des Projektwissenschaftlers Reinhard Prix zum S5R3
  14. Pulsar Discovery by Global Volunteer Computing Science Mag
  15. Binary Pulsar Discovery by Volunteer Computing Cornell University
  16. Einstein@Home pulsar discoveries in Parkes Multibeam Survey data. Abgerufen am 6. September 2011.
  17. Seven new pulsars discovered by Einstein@Home volunteers! Abgerufen am 27. August 2012.
  18. Einstein@Home new discoveries and detections of known pulsars in the BRP4 search. Abgerufen am 19. Dezember 2011.
  19. B. Knispel et al.: EINSTEIN@HOME discovery of 24 pulsars in the parkes multi-beam pulsar survey, arXiv 1302.0467v3, 2013 online
  20. Einstein@Home passes 1 Petaflop of computing power! Abgerufen am 13. Januar 2013.
  21. Gravitationswellen: Wer hat's gefunden? Abgerufen am 14. Februar 2016.
  22. Sylvia J. Zhu et al.: Einstein@Home search for continuous gravitational waves from Cassiopeia A, Phys. Rev. D 94, 082008 (2016)
  23. C. J. Clark et al.: The Einstein@home gamma-ray pulsar survey I - search methods, sensitivity and discovery of new young gamma-ray pulsars, 2016, arxiv:1611.01015
  24. Heimcomputer entdecken rekordverdächtiges Pulsar-Neutronenstern-System (Memento vom 11. Dezember 2016 im Internet Archive)
  25. Colin J. Clark, Holger J. Pletsch et al.: Einstein@Home discovers a radio-quiet gamma-ray millisecond pulsar, in: Science Advances 4, 2, 2018 (online)
  26. Jing Ming et al.: Results from an Einstein@Home search for continuous gravitational waves from Cassiopeia A, Vela Jr. and G347.3, 2019, arXiv 1903.09119
  27. A. Corongiu et al.: Radio pulsations from the γ-ray millisecond pulsar PSR J2039-5617. In: arXiv, 2020 2007.14889
  28. C. J. Clark et al.: Einstein@Home discovery of the gamma-ray millisecond pulsar PSR J2039–5617 confirms its predicted redback nature. In: Monthly Notices of the Royal Astronomical Society. 502, 1, 2021, S. 915–934 doi:10.1093/mnras/staa3484