Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel oder Abschnitt bedarf einer Überarbeitung: reine Selbstdarstellung, viel zu ausschweifend, WP:WWNI
Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
Eingangsansicht der GWDG in Turm 6 des Max-Planck-Instituts für biophysikalische Chemie
Kategorie: Forschungseinrichtung
Träger: Die beiden Gesellschafter
Sitz des Trägers: Gesellschaftersitz in
  • Göttingen (Universität Göttingen)
  • München (Max-Planck-Gesellschaft)
Standort der Einrichtung: Göttingen
Grundfinanzierung: Durch beide Gesellschafter
  • Max-Planck-Gesellschaft
  • Universität Göttingen

zu je 50 %

Leitung: Ramin Yahyapour
Homepage: www.gwdg.de
Logo der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

Die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) ist eine gemeinsame Einrichtung der Universität Göttingen und der Max-Planck-Gesellschaft. Gegründet 1970, ist die GWDG das Hochschulrechenzentrum der Universität Göttingen sowie ein Rechen- und IT-Kompetenzzentrum der Max-Planck-Gesellschaft. Die GWDG betreibt eigene Forschung im Bereich der praktischen und angewandten Informatik und ist an zahlreichen Forschungsprojekten[1] beteiligt. Zudem ist sie Mitglied des Deutschen Forschungsnetzes.

Aufgaben und Struktur der GWDG[Bearbeiten | Quelltext bearbeiten]

Die GWDG als Rechen- und IT-Kompetenzzentrum für die Max-Planck-Gesellschaft und als Hochschulrechenzentrum der Georg-August-Universität Göttingen[Bearbeiten | Quelltext bearbeiten]

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-Universität Göttingen – Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V. (MPG). Sie erfüllt die Funktion eines Rechen- und IT-Kompetenzzentrums für die Max-Planck-Gesellschaft und des Hochschulrechenzentrums für die Universität Göttingen. Ihre Forschungsaufgaben liegen im Bereich der Praktischen und Angewandten Informatik. Ferner fördert sie die Ausbildung von Fachkräften für Informationstechnologie.

Lt. Gesellschaftsvertrag fördert die GWDG die Wissenschaft und Forschung, indem sie

  • ein DV-Versorgungssystem für Forschungseinrichtungen und Universitäten betreibt,
  • bei der wissenschaftlichen Gestaltung der IT/TK-Technologie für Forschungsprojekte und universitäre Lehre mitwirkt,
  • für Forschungseinrichtungen und Universitäten als Forschungsförderungseinrichtung Leistungen erbringt,
  • wissenschaftliche Anwender bei der Lösung von Problemen im Bereich der Informations- und Kommunikationstechnologie berät und bei der Umsetzung der Problemlösungen mitwirkt,
  • wissenschaftliche und Anwender von Informations- und Kommunikationstechnologie aus- und weiterbildet,
  • eigene Forschung auf dem Gebiet der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes, für die Lösung wissenschaftlicher Fragen betreibt. Das gesamte von ihr betreute DV-Versorgungssystem ist dabei Objekt der Untersuchung.

Zu den Aufgaben gehören insbesondere der Betrieb von Hochleistungsrechnern (Parallelrechner), die Bereitstellung von Spezialsystemen und die Betreuung des Übertragungsnetzes GÖNET, das die Göttinger Institute verbindet. Über die GWDG ist das GÖNET mit dem nationalen Wissenschaftsnetz X-WiN und dem Internet verbunden.

Als IT-Kompetenzzentrum berät und unterstützt die GWDG die von ihr betreuten Institute bei allen Fragen der wissenschaftlichen Datenverarbeitung.

Forschung im Bereich der Praktischen und Angewandten Informatik[Bearbeiten | Quelltext bearbeiten]

Forschung vollzieht sich meist in der Durchführung von wohl definierten Projekten, die häufig untereinander in Zusammenhang stehen. Das einzelne Projekt durchläuft dabei mehrere Phasen, die zusammen eine Verfahrenskette bilden. Die zunehmende Durchdringung der Forschung durch die Informationstechnologie hat dazu geführt, dass Rechenzentren wie die GWDG in praktisch allen Schritten der Verfahrenskette Forschung involviert sind und einen wesentlichen Beitrag liefern. Hierbei wird sich häufig auch eine gemeinschaftliche Forschung von Wissenschaftlern aus Benutzerinstituten und der GWDG ergeben. Das Gesamtsystem der wissenschaftlichen Datenverarbeitung in einem Versorgungsbereich ist auf diese Weise vollständig mit dem System der Forschung in diesem Bereich verzahnt. Es ist zur wesentlichen Infrastruktur der Wissenschaft geworden, die unmittelbar in dem wissenschaftlichen Erkenntnisprozess mitwirkt, indem sie nämlich Information bereitstellt, umformt und die Kooperation aller Beteiligten in neuartiger Weise ermöglicht. Das letztere ist besonders wichtig, weil Forschung heute hauptsächlich von Teams betrieben wird und der Einzelforscher eher selten ist.

Neben dieser umfangreichen Unterstützung der Forschung in ihren Benutzerinstituten ist die GWDG auch selbst eine wissenschaftliche Einrichtung, die Fragestellungen aus der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes zur Lösung wissenschaftlicher Probleme erforscht. Dieser Themenkreis umfasst solche Teilgebiete wie Rechnerbetriebssysteme, Rechnernetze, Datenübertragungstechnik, Algorithmik, Netz-, System- und Anwendungsmanagement und Organisationslehre der Datenverarbeitung.

Empirische Daten werden dieser Forschung bei der GWDG durch den eigenen Rechenzentrumsbetrieb geliefert.

Dieser ist ein wesentliches Objekt der wissenschaftlichen Untersuchung. Er muss, um dem Zweck dienen zu können, genau auf die Bedürfnisse des Anwenders aus der Wissenschaft ausgerichtet sein. Er stellt aus der Sicht der Forschung der GWDG eine Art Versuchslabor dar, in dem neue Erkenntnisse gewonnen und auch getestet werden. Diese enge Verzahnung zwischen der Forschung und dem Betrieb einer IT-Infrastruktur ist eine notwendige Voraussetzung für hochwertige Forschungsergebnisse in den genannten Gebieten.

Aus den Bedürfnissen der wissenschaftlichen Nutzer ergeben sich laufend neue Entwicklungs- und Anwendungsfelder für die GWDG. Dabei gilt es, sowohl vorhandene Ansätze der wissenschaftlichen Datenverarbeitung zu koordinieren als auch neue Lösungen zu entwickeln.

Vielfältige Projekte gewährleisten, dass die Kompetenz der GWDG nicht nur mit der rasanten Entwicklung Schritt hält, sondern dieser Entwicklung immer einen kleinen Schritt voraus ist. Dies ist eine notwendige Vorbedingung, um die Forschungsaufgaben von heute den Nutzern morgen in Form von Standarddiensten anbieten zu können.

Aus der Sicht des Anwenders ist das Rechenzentrum der GWDG ein Dienstleistungsbetrieb, der auf die Bedürfnisse von und Wissenschaftler hin spezialisiert wurde. Ohne diesen Dienstleistungsbetrieb würde der Forschung der GWDG die empirische Grundlage und die genannte enge Verzahnung fehlen. Forschung und Dienstleistung sind auf diese Weise untrennbar miteinander verbunden.

Damit ist der wissenschaftliche Kernbereich der Arbeit in der GWDG beschrieben. Als wissenschaftliche Einrichtung kann die GWDG jedoch nur arbeiten, wenn eine Umgebung bereitgehalten wird, die die wissenschaftliche Arbeitsmöglichkeit überhaupt sichert. Hierzu gehören bei der GWDG weitere Aktivitäten wie wissenschaftliche Tagungen bzw. Workshops, in denen dem wissenschaftlichen Austausch mit den Universitäts- und Max-Planck-Instituten Raum gegeben wird, das Publikationswesen, die wissenschaftliche Bibliothek, das Rechnermuseum. Zahlreiche Publikationen und auch Promotionen halten die Ergebnisse der Forschungs- und Entwicklungsarbeit der GWDG fest.

Alle Tätigkeiten der GWDG, insbesondere ihre Forschung, aber auch die des Rechenzentrums, sind im Übrigen Voraussetzung für den umfangreichen Schulungsbetrieb der GWDG, in dem Mitarbeiter der wissenschaftlichen Institute zu Fragen der Datenverarbeitung weitergebildet werden.

Ausbildung von Fachkräften für Informationstechnologie[Bearbeiten | Quelltext bearbeiten]

Die GWDG fördert die Ausbildung von Fachkräften für Informationstechnologie in zweierlei Weise: Zum einen durch die Beschäftigung von Auszubildenden sowie je nach Bedarf auch von Praktikanten und zum anderen durch ein umfangreiches Kursangebot für die Benutzer.

Die GWDG bildet seit 1979 aus. Anfangs gab es zwei Ausbildungsplätze, später kamen weitere dazu. Es gibt zurzeit die beiden Ausbildungsgänge "Fachinformatiker/in Anwendungsentwicklung" und "Fachinformatiker/in Systemintegration".

Die Gesellschafter und der Aufsichtsrat[Bearbeiten | Quelltext bearbeiten]

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-Universität Göttingen – Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., die somit die beiden Gesellschafter darstellen und jeweils zur Hälfte beteiligt sind. Im Jahr 2005 hatte das Land Niedersachsen seinen Anteil an der GWDG auf die Stiftungsuniversität Göttingen übertragen. Der Aufsichtsrat hat die vom Gesetzgeber vorgeschriebenen Aufgaben und Pflichten zu erfüllen, insbesondere die Überwachung und Beratung der Geschäftsführung. Die Gesellschafter entsenden jeweils bis zu vier Mitglieder in den Aufsichtsrat. Den Vorsitz im Aufsichtsrat und den stellvertretenden Vorsitz führen im zweijährigen Wechsel ein Vertreter der Max-Planck-Gesellschaft und der Universität Göttingen.

Die Nutzervertretung[Bearbeiten | Quelltext bearbeiten]

Die Nutzervertretung übt laut Gesellschaftsvertrag eine Vielzahl von Aufgaben aus. Dazu gehören vor allem folgende: Sie sammelt die in ihrem Bereich festgestellten Anforderungen zur DV-Nutzung im Forschungs- und Verwaltungsbereich der wissenschaftlichen Einrichtungen, macht Vorschläge zu Änderungen bzw. Neuerungen an von der GWDG angebotenen Dienstleistungen und berät diese mit der GWDG. Die GWDG informiert die Nutzervertretung über geplante Einsätze neuer IT-Technologien und neuer Dienstinhalte und -formen. Die Nutzervertretung kann dazu Stellung nehmen und leitet diese Informationen an die Nutzer ihres Bereichs weiter. Sie besteht aus 20 Mitgliedern und ist jeweils zur Hälfte mit Vertretern aus Einrichtungen der Max-Planck-Gesellschaft und der Universität Göttingen besetzt. Die Nutzervertretung wählt aus ihrer Mitte einen Vorsitzenden sowie einen Stellvertreter. Den Vorsitz und den stellvertretenden Vorsitz führen im zweijährigen Wechsel ein Vertreter der Max-Planck-Gesellschaft und der Universität Göttingen.

Die Organisationsstruktur[Bearbeiten | Quelltext bearbeiten]

Die derzeitige Organisationsstruktur der GWDG, die seit dem 1. Dezember 2004 besteht, ist konsequent auf die unterschiedlichen Dienstleistungsbereiche ausgerichtet und trägt den heutigen Anforderungen an Universitäts- und Forschungsrechenzentren als moderne IT-Kompetenzzentren mit einem umfangreichen Leistungsspektrum Rechnung. Aus Kundensicht verliert die Frage, auf welchen Systemen die Leistungen realisiert werden, bezogen auf die interne Organisation, immer mehr an Bedeutung (plattformübergreifende Orientierung an Dienstleistungen). Das spiegelt sich in der Organisationsstruktur wider. Es gibt sechs Arbeitsgruppen, auf die die Aufgaben und Verantwortungsbereiche aufgeteilt sind:

1.) Arbeitsgruppe Anwendungs- und Informationssysteme (AG A)

Betrieb virtueller Webserver, Datenbanken, Bioinformatik-Systeme, Bibliothekssysteme (Aleph), Macintosh-Beratungszentrum, Langzeitarchivierung, Informationssysteme, Anwendungssysteme

2.) Arbeitsgruppe eScience (AG E)

Erforschung und Entwicklung von umfassenden digitalen Infrastrukturen für Wissenschaft, Wirtschaft und die öffentliche Hand. Schwerpunkte: Daten- und Informationsmanagement, Langzeitarchivierung, IT-Service-Management, Big Data, Cloud Computing, Parallelrechner und wissenschaftliches Rechnen

Unterstützung der Lehre des Lehrstuhls Praktische Informatik, Zentrum für Angewandte Informatik der Georg-August-Universität Göttingen

Unterstützung der Göttingen eResearch Alliance

3.) Arbeitsgruppe Nutzerservice und Betriebsdienste (AG H)

Helpdesk, Benutzerbetreuung, Überwachung der Betriebsbereitschaft, Management-Systeme, Bearbeitung spezieller Benutzeraufträge, Print-Services einschl. Großformatdruck und Betrieb Peripherie-Geräte, E-Mail-Service, Web-2.0-Dienste, Hosting von Systemen, AD-Services, Verzeichnis- und Informationsdienste, Multimedia

4.) Arbeitsgruppe IT-Infrastruktur (AG I)

Wissenschaftsnetz, File- und Backup/Archiv-Services, Betrieb von virtuellen Servern, Basis-Infrastruktur, Datenübertragungsnetze (GÖNET inkl. WLAN)

5.) Arbeitsgruppe Basisdienste und Organisation (AG O)

Reporting/Accounting, Benutzerverwaltung, Identity Management, Portal-Technologien, betriebliche Organisation, Ausbildung, Beschaffung und Verwaltung von Softwarelizenzen, Spezialsysteme (z. B. elektronisches Bewerbungsverfahren), Planung und Durchführung von Kursen zu IT-Themen, Presse- und Öffentlichkeitsarbeit, Bibliothek, Datenschutz, Groupware, Kollaborationssysteme, Public-Key-Infrastruktur

6.) Arbeitsgruppe Verwaltung und Querschnittsaufgaben (AG V)

Finanzbuchhaltung, Inventarverwaltung, Personalwesen, Einkauf, Ausschreibungen, Drittmittelverwaltung, Vertragsverwaltung, Controlling, Wirtschaftsplan / Mittelfristige Finanzplanung, Kosten- und Leistungsrechnung, Reiseplanung und -abrechnung

Geschichte[Bearbeiten | Quelltext bearbeiten]

Zeittafel[Bearbeiten | Quelltext bearbeiten]

Am 29. April 1970 fand die Gründungsversammlung der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen – kurz GWDG – statt. Die beiden Gesellschafter Land Niedersachsen für die Universität Göttingen und Max-Planck-Gesellschaft beteiligten sich zu je 50 % am Kapital der GWDG, und auch die jährlichen Kosten sollten nach dem ebenfalls am 29. April 1970 geschlossenen Konsortialvertrag je zur Hälfte getragen werden. Das wichtigste und für die damalige Zeit innovative Ziel war die Realisierung von Synergien in der Informationsverarbeitung durch den gemeinsamen Betrieb eines Rechenzentrums.

Im Jahr ihrer Gründung nahm die GWDG einen Universalrechner UNIVAC 1108 in Betrieb. Er war durch seine Architektur besonders für numerische Anwendungen geeignet. Die CPU leistete ungefähr 1 Million Instruktionen pro Sekunde, also 1 MIPS. Über acht Ein-/Ausgabe-Kanäle wurden unter anderem zwei Magnettrommelsysteme mit insgesamt ca. 25 Megabyte Speicherplatz betrieben.

Am 23. Februar 1976 wurde Dieter Wall zum wissenschaftlichen Geschäftsführer bestellt und damit Nachfolger von Bruno Brosowski. Wall hat die Gründung der GWDG vorbereitet, bei ihrem Aufbau an entscheidender Stelle mitgewirkt und sie bis zu seiner Pensionierung Mitte 1997 maßgeblich gestaltet und geprägt. Unter seiner Leitung ist die GWDG schon sehr früh als „Vorreiter“ den Weg vom reinen Rechenzentrum zum modernen IT-Kompetenzzentrum für Forschung und Lehre gegangen. Von 1979 an war er Mitglied und von 1988 bis 1994 Vorsitzender der Kommission für Rechenanlagen der DFG.

Im Januar 1978 erschien die erste Ausgabe der GWDG-Nachrichten.[2] Im damaligen Editorial wurden sie als kleine Hauszeitschrift bezeichnet, die u. a. Verständnis für die technischen und organisatorischen Probleme des Rechenzentrumsbetriebes wecken und die Kommunikation zwischen dem Rechenzentrum und seinen Benutzern unterstützen sollte. Die Ausgaben der ersten Jahre waren durch den Abdruck technischer Informationen über die einzige Großrechenanlage UNIVAC 1108 und später UNIVAC 1100/82 geprägt. Beschreibungen des Betriebssystems, einzelner Programme und der Compiler kamen hinzu. Wenige spezielle Kurse wurden angekündigt.

Am 14. September 1979 wurde die UNIVAC 1108, deren Leistung bei Weitem nicht mehr zur Deckung des Bedarfs ausreichte, durch das Nachfolgemodell UNIVAC 1100/82 mit der Aufnahme des Normalbetriebs abgelöst. Sie war mit zwei Rechenprozessoren, die je 2,5 MIPS leisteten, ausgestattet. Hinzu kam ein Ein-/Ausgabeprozessor mit direktem Zugriff auf den gemeinsamen Hauptspeicher.

Am 1. November 1979 wurde der erste PC vom Typ Commodore PET 2001 für die interne Nutzung in der GWDG in Betrieb genommen. Der frei programmierbare Tischrechner mit BASIC-Interpreter hatte eine Taktrate von 1 MegaHertz, eine Hautspeicherkapazität von 8 Kilobyte und ein Magnetbandkassettenlaufwerk.

Am 10. Juli 1981 ging die Rechenanlage VAX 11/780 mit angeschlossenem Farbgrafiksystem in Betrieb. Ihre Hauptanwendung war das Farbgrafiksystem AYDIN 5216 (für interaktive grafische Anwendungen), bestehend aus zwei hochauflösenden Farbmonitoren mit Tastatur und Joystick. Später kam noch das Grafik-Tablett „Digi-Pad 5“ zur interaktiven Digitalisierung von grafischen Darstellungen hinzu, das mit einem Abtaststift arbeitete.

Am 15. Oktober 1984 wurde mit der Inbetriebnahme eines COM-Gerätes (Computer Output on Microfilm) Benson 343 eine bedeutende Erweiterung des grafischen Ausgabeangebotes erreicht. Es konnten Texte und farbige Grafiken auf Mikrofiches (105 mm), 35-mm-Diafilm und 16-mm-Schmalfilm (nur schwarz-weiß) ausgegeben werden. Als zusätzliche Ausstattung für die Arbeit mit Mikrofiches wurden Lesegeräte, ein Entwicklungsgerät, ein Vervielfältigungsgerät und ein Rückvergrößerungsgerät beschafft.

Mitte des Jahres 1987 wurde erstmals eine Verbindung der GWDG zum Deutschen Forschungsnetz WiN und damit auch zum damals noch wenig bekannten Internet eingerichtet. Die Übertragungsrate betrug 64 Kilobit/s. Somit war es erstmals möglich, weltweit mit Partnern in vielen Forschungseinrichtungen moderne Formen der Telekooperation zu nutzen.

Am 15. November 1988 wurde die Rechenanlage IBM 3090 mit Vektoreinrichtung feierlich in Betrieb genommen. Schon ein Jahr vorher, am 19. November 1987 hatte der uneingeschränkte Benutzerbetrieb auf dem Zentralrechner begonnen. Anfangs war er mit zwei Prozessoren, die jeweils 16 MIPS leisteten, und einer Vektoreinrichtung ausgestattet. Im April 1988 wurde die Rechenanlage um einen dritten Prozessor mit Vektoreinrichtung erweitert. Die Leistung betrug damit 48 MIPS ohne Berücksichtigung der Vektoreinrichtungen. Außerdem wurde die Massenspeicherkapazität durch Anschluss von zwei Magnetplattenuntersystemen auf eine Gesamtmassenspeicherkapazität von 45 Gigabyte erhöht.

Im Januar 1992 begann der Betrieb auf den ersten, Benutzern zugänglichen Workstations der GWDG, einer DECstation 5000 und einer IBM RS/6000, unter den UNIX-Betriebssystemen ULTRIX bzw. AIX. Im Juli 1992 schließlich begann der Ausbau der Workstations zu einem Cluster aus zwei DECstations 5000 und fünf Systemen IBM RS/6000, die über einen FDDI-Ring gekoppelt waren. Über Glasfaserkabel wurden Übertragungsraten von 100 Megabit/s unterstützt. Ein Cisco-Router stellte die Verbindung zum Ethernet und zum Internet her. Der Aufbau eines starken Clusters von Workstations als Überlaufkapazität für die Arbeitsplatzrechner in den Instituten war Teil des verteilten kooperativen Versorgungskonzepts und läutete eine neue Ära in der wissenschaftlichen Datenverarbeitung ein.

Im Jahr 1993 konnte ein mit Mitteln der DFG und der Gesellschafter der GWDG finanzierter Parallelrechner KSR1 mit 32 Prozessoren in Betrieb genommen werden. Seine Gesamtrechenleistung betrug 1,28 Gigaflops/s bei einer Gesamtspeichergröße von 1 Gigabyte. Das für die damalige Zeit einzigartige und herausragende Merkmal war die Speicherorganisation nach dem Prinzip des virtuell gemeinsamen Speichers.

Im März 1993 kam es zur Inbetriebnahme des GÖNET-Backbones, eines Bündels von Glasfaserkabeln, das in einem Ring von der GWDG über den Uni-Nordbereich, das Universitätsklinikum, den Bereich des alten Klinikums, das Geisteswissenschaftliche Zentrum und durch die Innenstadt zur Metallphysik, in den Südbereich und zur Universitätssternwarte reichte. In diesem Backbone wurde FDDI-Technologie mit einer Übertragungsleistung von 100 Megabit/sec eingesetzt. Neben den Universitätsinstituten wurden auch das Max-Planck-Institut für Strömungsforschung und das Max-Planck-Institut für Experimentelle Medizin an den Glasfaser-Backbone angebunden.

Im November 1993 wurde erstmals das Leistungsangebot der GWDG Rechner, Netze, Spezialisten, in dem sich die GWDG als IT-Kompetenzzentrum darstellt, veröffentlicht. Die GWDG hatte damit als erstes wissenschaftliches Rechenzentrum in Deutschland eine Empfehlung der Kommission für Rechenanlagen der DFG zum neuen verteilten, kooperativen Versorgungssystem umgesetzt. Ab Januar 1994 wurden alle Aufträge der Benutzer nach den im Katalog aufgeführten Verfahren bearbeitet. Das Abrechnungsverfahren, die Kontingentierung sowie das Kosten- und Leistungsrechnungssystem beruhen seit 1994 auf diesem inzwischen nur noch online und tagesaktuell im WWW verfügbaren Dienstleistungskatalog.

Die GWDG hatte sich im Mai 1994 entschlossen, als weiteres Informationssystem einen WWW-Server zu betreiben. In wenigen Wochen wurden die Inhalte aus dem Boden gestampft. Sie deckten schon in der ersten Ausgabe sowohl die Universität Göttingen als auch die Max-Planck-Gesellschaft ab. Einfach war das jedoch nicht: Tabellen unter HTML waren noch nicht erfunden, an Frontpage oder an andere HTML-Composer war noch nicht zu denken. Inhalte wurden mit simplen Texteditoren erstellt, jeder HTML-Tag musste mit den Fingern auf der Tastatur eingetippt werden.

Am 1. August 1997 wurde Gerhard Schneider Nachfolger des langjährigen Geschäftsführers Dieter Wall, der dieses Amt mehr als 21 Jahre innehatte. Schneider hat vor allem im Netzbereich für die frühzeitige Bereitstellung innovativer Dienste und Möglichkeiten (u. a. ADSL und Funk-LAN) gesorgt und damit dem Wissenschaftsstandort Göttingen und seinen Anwendern gegenüber der Konkurrenz mehrmals einen Vorteil verschafft.

Am 12. Mai 1998 wurde der neue ATM-Backbone durch den damaligen Niedersächsischen Wissenschaftsminister Oppermann eingeweiht. Mit 622 Megabit/s verband das zu der Zeit schnellste Teilstück der wissenschaftlichen Datenautobahn in Niedersachsen die fünf Max-Planck-Institute im Göttinger Raum, die GWDG und die Universität Göttingen untereinander und mit dem Breitband-Wissenschaftsnetz B-WiN. Die ATM-Technik erlaubte neben dem reinen Internet-Verkehr auch Datenverbindungen mit besonderen Qualitätsanforderungen wie Video und Sprache und war damit wichtige Grundlage für Multimedia-Anwendungen.

Anfang des Jahres 2000 ging ein Hochleistungs-Digitaldrucksystem für farbige Ausdrucke in Betrieb – die sog. Druckstraße. Mit ihr konnten unter anderem Flyer, Zeitschriften, Prospekte und wissenschaftliche Publikationen in kleiner bis mittlerer Auflage schnell und kostengünstig produziert werden. Die Anwendungen reichten vom einfachen Ausdruck einzelner Farbseiten bis zur Herstellung umfangreicher gehefteter Broschüren.

Am 10. Februar 2000 wurde das Parallelrechnersystem IBM RS/6000 SP feierlich in Betrieb genommen. Damit stieg die vorhandene Rechenkapazität für wissenschaftliche Simulationsrechnungen um den Faktor 10. Die Gesamtrechenleistung der 144 Prozessoren lag bei ca. 200 Milliarden Rechenoperationen pro Sekunde (200 Gigaflops/s). Es rangierte damit in der Top-500-Liste der weltweiten Rechenssysteme unter den ersten 100.

Am 16. Februar 2001 wurde der erste Abschnitt des Göttinger Funk-LANs GoeMobile offiziell in Betrieb genommen. Das Funk-LAN dient als Ergänzung des schon seit 1993 bestehenden stationären Hochgeschwindigkeitsnetzes GÖNET. Bereits die anfängliche Übertragungsrate von 11 Megabit/sec erlaubte Video- und Tonübertragungen in Echtzeit und ermöglichte damit auch die Teilnahme an Televorlesungen.

Am 1. Januar 2002 übernahm Hartmut Koke, vorheriger stellvertretender Leiter des Rechenzentrums, bis zur endgültigen Findung eines Nachfolgers für den ausgeschiedenen Gerhard Schneider die Geschäftsführung. Koke hat das GÖ*-Projekt zum integrierten Informationsmanagement am Wissenschaftsstandort Göttingen entscheidend mitentwickelt und damit die Kooperation der verschiedenen wissenschaftlichen IT-Dienstleister weiter erfolgreich vorangetrieben.

Am 1. Juli 2003 wurde Bernhard Neumair neuer Geschäftsführer und damit Nachfolger von Hartmut Koke. In seiner siebenjährigen Amtszeit hat Neumair die GWDG erfolgreich weiter zu einem modernen IT-Dienstleister für Forschung und Lehre entwickelt und das breite Leistungsspektrum weiter ausgebaut, verbessert und an die Nutzerbedürfnisse angepasst. Dabei setzte er auf verstärkte Kooperation und konsequente Nutzung von Synergieeffekten zwischen den wissenschaftlichen IT-Dienstleistern am Forschungsstandort Göttingen.

Die GWDG war im Jahr 2005 erstmals auf der CeBIT vertreten. Dort wurden mit dem Instant Cluster und dem GÖ*-Portal zwei Projekte vorgestellt, die sich mit dem einfachen Zugriff auf IT-Ressourcen, mit Fokus auf die wissenschaftliche Nutzung, befasst haben.

Am 30. März 2007 wurden die beiden Hochleistungs-Parallelrechnersysteme SGI Altix 4700 und Megware Woodcrest-Cluster mit einer feierlichen Einweihung offiziell in Betrieb genommen. Mit einer Spitzenleistung der 1.112 Rechenkerne von insgesamt fast 10,5 Teraflops/s, das heißt ca. 10,5 Billionen Rechenoperationen pro Sekunde, gehörten sie zu leistungsfähigsten Rechnern in Niedersachsen und verfünffachten die bei der GWDG für die Wissenschaft und Forschung bereitgestellte Rechenleistung. Diese hohe Leistung sowie 2,6 Terabyte Hauptspeicher und 63,6 Terabyte lokaler Plattenspeicher erlaubten numerische Simulationen von in der naturwissenschaftlichen Grundlagenforschung untersuchten komplexen Systemen in bis dahin nicht erreichter Auflösung und Genauigkeit.

Am 13. Mai 2008 wurde das Göttinger Grid-Ressourcen-Zentrum GoeGrid offiziell in Betrieb genommen. GoeGrid realisiert als Baustein einer zukünftigen eScience-Infrastruktur den zentralen Betrieb und die gemeinsame Nutzung der Rechen- und Speicherressourcen aller Grid-Communities in Göttingen. Es umfasste anfänglich einen Hochleistungs-Rechencluster mit über 800 Rechenkernen, einen Massenspeicherbereich von 180 Terabyte und Archivspeicherkapazität von 30 Terabyte.

Am 1. Juli 2010 übernahmen Oswald Haan, vorheriger stellvertretender Leiter des Rechenzentrums, und Paul Suren, vorheriger Prokurist und Verwaltungsleiter, bis zur endgültigen Findung eines Nachfolgers für den ausgeschiedenen Bernhard Neumair gemeinsam die Geschäftsführung – Oswald Haan als wissenschaftlicher und Paul Suren als administrativer Geschäftsführer.

Am 18. Oktober 2010 feierte die GWDG ihr 40-jähriges Bestehen.

Anfang des Jahres 2011 ging der neue Magny-Cours-Hochleistungs-Rechencluster von Megware in Betrieb. Er enthielt insgesamt 66 Rechenknoten mit jeweils vier AMD-Zwölf-KernProzessoren. Mit einer Gesamtrechenleistung der insgesamt 3.168 Rechenkerne von 27,9 Teraflops/s – das heißt 27,9 Billionen Rechenoperationen pro Sekunde – einem verteilten Hauptspeicher von 8,2 Terabyte und einem verteilten lokalen Plattenspeicher von 64 TeraTerabwar der Magny-Cours-Cluster das zur damaligen Zeit leistungsstärkste Rechnersystem bei der GWDG.

Seit dem 1. Oktober 2011 ist Ramin Yahyapour neuer Geschäftsführer. Ramin Yahyapour löste damit den bisherigen wissenschaftlichen Geschäftsführer, Oswald Haan, und Paul Suren, den bisherigen administrativen Geschäftsführer, ab. Beide hatten nach dem Weggang von Bernhard Neumair am 1. Juli 2010 gemeinsam die Geschäftsführung übernommen. Oswald Haan ging nach 18-jähriger Tätigkeit bei der GWDG in den Ruhestand, Paul Suren ist weiterhin, wie vorher auch, als Prokurist und Verwaltungsleiter bei der GWDG tätig.

Unter dem Motto „Forschung hautnah – von der lebenden Zelle bis zum Roboter“ präsentierten sich am 5. November 2011 das MPI für biophysikalische Chemie, das MPI für Dynamik und Selbstorganisation und die GWDG mit einem gemeinsamen Tag der offenen Tür der Öffentlichkeit und stellten damit den neuen Max-Planck-Campus vor. Rund 3.000 Besucher lockte diese Veranstaltung auf den Faßberg und bot mit einem abwechslungsreichen Programm vielfältige Möglichkeiten, einen Blick hinter die Kulissen der drei Einrichtungen zu werfen.

Am 14. Juni 2012 ist die GWDG offiziell in die Gauß-Allianz aufgenommen worden. Die Gauß-Allianz ist ein weltweit einzigartiger Zusammenschluss von Rechenzentren mit dem Ziel, die Nutzung des High Performance Computing der obersten Leistungsklassen – sogenannter Supercomputer – in Deutschland effizient zu gestalten.

Mit Beginn des Ausbildungsjahrgangs 2012 bildet die GWDG erstmals Fachinformatiker aus. Damit wurde die Palette der Ausbildungsmöglichkeiten um ein weiteres Berufsbild aus den Bereichen Informatik und Informationstechnologien erweitert.

Die GWDG ist im Mai 2013 erfolgreich nach ISO 9001:2008 zertifiziert worden.

Im Juni 2014 hat die Universität Göttingen eine eResearch Alliance zur Unterstützung von Forschung und Lehre mit digitalen Infrastrukturen am Standort Göttingen gegründet. Geleitet wird die Göttingen eResearch Alliance gemeinsam von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) und der GWDG.

Seit dem 20. Oktober 2015 präsentiert sich der Webauftritt der GWDG in einer komplett neuen Form als zentrales Kundenportal für alle Nutzer.

Im Oktober 2016 wurde die Rechenleistung des Scientific Compute Clusters der GWDG erweitert und damit seine Gesamtleistung auf 356 Teraflops/s erhöht.

Geschäftsführer[Bearbeiten | Quelltext bearbeiten]

Nachfolgend sind alle Geschäftsführer seit Gründung der GWDG aufgelistet:

  • Bruno Brosowski (wissenschaftlich; 1970 bis 1975)
  • Kurt Pfuhl (administrativ; 1970 bis 1984)
  • Dieter Wall (wissenschaftlich; 1975 bis 1984)
  • Dieter Wall (1985 bis 1997)
  • Gerhard Schneider (1997 bis 2002)
  • Hartmut Koke (2002 bis 2003)
  • Bernhard Neumair (2003 bis 2010)
  • Oswald Haan (wissenschaftlich; 2010 bis 2011)
  • Paul Suren (administrativ; 2010 bis 2011)
  • Ramin Yahyapour (seit Oktober 2011)

Dienste[Bearbeiten | Quelltext bearbeiten]

Die GWDG bietet ihren Kunden aus der Universität Göttingen und der Max-Planck-Gesellschaft ein breites Spektrum an Informations- und Kommunikationsleistungen für die Wissenschaft. Dazu gehören zum einen die wichtigsten IT-Basisdienste, die jederzeit verlässlich und wirtschaftlich funktionieren müssen, und zum anderen die forschungsnahe Unterstützung für erfolgreiches eScience. In beiden Bereichen steht die GWDG ihren Kunden mit ihrer langjährigen Erfahrung und Kompetenz mit Rat und Tat zur Seite, um sie bei ihrem täglichen IT-Einsatz in Forschung, Lehre und Verwaltung zu unterstützen. 

IT-Basisdienste[Bearbeiten | Quelltext bearbeiten]

  • Mailing & Collaboration (u. a. Exchange, SharePoint und Lotus)
  • Cloud Services (Server, Storage und Cloud Share)
  • Identity Management
  • Daten (Fileservices, Backup und Archiv)
  • Server
  • Netz (GÖNET, WLAN, eduroam)
  • Lizenzmanagement
  • Anwendungen (u. a. Apple-Beratungszen-trum, Bibliotheksdienste, Datenbankdienste und Webdienste)
  • IT-Sicherheit (Beratung und Sicherheitstest)
  • Printservices (u. a. Posterdruck)
  • Kurse und Schulung
  • Multimedia (u. a. Videoconferencing) 

eScience-Support[Bearbeiten | Quelltext bearbeiten]

  • Beratung und Betrieb
  • Forschungsdaten-Management (Erzeugung -> Verarbeitung -> Archivierung, Metadatenerfassung, automatisierte Archivierung und Zugriffsverwaltung)
  • High Performance Computing (HPC) – Wissenschaftliches Rechnen

Forschung[Bearbeiten | Quelltext bearbeiten]

BexIS++[Bearbeiten | Quelltext bearbeiten]

Das Projekt BExIS++[3] dient der Entwicklung von Konzepten und Methoden der Langzeitsicherung von Daten aus dem Feld der Biodiversitäts und Ökosystemforschung der Universität Jena auf Basis der bestehenden BEXIS-Software (Biodiversity-Exploratories Information System). Des Weiteren fördert es die Entwicklung und Institutionalisierung von Beratungs- und Lehrangeboten zum Thema Forschungsdatenmanagement an der Universität Jena und den ebenfalls beteiligten Universitäten Göttingen und TU München.

CLARIN-D[Bearbeiten | Quelltext bearbeiten]

CLARIN-D[4] ist das Deutsche Verbundprojekt im Rahmens des europäischen Forschungskonsortiums CLARIN. Zielsetzung ist die Schaffung einer integrierten, interoperablen und skalierbaren Forschungsinfrastruktur für geistes- und sozialwissenschaftliche Disziplinen, bei denen Sprachressourcen eine wesentliche Rolle spielen. CLARIN konzentriert sich speziell auf die Anforderungen sprachwissenschaftlicher Disziplinen an die Datenverarbeitung in Bezug auf Textannotation oder Werkzeuge für semantische Analysen. Linguistische Daten, Werkzeuge und Dienste sollen systematischer und einfacher nutzbar gemacht werden, als es bislang der Fall ist.

CleanSky[Bearbeiten | Quelltext bearbeiten]

Forschung im Bereich Cloud und Ressourcenmanagement:[5] Im Rahmen dieses interdisziplinären Projekts aus den Bereichen Informatik, Telekommunikation, wissenschaftliches Rechnen und Scheduling entwickeln Nachwuchswissenschaftler innovative, effiziente Methoden im Bereich „Cloud-Computing“ zur Senkung des Energieverbrauchs und damit der Kosten von Rechenzentren. Erarbeitet werden sollen Modelle zur Bündelung von Rechenzentren in einem kleinen Verbund von „Cloud-Zentren“ zum Beispiel durch Service-Migration. Auch die Nutzung erneuerbarer Energien in diesen Cloud-Zentren steht auf der Agenda.

DARIAH-DE[Bearbeiten | Quelltext bearbeiten]

Im Rahmen dieses seit 2011 laufenden Projekts wird eine nachhaltige digitale Infrastruktur in Europa für die Langzeitverfügbarkeit von Kulturgütern und Forschungsdaten in den Kultur- und Geisteswissenschaften errichtet.[6] Als Partner im Verbund DARIAH-EU trägt DARIAH-DE dazu bei, europaweit state-of-the-art-Aktivitäten der Digitalen Geisteswissenschaften zu bündeln und zu vernetzen. Als Teil der europäischen ESFRI-Initiative arbeiten viele Institute auf nationaler und internationaler Ebene zusammen. Gemeinsam bilden sie das europaweit größte geisteswissenschaftliche Projekt für den Aufbau von Infrastrukturen in diesen Forschungsgebieten. Alleine in Deutschland sind 17 Partner beteiligt.

DP4lib[Bearbeiten | Quelltext bearbeiten]

Aufbauend auf das Projekt KOPAL ist Projekt DP4lib[7] die konsequente Weiterentwicklung eines integrierten Dienstes zur Langzeitarchivierung digitaler Daten. Im Projekt DP4lib wurden zunächst die durch die Partner – acht wissenschaftliche Bibliotheken – gegebenen verschiedenen Nutzungsszenarien evaluiert. Diese Ergebnisse wurden auf ihre technische Abbildbarkeit hin untersucht und in modularer Weise so umgesetzt, dass die angepassten oder neu entstandenen Dienste nahtlos in die jeweilige Infrastruktur eingebunden werden können.

EGI-ENGAGE[Bearbeiten | Quelltext bearbeiten]

Unter Leitung der European Grid Infrastructure (EGI), einer gemeinnützigen Stiftung mit Sitz in Amsterdam, wird hier eine verteilte Rechen- und Dateninfrastruktur zur Unterstützung von mehr als 21.000 Forschern aus verschiedensten Disziplinen betrieben und weiterentwickelt. Das Projekt „Engaging the Research Community towards an Open Science Commons“ (EGI-Engage) dient dem Ausbau eines vereinigten e-Infrastruktur-Services für die Forschung. Ziel ist es, neben dem Ausbau einer Grid-Forschungsinfrastruktur für die Unterstützung rechen- und datenintensiver Anwendungen, wie etwa im Bereich Hoch-Energie-Physik, neue Wissenschaftsgebiete wie Geisteswissenschaften mit Grid-Infrastruktur zu versorgen. Hierdurch soll Forschern aus verschiedenen Wissenschaftsdisziplinen ein einfacher und freier Zugang zu innovativen IT-Services ermöglicht werden. Die Ressourcen des Europäischen Wissenschaftsnetzes sollen durch vereinigte Dienste für wissenschaftliches Rechnen, Speichern, Datenmanagement, Kommunikation sowie Wissens- und Erfahrungsmanagement durch das Projekt erweitert werden.

eLabour[Bearbeiten | Quelltext bearbeiten]

Das Projekt eLabour hat den Aufbau eines Forschungsdatenzentrums für sozialwissenschaftliche Daten zur Erforschung der Produktions- und Arbeitskonturen seit dem Ende des „Fordismus“ zum Ziel. Hierzu wird der enorme Bestand der beteiligten Institute an qualitativen, empirischen Studien aus über 40 Jahren arbeits- und industriesoziologischer Forschung mit IT-basierten Methoden zu erschließen sein und nachhaltig im Forschungsdatenzentrum verfügbar gemacht. In interdisziplinären Arbeitsgruppen wird die Entwicklung und Erprobung einer geeigneten Forschungsinfrastruktur und von IT-basierten Methoden für die Sekundäranalyse von qualitativen Daten vorangetrieben, um auf dieser Basis fünf arbeitssoziologische Pilotprojekte zu zentralen Aspekten der Neukonturierung von Arbeit durchzuführen.

GenePaint[Bearbeiten | Quelltext bearbeiten]

Unter dem Dach von GenePaint.org steht Forschern die weltweit erste umfassende Übersicht über die räumliche und zeitliche Aktivität aller bekannten Gene (Genexpression) eines ganzen Säugerorganismus zu einem bestimmten Zeitpunkt seiner Entwicklung am Beispiel des Mäusegenoms zur Verfügung.[8] Mittels dieser Daten ist es zum Beispiel möglich, Kandidatengene für genetische und komplexe Erkrankungen zu ermitteln. Ein Fernziel des Projekts ist der Aufbau eines europäischen Online-Dienstes „European Database of Gene Expression“.

GFBio[Bearbeiten | Quelltext bearbeiten]

Das Projekt GFBio[9] ist der Zusammenschluss der Hauptakteure aus den Bereichen der Archivierung und Bereitstellung umweltbezogener biologischer Daten in Deutschland. Umweltforschung und Biologie stehen vor großen Herausforderungen, die das Ökosystem und die Klimadynamik unseres Planeten betreffen. Um der Größenordnung und Komplexität der zu lösenden Probleme gerecht zu werden, muss vor allem im Bereich des Wissensaustausches stärker zusammengearbeitet werden. Allerdings sind heute biologische Informationen weit verstreut und schwer auffindbar, was ein abgestimmtes Vorgehen zur Verbesserung des Zugangs zu wissenschaftlichen Daten und deren Bewahrung erfordert.

MIKELANGELO[Bearbeiten | Quelltext bearbeiten]

Das europäisch-israelische Konsortialprojekt MIKELANGELO[10] zielt darauf ab, die Architektur virtueller Infrastrukturen im Bereich Cloud Computing grundlegend zu revolutionieren. Das Forscherteam beschäftigt sich dabei mit der gesamten Spannweite der Softwareentwicklung für moderne Rechenarchitekturen für eine Vielzahl von Anwendungen.

NEPHELE[Bearbeiten | Quelltext bearbeiten]

Das Projekt NEPHELE[11] dient der Entwicklung einer dynamischen optischen Netzwerk-Infrastruktur zur Effizienzsteigerung von Rechenzentren und damit auch der Kostenreduzierung und der Energieeinsparung. Durch die Überwindung derzeitiger Architekturbegrenzungen wird damit eine bessere Skalierbarkeit in Cloud-Infrastrukturen ermöglicht.

PERICLES[Bearbeiten | Quelltext bearbeiten]

Das EU-Projekt PERICLES[12] ist im Bereich Langzeitarchivierung digitaler Daten angesiedelt. Es dient der Erforschung von Methoden und Diensten, mittels derer der Lebenszyklus digitaler Objekte erfasst werden kann. Dabei stehen Änderungen im Fokus, die Einfluss auf den Lebenszyklus nehmen können. PERICLES verfolgt einen „preservation-by-Design“-Ansatz, um von der a postiori-Archivierung weg hin zu der Integration der notwendigen Abläufe in den Alltag zu kommen.

Profit-HPC[Bearbeiten | Quelltext bearbeiten]

Durch die immer komplexere Architektur von parallelen Rechensystemen werden Profiling- und Performance-Messungen für einzelne High Performance Computing (HPC)-Anwendungen in allen wissenschaftlich-technischen Gebieten immer wichtiger.[13] Dennoch nutzen nur wenige Forscher die verfügbaren Mittel auf den Parallelrechnern aus, um ihre eigene Anwendung zu optimieren. Im Rahmen dieses Projektes sollen die Bedeutung und Tragweite solcher Profiling-Anwendungen für Nutzer im HPC-Bereich sichtbar gemacht werden. Hierfür werden automatisch Leistungs- und Lastkennzahlen erhoben, welche dem Nutzer nach Beendigung der Anwendung sowohl im Textformat als auch in graphischer Darstellung zur Verfügung gestellt werden. Hinzu kommen Hinweise und Empfehlungen zur weiteren Optimierung der Anwendung auf Basis der gesammelten Kennzahlen.

RADAR[Bearbeiten | Quelltext bearbeiten]

RADAR steht für „Anonymisierte Routinedaten aus der ambulanten Versorgung für die Versorgungsforschung“ (Routine Anonymized Data for Advanced Ambulatory Health Services Research). Hier sollen Routinedaten aus hausärztlichen Praxiscomputern gewonnen werden, in wiederholter, transparenter, „automatischer“ und einheitlicher Weise, bei geringstmöglicher Belastung der Praxismitarbeiter, und unter Berücksichtigung des dabei zwingend erforderlichen Datenschutzes. Fernziel ist eine große Forschungsdatenbank, die repräsentative, anonymisierte Patienten- und Gesundheitsdaten aus ambulanter Versorgung enthält, über lange Zeit, fortlaufend aktualisiert und über verschiedene Versorger hinweg.

SENDATE-Secure-DCI[Bearbeiten | Quelltext bearbeiten]

Das Projekt SENDATE ist ein Celtic-Plus-Project-Verbundprojekt unter dem Dach von EUREKA, der europäischen Initiative für marktnahe Forschung und Entwicklung. Der Projektname steht für „Secure Networking for a Data Center Cloud in Europe“, wobei der Fokus auf sicherer und flexibler Datenzentrums-lnterkonnektivität (DCI: Data Center Interconnects) liegt. Celtic-Plus stimuliert und ermöglicht innovative, industriebetriebene, vorwettbewerbliche F&E-Projekte in den Bereichen Telekommunikation, neue Medien, Zukunft des Internets sowie Anwendungen und Dienste für eine neue „Smart Connected World“. Im SENDATE Secure-DCI-Projekt wird die nächste Generation verteilter Rechenzentren entwickelt, sodass eine flexible und sichere Bereitstellung von Rechen-, Speicher- und Netzwerkressourcen für die Nutzer und Applikationen mit hoher Skalierbarkeit verfügbar ist.

SFB 755 – Nanoscale Photonic Imaging, INF-Projekt[Bearbeiten | Quelltext bearbeiten]

Der Sonderforschungsbereich 755 zielt auf die Entwicklung und Anwendung hochauflösender optischer Methoden zur Visualisierung von Strukturen und Dynamiken in Raum und Zeit im Nanometerbereich.

SFB 990 – EFForTS, INF-Projekt[Bearbeiten | Quelltext bearbeiten]

Im Sonderforschungsbereich 990 – EFForTS – Ökologische und sozioökonomische Funktionen tropischer Tieflandregenwald-Transformationssysteme (Sumatra, Indonesien) stehen ober- und unterirdische Biodiversität, Bodenfruchtbarkeit, Wasser- und Nährstoffflüsse, Treibhausgasemissionen sowie wirtschaftliche, soziale, kulturelle und politische Dimensionen der Landnutzungsänderung im Fokus.

SWZ – Numerically intensive simulations on an integrated computing infrastructure[Bearbeiten | Quelltext bearbeiten]

Das Simulationswissenschaftliche Zentrum Clausthal-Göttingen (SWZ) ist eine gemeinsame interdisziplinäre Einrichtung der Technische Universität Clausthal und der Universität Göttingen zur Stärkung der Kompetenzen auf dem Forschungsgebiet der Simulationswissenschaften. Ziel dieses Projektes ist die Weiterentwicklung der integrierten Rechenumgebung für numerisch aufwändige Strömungsberechnungen an der Technischen Universität Clausthal, der Georg-August-Universität Göttingen und der GWDG und deren Leistungsfähigkeit mit Hilfe von ausgewählten Berechnungsverfahren zu demonstrieren.

Lehre[Bearbeiten | Quelltext bearbeiten]

Der Geschäftsführer der GWDG, Prof. Dr. Ramin Yahyapour, besetzt den Lehrstuhl für Praktische Informatik am Institut für Informatik der Universität Göttingen. Im Rahmen dieser Tätigkeit bietet er turnusmäßig folgende Vorlesungen mit Übungen an:

  • Parallel Computing (Wintersemester)
  • Service Computing (Sommersemester)
  • Distributed Storage and Information Management (Sommersemester)

Dazu werden Bachelor- und Masterarbeiten sowie Promotionen in den Bereichen Datenmanagement, Langzeitdatenarchivierung, IT Service Management, Verteilte Systeme, Speichersysteme und Cloud angeboten. Zudem besteht die Möglichkeit, in den oben genannten Themengebieten als HilfswissenschaftlerIn tätig zu sein.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. GWDG: Forschungsprojekte, Forschungsprojekte
  2. GWDG: GWDG Nachrichten, GWDG-Nachrichten
  3. GWDG: Forschungsprojekt, BExIS++
  4. GWDG: Forschungsprojekt, CLARIN-D
  5. GWDG: Forschungsprojekt, CleanSky
  6. GWDG: Forschungsprojekt, DARIAH-DE
  7. GWDG: Forschungsprojekt, DP4lib
  8. GWDG: Forschungsprojekt, GenePaint
  9. GWDG: Forschungsprojekt, GFBio
  10. GWDG: Forschungsprojekt, MIKELANGELO
  11. GWDG: Forschungsprojekt, NEPHELE
  12. GWDG: Forschungsprojekt, PERICLES
  13. GWDG: Forschungsprojekt, ProfitHPC

Koordinaten: 51° 33′ 47″ N, 9° 58′ 15″ O