Die Personen, die die Nutzung der HPC Ressourcen und Services möglich machen, sind ein
arbeitsgruppenübergreifendes Team, das zu einem großen Teil aus der AG
Computing besteht. Die Personen sind alphabetisch
geordnet.
Bernhard Bandow erhielt sein Diplom in Physik an der Technischen Universität Berlin mit einer Arbeit an MD-Simulationen von Systemen mit begrenzter Geometrie. Anschließend promovierte er 2007 in Physikalischer Chemie an der Christian-Albrechts-Universität zu Kiel über die globale Geometrieoptimierung von Wasserclustern unter Verwendung genetischer Algorithmen. Nach einem Aufenthalt als Postdoc am Deutschen Institut für Kautschuktechnik (DIK) in Hannover wechselte er 2008 an die Leibniz Universität Hannover für das Rechenzentrum und die North German Supercomputing Alliance (HLRN). Ab 2011 arbeitete er am Rechenzentrum des Max-Planck-Instituts für Sonnensystemforschung in Göttingen. 2019 wechselte er als HPC-Koordinator des Göttingen Campus Institute for Dynamics of Biological Networks (CIDBN) zur GWDG.
Kompetenzen:
Campus Institut für Dynamik biologischer Netzwerke
Herr Johannes Biermann ist seit dem 14. Februar 2022 in der AG Computing im Bereich Digital Humanities (DH) tätig. Ziel ist es, die HPC Nutzung in dieser Disziplin zu etablieren. Vorher hat er verschiedene Projekte im DH-Kontext an der SUB Göttingen durchgeführt. Johannes Biermann hat „Informationstechnik - Betriebliche Informationssysteme“ an der Dualen Hochschule Baden-Württemberg Stuttgart studiert. Danach arbeite er als eBusiness Spezialist in einer privaten Firma. Anschließend machte er 2013 seinen Master an der Staatlichen Akademie der Bildenden Künste in Stuttgart im Bereich „Conservation of New Media and Digital Information“.
Christian Böhme ist seit 2003 bei der GWDG und hat das Ressourcenmanagement für den ersten Linux-basierten HPC-Cluster der GWDG eingeführt und betrieben. Er hat die Planung und den Betrieb mehrerer HPC-Systeme koordiniert, darunter das NHR-System „Emmy“, sowie das Modular Data Center (MDC) der Universität Göttingen. Er hat auch nationale Forschungsprojekte zu HPC-as-a-Service und Leistungsüberwachung koordiniert. Vorherige Karrierestationen waren die Universität Bochum bei Dominik Marx, die Universität Straßburg bei Georges Wipff und die Universität Marburg, wo er bei Gernot Frenking in Computerchemie promovierte.
Alexander Goldmann studierte Medienmanagement (B.A.) an der Ostfalia Hochschule für Angewandte Wissenschaften in Salzgitter. Anschließend absolvierte er eine Ausbildung zum PR-Berater in der Berliner Werbeagentur „Zum goldenen Hirschen“. Zudem war er als Community Manager für den Aufbau und die Pflege der Community im Berliner Coworking Space St. Oberholz sowie für das gesamte Marketing und die PR verantwortlich. Im Rahmen dieser Tätigkeit sammelte er auch Erfahrungen in der Betreuung verschiedener Communitymitglieder. Neben seiner Tätigkeit als Community Manager war er auch für die Planung und Durchführung von Veranstaltungen, Schulungen, Workshops und sonstigen Events für interne und externe Teilnehmer verantwortlich.
Christoph Hottenroth ist als technischer Mitarbeiter in der Arbeitsgruppe „Computing“ (AG C) tätig. Er arbeitet dort als IT-Systembetreuer im Team, das den neuen DLR-Supercomputer "CARO" betreibt. Christoph hat längere Zeit als IT-Systemadministrator im Bereich Windows-Administration gearbeitet und dabei alle Bereiche von Hardware und Virtualisierung über Netzwerk bis hin zur Spezialsoftware-Administration abgedeckt. Seine spezieller Fokus lag bisher im Bereich Microsoft Exchange.
Nils Kanning studierte Physik an der Universität Göttingen und promovierte in mathematischer Physik an der Humboldt-Universität zu Berlin. Seine Forschung im Bereich integrierbarer Modelle setzte er als Postdoc an der Ludwig-Maximilians-Universität München fort. Bei der GWDG ist er nun Teil des Teams, das das DLR-HPC-System „Caro“ betreibt und betreut. In dieser Funktion kümmert er sich um Forschungskooperationen und Öffentlichkeitsarbeit für das System.
Azat Khuziyakhmetov studierte Angewandte Mathematik und Informatik an der Staatlichen Universität Moskau, setzte seinen Masterstudiengang Internet-Technologien und Informationssysteme (ITIS) an der Universität Göttingen fort und schloss mit der Masterarbeit "Anomalieerkennung der GPU-Nutzung mit neuronalen Netzen" ab. Er arbeitete als Softwareentwickler und Administrator. An der Universität Göttingen war er an der Lehre der Kurse „Algorithms for Programming Contests“ und „Parallel Computing“ beteiligt. In der GWDG war er am Projekt ProfiT-HPC beteiligt. Arbeitet derzeit im DLR-Team und verwaltet mehrere HPC-Cluster.
Kompetenzen:
DLR
Administration
Monitoring
Offene Themen für Arbeiten und Projekte
Thema
Professor*in
Typ
Vergleich der Leistung von Remote-Visualisierungstechniken
Prof. Julian Kunkel
BSc, MSc
Empfehlungssystem für die Leistungsüberwachung und -analyse im HPC
Christian Köhler studierte Physik an der Universität Göttingen und schloss 2011 sein Diplom mit der Arbeit „String-lokalisierte Felder und punktlokalisierte Ströme in masselosen Wigner-Darstellungen mit unendlichem Spin“ ab. 2015 schloss er seine Doktorarbeit „„Über die Lokalisationseigenschaften von Quantenfeldern mit Nullmasse und unendlichem Spin“". Er kam zur GWDG für die Softwareentwicklung im INF ADIR-Projekt und wechselte im Rahmen der Inbetriebnahme des HLRN-IV-Systems „Emmy“ in das HPC-Team. Seitdem berät er SCC- und HLRN-Nutzer zu wissenschaftlichen Anwendungen und ist für das Büro des HLRN-Verwaltungsrats tätig.
Sebastian Krey studierte Statistik an der Technischen Universität Dortmund mit Nebenfach Physik und Hauptfach Technometrie. Sein Studium schloss er 2008 mit der Diplomarbeit „SVM-basierte Schallklassifikation“ ab. Danach war er Stipendiat des Graduiertenkollegs „Statistische Modellierung“ und wissenschaftlicher Mitarbeiter in der DFG-Forschungsgruppe 1511 „Schutz- und Steuerungssysteme für zuverlässige und sichere elektrische Energieübertragung“. Von 2015 bis 2019 war er wissenschaftlicher Mitarbeiter am Institut für Data Science, Engineering, and Analytics der Technischen Universität Köln und arbeitete an verschiedenen Projekten zu Statistik und maschinellen Lernmethoden und wandte seine Erfahrungen in angewandter Mathematik und Statistik auf Mathematik und Daten an naturwissenschaftliche Ausbildung der Studiengänge Ingenieurwissenschaften und Informatik eingeführt.
Dr. Kunkel ist Professor für Hochleistungsrechnen an der Universität Göttingen, stellvertretender Leiter der GWDG und Gruppenleiter der Arbeitsgruppe Computing. Zuvor war er Dozent am Computer Science Department der University of Reading und Postdoc in der Forschungsabteilung des Deutschen Klimarechenzentrums (DKRZ). Julian interessierte sich 2003 während seines Informatikstudiums für das Thema HPC-Storage. Neben seinem Hauptziel, effiziente und leistungsfähige E/A bereitzustellen, sind seine HPC-bezogenen Interessen Datenreduktionstechniken, Leistungsanalyse von parallelen Anwendungen und parallelem E/A, Management von Clustersystemen, Kosteneffizienzbetrachtungen und das Software Engineering wissenschaftlicher Software. Er ist Gründungsmitglied der IO500-Benchmarking-Bemühungen, des Virtual Institute for I/O und des HPC Certification Forum. Zudem engagiert sich Julian für Exzellenz in Forschung und Lehre.
Kompetenzen:
Leistungsstarke Datenanalyse
Datenmanagement
Datengesteuerte Arbeitsabläufe
Parallele Dateisysteme
Anwendung von maschinellen Lernverfahren
Performance-Portabilität
Datenreduktionstechniken
Verwaltung von Clustersystemen
Leistungsanalyse paralleler Anwendungen und paralleler I/O
Im Rahmen seines Promotionsvorhabens an der HU Berlin befasste sich Tino Meisel mit Grundlagenforschung im Bereich Optoelektronik und Epitaxie auf Halbleitern. Die im HPC-Bereich eingesetzten Anwendungen MATLAB und Wolfram Mathematica sowie die Programmiersprache Python nutzte er bereits für ein Data-Science-Projekt zur Analyse von SARS-CoV-2-Zeitreihen.
Marcus Merz hat durch seine berufliche Laufbahn Erfahrungen in verschiedenen Bereichen der Technik gesammelt. Aufgrund seines Studiums der technischen Informatik und seiner Tätigkeit verfügt er über Kenntnisse auf allen Ebenen der Entwicklung von Hardwaredesigns mit FPGA sowie der Firmware-, Treiber- und Linux-Entwicklung für eingebettete Systeme. Hinzu kommen Erfahrungen im Aufbau, in der Integration und im Betrieb von Netzwerken und entsprechenden Komponenten im medizinischen Bereich. Dazu gehören auch der Aufbau und Service eines Echtzeit-Netzwerks und Kontrollsystems für einen Teilchenbeschleuniger in der Krebstherapie. In all diesen Bereichen war er auch für die technische und administrative Betreuung seiner Kollegen und Kunden verantwortlich.
Frau Stefanie Mühlhausen als wissenschaftliche Mitarbeiterin in der Arbeitsgruppe Computing (AG C) tätig. Sie unterstützt das Team bei wissenschaftlichen Aktivitäten und in der Lehre. Frau Mühlhausen hat an der Georg-August-Universität Biologie und Angewandte Informatik mit Schwerpunkt Bioinformatik studiert und am Max-Planck- Institut für biophysikalische Chemie über Charakterisika eukaryotischer Genomevolution promoviert. Nach ihrer Promotion hat Frau Mühlhausen am Milner Center for Evolution in Bath, UK geforscht sowie als Data Scientist in der Industrie gearbeitet. Zuletzt hat sie als wissenschaftliche Mitarbeiterin am Institut für Informatik an der Universität Göttingen in dem Ausgründungsprojekt "Genometation" mitgearbeitet. Frau Mühlhausen hat langjährige Erfahrungen mit dem Rechnen auf HPC-Systemen.
Hendrik Nolte studierte Physik an der Universität Göttingen und schloss sein Masterstudium mit der Arbeit „Visualisierung und Analyse multidimensionaler Photoelektronenspektroskopiedaten“ ab. Er kam 2019 zur GWDG, um die allgemeine Entwicklung einer eigenen Data-Lake-Lösung zu unterstützen.
Kompetenzen:
Data Lakes
Veröffentlichungen
2023
Secure HPC: A workflow providing a secure partition on an HPC system
(Hendrik Nolte, Nicolai Spicher, Andrew Russel, Tim Ehlers, Sebastian Krey, Dagmar Krefting, Julian Kunkel),
2023-01-01
DOI
2022
Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes
(Hendrik Nolte, Philipp Wieder),
2022-01-01
DOI
Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes
(Hendrik Nolte, Philipp Wieder),
2022-01-01
URL
Toward data lakes as central building blocks for data management and analysis
(Philipp Wieder, Hendrik Nolte),
2022-01-01
DOI
Toward data lakes as central building blocks for data management and analysis
(Hendrik Nolte, Philipp Wieder),
2022-01-01
URL
BibTeX: Secure HPC: A workflow providing a secure partition on an HPC system
@article{2_133248,
author = {Hendrik Nolte and Nicolai Spicher and Andrew Russel and Tim Ehlers and Sebastian Krey and Dagmar Krefting and Julian Kunkel},
doi = {10.1016/j.future.2022.12.019},
grolink = {https://resolver.sub.uni-goettingen.de/purl?gro-2/133248},
month = {01},
title = {Secure HPC: A workflow providing a secure partition on an HPC system},
type = {article},
year = {2023},
}
BibTeX: Toward data lakes as central building blocks for data management and analysis
@article{2_129372,
abstract = {"Data lakes are a fundamental building block for many industrial data analysis solutions and becoming increasingly popular in research. Often associated with big data use cases, data lakes are, for example, used as central data management systems of research institutions or as the core entity of machine learning pipelines. The basic underlying idea of retaining data in its native format within a data lake facilitates a large range of use cases and improves data reusability, especially when compared to the schema-on-write approach applied in data warehouses, where data is transformed prior to the actual storage to fit a predefined schema. Storing such massive amounts of raw data, however, has its very own challenges, spanning from the general data modeling, and indexing for concise querying to the integration of suitable and scalable compute capabilities. In this contribution, influential papers of the last decade have been selected to provide a comprehensive overview of developments and obtained results. The papers are analyzed with regard to the applicability of their input to data lakes that serve as central data management systems of research institutions. To achieve this, contributions to data lake architectures, metadata models, data provenance, workflow support, and FAIR principles are investigated. Last, but not least, these capabilities are mapped onto the requirements of two common research personae to identify open challenges. With that, potential research topics are determined, which have to be tackled toward the applicability of data lakes as central building blocks for research data management."},
author = {Hendrik Nolte and Philipp Wieder},
grolink = {https://resolver.sub.uni-goettingen.de/purl?gro-2/129372},
month = {01},
title = {Toward data lakes as central building blocks for data management and analysis},
type = {article},
url = {https://publications.goettingen-research-online.de/handle/2/114449},
year = {2022},
}
BibTeX: Toward data lakes as central building blocks for data management and analysis
@article{2_114449,
abstract = {"Data lakes are a fundamental building block for many industrial data analysis solutions and becoming increasingly popular in research. Often associated with big data use cases, data lakes are, for example, used as central data management systems of research institutions or as the core entity of machine learning pipelines. The basic underlying idea of retaining data in its native format within a data lake facilitates a large range of use cases and improves data reusability, especially when compared to the schema-on-write approach applied in data warehouses, where data is transformed prior to the actual storage to fit a predefined schema. Storing such massive amounts of raw data, however, has its very own challenges, spanning from the general data modeling, and indexing for concise querying to the integration of suitable and scalable compute capabilities. In this contribution, influential papers of the last decade have been selected to provide a comprehensive overview of developments and obtained results. The papers are analyzed with regard to the applicability of their input to data lakes that serve as central data management systems of research institutions. To achieve this, contributions to data lake architectures, metadata models, data provenance, workflow support, and FAIR principles are investigated. Last, but not least, these capabilities are mapped onto the requirements of two common research personae to identify open challenges. With that, potential research topics are determined, which have to be tackled toward the applicability of data lakes as central building blocks for research data management."},
author = {Philipp Wieder and Hendrik Nolte},
doi = {10.3389/fdata.2022.945720},
grolink = {https://resolver.sub.uni-goettingen.de/purl?gro-2/114449},
month = {01},
title = {Toward data lakes as central building blocks for data management and analysis},
type = {article},
year = {2022},
}
BibTeX: Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes
@article{2_129373,
author = {Hendrik Nolte and Philipp Wieder},
grolink = {https://resolver.sub.uni-goettingen.de/purl?gro-2/129373},
month = {01},
title = {Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes},
type = {article},
url = {https://publications.goettingen-research-online.de/handle/2/121151},
year = {2022},
}
BibTeX: Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes
@article{2_121151,
author = {Hendrik Nolte and Philipp Wieder},
doi = {10.1162/dint_a_00141},
grolink = {https://resolver.sub.uni-goettingen.de/purl?gro-2/121151},
month = {01},
title = {Realising Data-Centric Scientific Workflows with Provenance-Capturing on Data Lakes},
type = {article},
year = {2022},
}
Offene Themen für Arbeiten und Projekte
Thema
Professor*in
Typ
Entwicklung einer Provenance aware ad-hoc Schnittstelle für einen Data Lake
Prof. Julian Kunkel
BSc, MSc
Semantische Klassifizierung von Metadatenattributen in einem Data Lake durch maschinelles Lernen
Martin Leandro Paleico betreut verschiedene Aspekte des Bioinformatik-Angebots der GWDG. Dr. Paleico studierte Chemie an der Universität von Buenos Aires und promovierte 2021 in Computational and Theporetical Chemistry an der Universität Göttingen mit dem Titel „Neural Network Potential Simulations of Copper Supported on Zinc Oxide Surfaces“. Seine Interessen liegen in Chemie, Biologie, Programmierung, maschinellem Lernen und Systemadministration.
Trevor begann sein Studium in Tunesien an der Universität Gabès, wo er seinen Bachelor in Mathematik erwarb. Sein Mathematik-Studium setzte er an der Universität Göttingen in Mathematik mit Schwerpunkt Stochastik fort, dass er erfolgreich mit dem Master abschloss. Während seines Studiums arbeitete er als studentische Hilfskraft am Fraunhofer IEE und am Institut für Mathematische Stochastik (IMS) in Göttingen, wo er Erfahrungen in verschiedenen Bereichen wie Data Science, maschinelles Lernen und Python-Programmierung sammeln konnte.
Herr Vogt erwarb seinen Abschluss „Master of Science“ in Angewandter Informatik an der Universität Göttingen. Im Rahmen seiner Masterarbeit „Enhancing the Visual Hull Method“ im Bereich „Computer Vision“ sammelte er maßgebliche Erfahrungen im Bereich High Performance Computing, insbesondere mit GPUs. Während seines Studiums an der Universität Göttingen war er auch als studentische Hilfskraft an der Universität beschäftigt und mit Systemadministrations- und Softwareentwicklungsaufgaben betraut. Herr Vogt verfügt über langjährige Erfahrung in der Softwareentwicklung und -administration, sowohl aus dem Studium als auch aus persönlichen Projekten.
Artur Wachtel ist als wissenschaftlicher Mitarbeiter in der Arbeitsgruppe „Computing“ (AG C) tätig. Er unterstützt dort das Team, das den neuen DLR- Supercomputer „CARO“ betreibt. Nach dem Studium der Physik an der Universität Göttingen hat Herr Wachtel an der Universität Luxemburg in Physik über die Thermodynamik chemischer Reaktionsnetzwerke promoviert. In den folgenden Jahren hat er an den Universitäten Luxemburg und Yale in statistischer Physik und theoretischer Biophysik geforscht. Herr Wachtel hat außerdem langjährige Erfahrung in der Linux-Systemadministration und seit seiner Promotion auch Erfahrungen mit dem Rechnen auf HPC-Systemen.