Wir treffen Professor Dr. Markus Valtiner, den Leiter des Instituts für Angewandte Physik, in seinem großen Eckbüro im Freihaus der TU Wien. Hier genießen wir gemeinsam mit ihm den Blick über Wien, während wir über die Methoden der Grenzflächenphysik sprechen, über die Einbindung alter Instrumente in moderne Datenflüsse, über Datasharing und die Zukunftsaussichten für KI-fähige Daten. Die Welt, die Markus Valtiner erforscht, beginnt genau dort, wo zwei Dinge aufeinandertreffen - an den subtilen Grenzen zwischen Feststoff, Flüssigkeit und Gas. In seinem Institut ist ein „Interface“ kein eleganter Touchscreen, sondern der ultradünne Bereich, in dem unsichtbare Grenzen Eigenschaften wie Härte, Stabilität, Reaktivität und Katalyse steuern.
Grenzflächen sind überall
„Ich befasse mich mit den grundlegenden Eigenschaften von Grenzflächen, weshalb ich mit vielen verschiedenen Fachgebieten zusammenarbeite. Es gibt Expert_innen für Reibung, es gibt Expert_innen für Werkstoffe, aber es gibt immer jemanden, der sich mit Oberflächen und Grenzflächen befasst und Methoden entwickelt. Aus meiner persönlichen Sicht forschen wir viel darüber, wie diese Werkstoffe rauen Umgebungen wie der Elektrolyse standhalten, wenn sie sich zersetzen, und welche Mechanismen dabei eine Rolle spielen.“
Was zunächst abstrakt klingt, wird von Valtiner folgendermaßen heruntergebrochen: Überall, wo es eine Oberfläche gibt, trifft ein Medium auf ein anderes Medium. Wenn ein Feststoff auf eine Flüssigkeit trifft, wird die Grenzfläche plötzlich zu einem Schauplatz für Reibung und Verschleiß, für Adhäsion und die winzigen Wechselwirkungskräfte, die darüber entscheiden, ob zwei Oberflächen reibungslos gleiten oder sich gegenseitig zermahlen. Der abstrakte Begriff „Grenzflächen“ verwandelt sich schnell in sehr konkrete industrielle Probleme. Die Zusammenarbeit des Instituts mit Voestalpine, einem österreichischen Stahlhersteller, konzentriert sich auf ultrahochfeste Stähle, sie sind eine verlockend leichte Alternative zu Aluminium, da sie extrem dünn hergestellt werden können, ohne an Festigkeit zu verlieren. Diese „superfesten” Stähle werden jedoch spröde, wenn sie Wasserstoff ausgesetzt sind. Anstatt ihre mechanischen Eigenschaften zu messen, konzentriert sich die Forschung hier darauf, wie Wasserstoff tatsächlich von außen in das Material eindringt und wie dieser Prozess verlangsamt oder sogar gestoppt werden kann.
Datenintensive Methoden
„Je nachdem, um welche Technik es sich handelt, können pro Versuchstag 5 bis 10 Gigabyte anfallen - das ist eine Menge -, bei Videos mit hoher Bildfrequenz sogar noch mehr. Sobald man Bilder hat, steigt die Datenmenge noch weiter an, und viele unserer Typographien lassen sich nur sehr schwer komprimieren, da man später noch einmal zurückgehen und Details betrachten möchte. Wenn man sie komprimiert, kann man viele Dinge nicht mehr sehen, die man eigentlich sehen möchte.“
Valtiners Institut verwendet Rasterkraftmikroskopie (AFM) an Fest-Flüssig-Grenzflächen, um mit extrem hoher räumlicher Auflösung fast atomgenau zu verfolgen, wie sich Moleküle auf einer Oberfläche anordnen und bewegen. An Vakuumgrenzflächen können sogar einzelne Atomorbitale nachgezeichnet werden und so abstrakte Quantenobjekte in topografische Bilder der Oberflächenlandschaft umwandeln. Bildgebende Verfahren können leicht fünf bis zehn Gigabyte pro Versuchstag erzeugen, insbesondere wenn Videos mit hohen Bildraten beteiligt sind. Im Gegensatz dazu erzeugen spektroskopische Methoden wie die Röntgen-Photoelektronenspektroskopie (XPS) unzählige einzelne Spektren, die winzig klein sind, oft nur einfache Datensätze mit zwei Spalten. Aber sie summieren sich zu großen Messreihen, die ebenso sorgfältig organisiert, gespeichert und interpretiert werden müssen wie die Bilder selbst.
Herausforderungen beim Teilen proprietärer Formate
„Die meisten Veröffentlichungen aus unserer Abteilung besagen, dass Daten ‚auf begründete Anfrage hin‘ im Repository zur Verfügung gestellt werden. Wir sind jedoch dabei, das in Zukunft anders zu handhaben. Das braucht natürlich Zeit, da wir viele verschiedene Instrumente haben, von denen einige mit proprietärer Software arbeiten, um die Daten überhaupt verarbeiten zu können. Ohne diese Software sind die Daten sonst ohnehin völlig nutzlos.“
Valtiner erklärt, dass die Datenspeicherung mit einem institutionellen RAID-Server beginnt, der Redundanz über acht Laufwerke bietet, wobei bis zu drei ausfallen können, ohne dass ein Totalverlust entsteht. Ein Ausfall im letzten Jahr hat dieses System auf die Probe gestellt und eine professionelle Wiederherstellung erforderlich gemacht, die zwar funktionierte, aber viel Zeit in Anspruch nahm. Die gemeinsame Nutzung von Daten ist noch in Arbeit, da die Umstellung auf Open Access aufgrund proprietärer Instrumentensoftware, die Daten in unzugänglichen Formaten sperrt, hinterherhinkt. Um den Datenfluss zu automatisieren, konvertiert Valtiners Team proprietäre Formate in offene, maschinenlesbare Strukturen. Dies erfolgt entweder durch Export über die Software des Anbieters, sofern möglich, oder durch Umgehung der Formate mit benutzerdefinierten Skripten von einem Spezialisten. Das Ziel ist eine nahtlose Pipeline: Daten werden automatisch erfasst, in selbst entwickelte Open-Source-Analysetools eingespeist und über Jupyter-Notebooks auf GitLab versioniert.
Alte Maschinen stellen hier die größte Hürde dar: Relikte aus dem Jahr 1994 oder der Windows-XP-Ära, die erstklassige Daten liefern, aber hochanfällig für Viren sind und daher netzlos bleiben müssen. Damit fallen USB-Stick-Transporte an, die jede Automatisierung zunichtemachen, weswegen für diese Geräte nun sogenannte „versiegelte Container“ als sichere Brücken getestet werden. Langfristig ist das Ziel, jeder Datenausgabe – egal welcher Messinstrumente und einschließlich fehlgeschlagener Experimente – automatisch DOIs hinzuzufügen und die Daten ohne Vorsortierung auf unbegrenzten, kostengünstigen Servern zu speichern.
Zukünftige Infrastruktur für automatisierten Datenfluss
„Die Ausgabe muss so strukturiert sein, dass sie auch die Metadaten und alles enthält, was für maschinelles Lernen und Training erforderlich ist. Das ist in den experimentellen Wissenschaften sehr kompliziert. Man muss erklären, was man getan hat und warum. Das funktioniert nicht automatisch. Daher muss man die Studierenden und Forschenden dazu zwingen, die Metadaten manuell einzugeben.“
Die Automatisierung von Metadaten bleibt schwierig, insbesondere für Oberflächen, bei denen sich der Kontext, wie zum Beispiel Vorbereitungsschritte, der maschinellen Erfassung entzieht. Eine Lösung, die Data Science-Studierende vorgeschlagen haben, nutzt Nahfeldgeräte zur Benutzeridentifizierung. Bevor mit einer Messung begonnen wird, müssen die Forschenden fünf Minuten lang protokollieren, was sie vorhaben – andernfalls bleibt die Maschine gesperrt. Labornotizen müssen in strukturierte Metadaten verwandelt werden, ergänzt um automatische Details wie Geräte-ID, Labortemperatur und Zeitstempel. Diese nahtlose Integration bereitet Daten auf das KI-Zeitalter vor, das laut Valtiner schnell näher rückt und Analysen von Materialien sowie Parametererkundungen grundlegend verändern wird. Als Leiter der Angewandten Physik an der TU Wien ist er entschlossen, mit umfassenden Datenbanken, automatisierter Literaturverarbeitung und ausreichender Rechenleistung die atomistischen Simulationen (derzeit bis ca. 10 x 10 Nanometer) auf makroskopische Skalen zu übertragen – vielleicht sogar bis zu Vorhersagen auf Zellenebene – und so diesen Umbruch voranzutreiben Für Markus Valtiner hängt alles von nutzbaren Daten ab: Die Labore der TU Wien produzieren jährlich Terabytes an Spektren und andere Datensets, die „Gold wert sind, wenn sie FAIR gemacht werden”.
Kontakt
Markus Valtiner
Institut für Angewandte Physik
TU Wien
markus.valtiner@tuwien.ac.at
Zentrum für Forschungsdatenmanagement
TU Wien
research.data@tuwien.ac.at
