Prof. Dr. Gabriele Gramelsberger

Kontakt

Prof. Dr. Gabriele Gramelsberger
gramelsberger@leuphana.de

Gabriele Gramelsberger forscht als promovierte Wissenschaftsphilosophin zum Wandel von Wissenschaft und Gesellschaft durch den Computer. Insbesondere die Nutzung von Computern als Forschungs-, Experimentier- und Prognoseinstrumente der Wissenschaft steht im Fokus ihrer Forschung. Sie führte umfangreiche Studien zur Simulation in den Klimawissenschaft und der Zellbiologie durch.Von 2008 bis 1014 war Gramelsberger Künstlerisch-Wissenschaftliche Mitarbeiterin am Lehrstuhl für Ästhetik an der Kunsthochschule für Medien Köln. In dieser Zeit leitete sie das BMBF Verbundprojekt "Verkörperte Information – 'Lebendige' Algorithmen & Zelluläre 'Maschinen'". 2008 war sie als Gastforscherin am Max-Planck-Institut für Meteorologie Hamburg tätig und davor von 2002 bis 2007 Mitglied der Forschungsinitiative "Science Policy Studies" der Berlin-Brandenburgischen Akademie der Wissenschaften.

 

FORSCHUNGSPROJEKT (Sommersemester 2020)

Mashine Learning Infrastructures in Science

Neben der Computersimulation verändert das Machine Learning (ML) gerade die Forschungslogik zahlreicher Wissenschaftsdisziplinen. Um Machine Learning zu etablieren, bedarf es neuer und diffiziler Forschungsinfrastrukturen, die Zugang zu großen Datenmengen und Rechenressourcen, aber auch neuen Algorithmen erfordern. Das Projektvorhaben untersucht die Entwicklung dieser ML-Forschungsinfrastrukturen, ihren Einsatz in verschiedenen Disziplinen (Meteorologie, Materialwissenschaften, Elementarteilchenphysik). Darüber hinaus wird aus forschungsmethodischer und epistemischer Perspektive das Verhältnis der beiden computerbasierten Forschungsmethoden – Computersimulation und Machine Learning – sowie ihre zunehmende Verwebung untersucht.

 

 

FORSCHUNGSPROJEKT

Automatisierung des Beobachters in Simulationsmodellen und digitalisierten Experimentalsystemen

Mussten zu Beginn der wissenschaftlichen Revolution noch Zeugen die Beobachtungen der Experimentatoren bestätigen, so wurde die Beobachtung im Zuge der Technisierung der Wissenschaft durch Instrumente zunehmend automatisiert. Beispielsweise steuern seit den 1940er Jahren Lichtsensoren als Beobachter in rückgekoppelten biologischen Experimentalsystemen das komplette Systemverhalten. Bereits in den 1980er Jahren entschieden Algorithmen in Erdsatelliten, dass das Ozonloch ein Messfehler sei und nicht existiere. Heute wird selbst die Auswertung der Beobachtungen in digitalisierten Experimentalsystemen den Maschinen überlassen. Algorithmen entscheiden, ob ein Ereignis als relevante Beobachtung registriert wird oder nicht. Laut Angaben der Forscher lässt sich mittlerweile eine 95-prozentige Identifizierungsrate relevanter ‚Beobachtungsevents‘ erzielen.  Seit Neuestem finden sich sogar in Simulationssystemen ‚Beobachtungsinstrumente‘, die ‚in-situ‘ Daten in ‚in-silico‘ Welten sammeln. In Klimasimulationen schwirren Satelliten, die ähnlich ihren realen Pendants die Rückstrahlung der digitalen Atmosphäre messen. In Chemiesimulationen klettern Random-Walker-Programme über Energietäler und -berge um existenzfähige chemische Verbindungen zu lokalisieren.

Das Projekt geht wissenschaftsphilosophisch anhand von Fallstudien zwei Fragen nach: Was bedeutet es für eine Wissenschaft, die sich immer noch als empirische versteht, das Beobachten zu automatisieren? Welchen ‚Beobachtungsraum‘ erschließen Simulationen? Insbesondere letztere Frage steht im Zentrum der Forschung. Das Projekt ist assoziiert an die Forschergruppe „Computersignale – Kunst und Biologie im Zeitalter ihres digitalen Experimentierens“ (Hannes Rickli, ZHdK Zürich).