Prof. Dr. Britta Schinzel

Britta Schinzel promovierte in Mathematik, arbeitete in der Computerindustrie und habiliterte sich in der Informatik. Im Rahmen ihrer Professur für Theoretische Informatik an der RWTH Aachen arbeitete sie zunehmend interdisziplinär, mit Linguistik, Soziologie, Biologie, Wirtschaft, Materialwissenschaft und Medizin und begann, sich mit Informatik und Gesellschaft und Gender Studies Informatik zu beschäftigen.

Seit ihrer Berufung an das Institut für Informatik und Gesellschaft an der Universität Freiburg befasst sie sich mit Informatik und Gesellschaft, Technikfolgenabschätzung, Gender Studies in Informatik und Naturwissenschaft, sowie Neuen Medien in der Hochschullehre.

 

FORSCHUNGSPROJEKT

Durch die technische Architektur von Informationssystemen wurde ein neues Feld der Formierung menschlichen Wissens und Denkens, sowie der Regulierung menschlichen Handelns geschaffen: der Code als zusätzlicher Regulierungsmechanismus (Lessig 1999) erweitert, gestaltet, kanalisiert und formt herkömmliche Mechanismen der Wissens- und Entscheidungsbildung um, verschließt damit auch andere Wege und Möglichkeiten oder setzt gar juridische und institutionelle Regulatoren außer Kraft.

Doch folgen die Architekturen und Gestaltung von Code nur sehr bedingt Regularien, die sozial erwünschten Vorstellungen gehorchen, oder auch etwa ethischen Richtlinien anhängen. Auch werden Design- Entscheidungen oft nicht aufgrund von formalen Methoden oder Qualitätsstandards getroffen, weil es sie nicht für jede offene Situation geben kann, zum anderen weil informatische Qualitätsstandards oft auch nicht explizit gemacht werden, neben dem Angebot von  Qualitätsstandardisierungsfirmen und Zertifizierungsinstitutionen können sie u.a. auch firmenspezifisch festgelegt oder individuell erfahrungsgetrieben sein. Das begünstigt die I-Methodology (oder Ego-Approach), d.h. diese Entscheidungen werden geleitet von den Einstellungen und Werten der Entwickelnden und Entscheidenden, von ihren mentalen Konzepten. Somit ist die Entwicklung der Informationstechnik zwar kontingent, aber sie  verfestigt sich im Zusammenspiel mit politischen und Marktmechanismen in einer Eigendynamik. Es ist daher wichtig, sich jeweils die Ziele, Episteme, Leitbilder, Qualitätsvorstellungen und Hintergrundannahmen, die in die Gestaltung solcher Systeme, des Codes bzw. der Software einfließen, bewußt zu machen.

Im Rahmen des für die Leuphana Lüneburg ins Auge gefaßten Projekts sollen solche Faktoren sowohl für die Wissensproduktion als auch für die Veröffentlichungspraxis von Forschungsresultaten exemplarisch bei neueren KI-Methoden und Praxen des Machine Learning, wie auch für die auf neuroinformatischen Plattformen und Systemen, wie das europäische Human Brain Project analysiert werden und die möglichen Wirkungen dieser Praxen, z.B. hinsichtlich der Validität des produzierten Wissens und der von ihmn produzierten ein- und Ausschlüsse aufgezeigt werden. Daraus können teilweise Vorschläge für adäquatere und an unerwünschten Folgen ärmere Entwicklungsstrategien erwachsen.

Methodisch ist einerseits an die Objektivitätsanalysen nach dem Vorbild von Lorraine Daston und Peter Galison gedacht. Andererseits sollen die ausgefeilten Theorien und Methodiken der feministischen Analysen im MINT-Bereich zur Anwendung kommen.

 

Publikationen u.a.: 

  • "Bildgebende Verfahren in der Medizin" (Kap V.9. Radiologie), in: Stephan Günzel, Dieter Mersch (Hrsg.): Handbuch Bild Metzler, erscheint 2014; 
  • "Weltbilder in der Informatik: Sichtweisen auf Profession, Studium, Genderaspekte und Verantwortung", Informatik Spektrum Sonderheft, Issue 3, June 2013 (Springer). 

Forschungsprojekt - Neuro Simulation

Neuro-Simulation

Das Projekt greift zurück auf Arbeiten im Rahmen des Aufenthaltes der ersten Autorin als mecs- Fellow im WS 2014/15. In diesem Zeitraum, sowie anläßlich von darauf folgenden Besuchen im Forschungsinstiut Jülich wurden Veranstaltungen (Workshops und Interviews) über Neuro-Simulationen durchgeführt. Dazu existieren teilweise Audio-Aufnahmen und deren (noch nicht fachkundig aufbereitete) Transkriptionen. Im aktuellen Projekt geht es um die Analyse und die folgende Veröffentlichung der Diskussionen und Ergebnisse dieser Veranstaltungen durch die AutorInnen, aber auch darum, ihre Bedeutung aufgrund der bereits erfolgten Erkenntnisse aus dem gesamten mecs-Projekt zur Medientheorie der Computer- Simulationen umfassender analysieren, vergleichen und bewerten zu können und sie darin zu rahmen.

Computer- Simulationen lösen Gedankenexperimente ab, indem sie Theorien über zu untersuchende Gebiete bestätigen oder widerlegen sollen. Dies vor allem in Situationen, die real so nicht oder nur sehr schwer herzustellen sind, was im Besonderen für das komplexe und invasiv weitgehend unzugängliche menschliche Gehirn zutrifft. Simulationen in Bereichen der Neurologie stellen die bei fast allen Simulationen verwendeten Methoden aus der Physik, die Theorie dynamischer Systeme mittels partieller Differentialgleichungen vor besondere Anforderungen. Dies beginnt bei dem Fehlen von Wissen über biologische Neuronale Netze, sodass keine direkte Simulation möglich ist, die etwa Theorie zur Simulation der Theorie und deren Bestätigung oder Abweisung führen könnte. Es setzt sich fort in Kompatibilitätsproblemen, resuktuereb aus den dafür notwendigen Hardware-Verbünden, die oft inkompatible Plattformen wie NEURON, Emergent, Genesis, hier NEST-Simulator zusammenfügen müssen; setzt sich fort über aufgrund des mangelnden Wissens inkompatible Modelle und Experimentanordnungen; geht weiter in den Dimensionsproblemen dynamischer Systeme im Vergleich zu den physikalischen Materialien, wie Kristallen, für die sie geschaffen wurden, und endet noch nicht bei Individualisierung und in der unkontrollierbaren Dynamik von Wechselwirkungen von Umgebungseinflüssen auf die Entwicklung. Dies alles führt zu einer Situation, in der die Simulationen kaum irgendwelche aufgestellten Theorien bestätigen bzw. widerlegen können. Vielmehr können sie anhand von Modellen auch Theorien erzeugen, wenn sie dann im Realexperiment bestätigt werden. Neuro-Simulationen sind also allgemeine Experimentiersysteme für Experimente über Theorien! Sie erlauben Befragungsprozesse in einem geteilten und verteilten Aktionsraum zwischen Modell und ModelliererIn (Nancy Nersessian), Befragungsprozesse an variablen Modellen hin auf deren Existenzbedingungen.

Ein unhintergehbares Problem dabei ist die Unterschiedlichkeit des Materials, wetware versus hardware.

Ein weiteres wissenschaftstheoretisches Problem ist die für wissenschaftliche Gültigkeit notwendige Reproduzierbarkeit der Ergebnisse. Denn in realem biologischen Leben sind die Situationen nie reproduzierbar. Dieses Problem tritt jedoch bereits seit der Entwicklung der rationalen Wissenschaft in der Renaissance auf. Bei jedem aus dem Kontext, den Umgebungsbedingungen herausgelösten Experiment, seit seiner Erfindung durch Francis Bacon, relativiert diese Tatsache die realweltliche Gültigkeit von experimentellen Ergebnissen.

Nicht vergessen werden darf auch die oft problematische Popularisierung von Ergebnisbehauptungen in den Medien, auch eine aufgrund der Komplexität der Materie oft unüberbrückbare Verständigungslücke, die durch eine im Großen unspezifische uniformisierende Sprache zu schließen versucht wird, auf Kosten der Präzision: was ist das Gehirn? Deins, meins, eines Babys, das einer Deutschen, eines Japaners, was ist ein Standardgehirn? Gabriele Gramelsberger nennt diese Art Forschung eine post-empirische und post-analytische Art der Wissensproduktion.

Für die Analyse soll insbesondere auch auf feministische Technik- und Naturwissenschafts-Theorien zurück gegriffen werden, so etwa Karen Barads agentiellen Realismus.

 

 

 

Forschungsprojekt in Zusammenarbeit mit Martin Warnke (Sommersemester 2021)

Mediation through Computational NeuroScience

Hirnsimulationen sind extrem weit weg von tatsächlichen Gehirnen und ihren Leistungen. Wie schaltet sich also das Medium Computersimulation in den Erkenntnisprozess der Neurowissenschaften ein? Das menschliche Gehirn ist i.d.R. nicht direkt durch invasive Inspektion zugänglich, weshalb Computer Simulation das Wissen um biologische neuronale Netzwerke zu erweitern versucht. Simulation und Modellierung im Kontext der Neurowissenschaften greift auf die Theorie dynamischer Systeme zurück. Sie wurde zwar für komplexe Systeme in der Physik entwickelt, hat aber ebenso in den Lebenswissenschaften Einzug gehalten, um dort das Verhalten komplexer natürlicher Systeme modellhaft zu analysieren, d.h. vereinfacht und standardisiert darzustellen, zu verstehen, theoretisch-experimentell vorherzusagen und wenn möglich mit der Realität zu vergleichen.

Doch bezüglich des Gehirns ist das übliche Vorgehen, dass eine Theorie durch die Simulation zu einem Ergebnis führt, das dann im klassischen Experiment entweder bestätigt oder falsifiziert wird, deshalb nicht möglich, weil man über das menschliche Gehirn zu wenig weiß, d.h. es gibt keine Theorie der Neurophysiologie. In der Computational Neuroscience haben Simulationen daher einen anderen Stellenwert: sie dienen als Experimentiersysteme auf Computermodellen.

Experimente auf Computermodellen gelingen für kleine Layer-Ausschnitte mit hinreichend präzisen Ansätzen, um sinnvoll simulieren zu können. Eine Theorie ist nun nicht eine über die Eigenschaften des Neuronen Layers im Gehirn (weder topographisch noch funktionell), sondern eine solche der jeweiligen Simulation. Diverse Experimentalergebnisse sind so in die Computermodelle integrierbar, aber auch anatomische Daten, Verbindungswahrscheinlichkeiten der  Strukturmodelle, u.v.a.. Die Simulation ist also ein Beschreibungsmedium, mit dem man Befunde aus unterschiedlichen Bereichen und Skalen verbinden und vergleichen kann: sie ist Theorie(n) generierend, ja materiell-semiotisch Material bildend. Sie nimmt die unbesetzte Stelle der nicht existierenden neurophysiologischen Theorie ein.

Ein Workshop „Neurologische Computersimulationen“ versammelte bekannte Wissenschaftler aus den Bereichen Computational NeuroScience, Medientheorie, STS, Technologiephilosophie und Gender Studies in Technology. Das anspruchsvolle Projekt untersucht die Zugänglichkeit der Neuro-Wissenschaften durch Simulationsmethoden, die erkenntnistheoretische Bedeutung der Simulation für die wissenschaftliche Untersuchung des Gehirns sowie insbesondere die medientheoretische Bedeutung der Natur der neurowissenschaftlichen Beobachtung durch Simulation.