Fellows Sommersemester 2021

Nathalie Bredella

Ekistics: Computers, simulations and planning processes

This project investigates ekistics, an urban planning approach from the 1960s that dealt with global networks, data collection and visualizations. Greek architect and urban planner Constantinos Doxiadis launched ‘ekistics’, or the science of human settlements, as a field of study in the mid–1950s. He promoted this new scientific venture through The Athens Center of Ekistics, the interdisciplinary Delos conferences and the Ekistics Journal, which brought together a global network of researchers working on expanding urban systems.

Ekistics research extended beyond architecture, urban planning and geography to include, among others, economics, anthropology, media theory, sociology, and politics. Methods of computerized analysis, data collection and representation were vital to the study of ekistics, and provided a way to understand the interdependencies between designs, resources, people and settlements. Access to data, it was believed, enabled researchers to develop planning scenarios. Accordingly, maps and diagrams were key research tools, while computers were used to mathematically model settlements, and computer games simulated urban development.

My project aims to better understand the epistemological consequences of the use of computers in the research of ekistics scholars. I am interested in the interdependencies between physical space and computational data modelling, as well as in how digital systems were conceptualized in relation to natural systems. I will therefore use ekistics as an example to discuss the role data collection and visualization processes played in the early days of networking and ‘smart’ planning.

Hans De Raedt

A Quantum Theory Lego Set

The long-term aim of the MECS fellowship is to write a book that describes the physics of fundamental quantum physics experiments, the epistemological questions that these experiments pose, the role of the simulation as a metaphor for perfected, idealized experiments, and the simulations themselves. In the first phase of the project, we will focus of developing the simulation platform and a first version of a graphical interface that allows non-programmers to perform simulations and visualize the results.

Peter Geimer

Die simulierte Zeit. Zur Kritik digitaler Reanimation von Geschichte

Die Vergangenheit ist unbeobachtbar. Man hat von ihr gehört oder gelesen, erinnert sich an sie oder sieht Bilder und Modelle, die Historisches vergegenwärtigen sollen. Alle diese Formen der Rekonstruktion stellen das Vergangene jedoch nicht wieder her: das Wissen über historische Ereignisse ist nachträglich und beruht auf Verfahren der Rekonstruktion. Diese Funktion übernehmen Schriftquellen, aber auch visuelle Artefakte: bis zum neunzehnten Jahrhundert vor allem Graphik und Malerei, im neunzehnten und zwanzigsten Jahrhundert Fotografie und Film, in jüngster Zeit – hier setzt das Projekt an –zunehmend auch digitale Verfahren der Visualisierung. Diese Verfahren zielen zum einen auf digitale Nachbearbeitung historisch überlieferter Bilddokumente (etwa das digitale Nachkolorierung analoger Schwarz-Weiß-Aufnahmen), zum anderen die komplette Simulation historischer Ereignisse, die keine sichtbare Spur hinterlassen haben. Anhand konkreter Fallstudien fragt das Projekt nach den Potentialen dieser Art von Rekonstruktion, versteht sich aber auch als historiographische Kritik des damit verbundenen Ideals von Vergegenwärtigung, und Einfühlung, Nach-‚Erleben‘ und Reanimation von Geschichte. Wie entsteht hier so etwas wie bildliche Evidenz des Historischen? Welches neue Verständnis dessen, was als ‚historisches Dokument‘ zu gelten hat, zeichnet sich hier ab? Wie lässt sich dem ‚Vetorecht‘ und der Widerständigkeit der Quellen’ Rechnung tragen, zugleich aber auch dem Potenzial und der Unvermeidbarkeit von Fiktion, Illusion und Einbildungskraft? Das Ergebnis dieser Überlegungen soll als fünftes Kapitel einer Monographie zur visuellen Darstellbarkeit von Geschichte erscheinen, die 2022 unter dem Titel „Die aufbewahrte Zeit“ im C.H. Beck-Verlag erscheinen wird.

Stefan Rieger

Simulation und Kalkulation des Intuitiven

Das geplante Buchprojekt „Naive Physik. Simulation und Kalkulation des Intuitiven“ will eine Wissensgeschichte der Intuition schreiben. Seinen Titel schuldet es einer Monographie der beiden Arbeitspsychologen Otto Lipmann und Hellmuth Bogen, die unter dem Titel Naive Physik. Arbeiten aus dem Institut für angewandte Psychologie in Berlin. Theoretische und experimentelle Untersuchungen über die Fähigkeit zu intelligentem Handeln im Jahr 1923 veröffentlicht wird. Die katachrestische Verschränkung von Naivität und Physik wurde seitdem an mehreren Stationen und in unterschiedlichen Beleihungen virulent – nicht zuletzt in jüngsten Strategien der Gestaltung und namentlich im so genannten Cargo Cult Design.

Naivität und Intuition treten mit einer Effizienzverheißung an, mit dem Versprechen des Sich‑von‑Selbst‑Verstehens, des Selbst-Evidenten, des einer intentionalen Reflexion Nicht-Bedürftigen, des sich einer bewussten Steuerung Entziehenden, des Unterschwelligen und Unbewussten, des Neben- und Beiläufigen an – mithin als etwas, das keiner aufwendigen Vermittlung und Instruktion bedarf, dessen Nutzen seine Natürlichkeit ist. Sie reiht sich daher in ein Tableau gegenwärtig zu beobachtender Reduktionsbewegungen ein. Dieser Prozess ist bemerkenswert, weil er die gewohnte Geschichte technisierter Lebenswelten anders erzählt. Das Großnarrativ der uns umgebenden Technik ist in der Regel einem Prinzip der quantitativen Steigerung verpflichtet. Diese wird angeschrieben als die Fortschrittsgeschichte eines schier unablässigen Erfolgs zunehmender Komplexität. Umso auffallender sind daher Tendenzen für den Umgang mit technischen oder vielleicht sollte man sagen mit soziotechnischen Infrastrukturen, die eine andere Richtung einschlagen, die auf das Gegenteil von Steigerung und rationaler Beherrschung setzen – also auf das, was man als die Verschränkung von Reduktion und Teilhabe beschreiben könnte. Komplexität wird als Überbürdung, Überforderung, Unübersichtlichkeit, Entfremdung und daher als eine Form von Verletzlichkeit gefasst. Als Kompensation dienen Formen der Unterbrechung und der Komplexitätsreduktion. Eine der zentralen Resilienzstrategien der Gegenwart, so die Arbeitshypothese, liegt also in der gezielten Unterschreitung technisch möglicher Komplexität. Strategien der Zurücknahme und Einschränkung erlauben Teilhabe und Inklusion möglichst aller. Dem kritischen Vorbehalt, dass Spezialisierung und Ausdifferenzierung die notwendige Folge der Modernisierung wären, wird mit Figuren der Rationalitäts-und Komplexitätseinschränkung eine eigene Resilienzstrategie entgegengesetzt.

Diese Hypothese gilt mit dem Anspruch einer gewissen Universalität, sind doch entsprechende Befunde auf sehr unterschiedlichen Feldern zu beobachten. Sie betreffen das Design von Interfaces und die Nutzbarkeit von Infrastrukturen, sie sind in der Organisationspsychologie und im Städtebau, im Verwaltungs- und Bildungswesen und nicht zuletzt auf dem Feld der Wissenschaften selbst virulent.

Simon Roloff

Der simulierte Autor: Literatur als Datenverarbeitung

Im Zuge ihrer Institutionalisierung hat auch eine Selbsthistorisierung jener Methoden eingesetzt, die unter dem Label Digital Humanities seit einiger Zeit versprechen, die Geistes- und Kulturwissenschaften zum einen durch empirische Rezeptionsforschung, zum anderen durch statistische Analysen nach dem Vorbild quantitativer Sozialwissenschaft nichts weniger als zu revolutionieren. Auf dem Spiel steht dabei auch immer die Selbstverständigung dieser Bewegung über ihre Herkunft und Beziehung zu den »analogen« Methoden der an ihr beteiligten Disziplinen. Wenn das hier unternommene Forschungsprojekt eine mediengenealogische Rekonstruktion von Methoden wie »distant reading« unternimmt, so verlegt es zunächst deren Entstehungsherd weit vor den Moment ihrer Popularisierung zu Beginn der 2000er Jahre in die Mitte des Zwanzigsten Jahrhunderts und legt dabei ihren Kern frei: Eine technisch implementierte Formalisierung wissenschaftlicher Arbeitstechniken wie Archivierung, Katalogisierung und Verweis, die schon sehr früh Auswirkungen auf Disziplinen wie Anthropologie und Literaturwissenschaft hatte. Dies führt zu einer Geschichte der Digital Humanities, welche ihre Singularität und Neuheit relativiert und ihre frühe wissensgeschichtliche Vernetzung mit zunächst alles andere als digitalen Fächern nachweist. Damit ist unter anderem die Neubewertung ihres oft angeführten Gründungsmythos verbunden — dem Index Thomisticus als Kooperation zwischen dem jesuitischen Theologieprofessor Roberto Busa und IBM in den 1960er Jahren — sowie die Rekonstruktion der Verbindungen zwischen experimenteller Leseforschung und Kybernetik auf der einen, strukturaler Anthropologie und Diskursanalyse auf der anderen Seite.

Britta Schinzel und Martin Warnke

Mediation through Computational NeuroScience

Hirnsimulationen sind extrem weit weg von tatsächlichen Gehirnen und ihren Leistungen. Wie schaltet sich also das Medium Computersimulation in den Erkenntnisprozess der Neurowissenschaften ein? Das menschliche Gehirn ist i.d.R. nicht direkt durch invasive Inspektion zugänglich, weshalb Computer Simulation das Wissen um biologische neuronale Netzwerke zu erweitern versucht. Simulation und Modellierung im Kontext der Neurowissenschaften greift auf die Theorie dynamischer Systeme zurück. Sie wurde zwar für komplexe Systeme in der Physik entwickelt, hat aber ebenso in den Lebenswissenschaften Einzug gehalten, um dort das Verhalten komplexer natürlicher Systeme modellhaft zu analysieren, d.h. vereinfacht und standardisiert darzustellen, zu verstehen, theoretisch-experimentell vorherzusagen und wenn möglich mit der Realität zu vergleichen.

Doch bezüglich des Gehirns ist das übliche Vorgehen, dass eine Theorie durch die Simulation zu einem Ergebnis führt, das dann im klassischen Experiment entweder bestätigt oder falsifiziert wird, deshalb nicht möglich, weil man über das menschliche Gehirn zu wenig weiß, d.h. es gibt keine Theorie der Neurophysiologie. In der Computational Neuroscience haben Simulationen daher einen anderen Stellenwert: sie dienen als Experimentiersysteme auf Computermodellen.

Experimente auf Computermodellen gelingen für kleine Layer-Ausschnitte mit hinreichend präzisen Ansätzen, um sinnvoll simulieren zu können. Eine Theorie ist nun nicht eine über die Eigenschaften des Neuronen Layers im Gehirn (weder topographisch noch funktionell), sondern eine solche der jeweiligen Simulation. Diverse Experimentalergebnisse sind so in die Computermodelle integrierbar, aber auch anatomische Daten, Verbindungswahrscheinlichkeiten der  Strukturmodelle, u.v.a.. Die Simulation ist also ein Beschreibungsmedium, mit dem man Befunde aus unterschiedlichen Bereichen und Skalen verbinden und vergleichen kann: sie ist Theorie(n) generierend, ja materiell-semiotisch Material bildend. Sie nimmt die unbesetzte Stelle der nicht existierenden neurophysiologischen Theorie ein.

Ein Workshop „Neurologische Computersimulationen“ versammelte bekannte Wissenschaftler aus den Bereichen Computational NeuroScience, Medientheorie, STS, Technologiephilosophie und Gender Studies in Technology. Das anspruchsvolle Projekt untersucht die Zugänglichkeit der Neuro-Wissenschaften durch Simulationsmethoden, die erkenntnistheoretische Bedeutung der Simulation für die wissenschaftliche Untersuchung des Gehirns sowie insbesondere die medientheoretische Bedeutung der Natur der neurowissenschaftlichen Beobachtung durch Simulation.