Prof. Dr. Simon Roloff

Simon Roloff ist Autor, Literatur- und Medienwissenschaftler. Er studierte an der Humboldt-Universität zu Berlin sowie am Literaturinstitut Leipzig, promovierte als Stipendiat des Graduiertenkollegs Mediale Historiographien zu Robert Walser und war zuletzt Juniorprofessor am Institut für Literarisches Schreiben und Literaturwissenschaft der Universität Hildesheim. Im Zentrum seiner Arbeit stehen Fragen einer Kulturtechniktheorie der Literatur, der politischen Literatur sowie des literarischen Forschens. In Vorbereitung ist sein Buch Kunstbemühung - Wie ich ein kreatives Subjekt wurde.

Forschungsprojekt (Wintersemester 2020/21) – Der simulierte Autor: Literatur als Datenverarbeitung

Im März 2017 reist der Medienkünstler und frühere Ghostwriter der Obama Administration Ross Goodwin mit Begleitung in einem Cadillac von New York nach New Orleans. Auf dem Autodach dokumentiert eine Kamera die vorbeiziehende Landschaft, ein Mikrofon nimmt die Gespräche im Inneren des Wagens auf, ein GPS-Sender ermittelt dessen geographische Position. Die so generierten Daten werden einem long short-term memory recurrent neural network zugeführt, das, wie auch die übrige technische Ausstattung des Projekts durch Alphabet Inc., vormalig Google LLC bereitgestellt wird. Es generiert aus diesem Input realsprachliche Sätze, die noch während der Fahrt auf einer Papierrolle ausgedruckt werden – offensichtlich eine Reminiszenz an Jack Kerouacs Fernschreiberpapier, auf dem der berühmte Reiseroman On the Road als Erzählung von einer Reise zwischen New York und New Orleans in den 1950er Jahren verfasst wurde. Zuvor hatte Goodwin das System durch Einlesen von Lyrik, Science-Fiction und – in seinen Worten – »düsteren Texten« auf die Generierung eines an Kerouacs Werk orientierten Outputs trainiert. Der entstandene Text wird später unlektoriert als erster gänzlich durch eine künstliche Intelligenz verantworteter Roman veröffentlicht.

Resultiert in dieser technologisch avancierten »Schreibszene« (Rüdiger Campe) also ein literarischer Text aus der Assemblage von Automobil, Kamera, Mikrofon, Lokalisierungs- und Datenbanktechnologie, nicht zuletzt aber auch proprietärer Software, welche die menschliche Verarbeitung von Sinnesdaten in Sprache simuliert, so lässt sich darin nicht nur der vorläufige Abschluss einer weit zurückreichenden Geschichte der Ablösung von Kategorien wie »Werk«, »Autorschaft« oder »Roman« von einer sie verantwortenden Person erkennen. Ebenso reicht die experimentelle Nutzung von Technologien der Datenverarbeitung in die Kunst- und Literaturgeschichte des Zwanzigsten Jahrhunderts zurück. Das Forschungsprojekt zeichnet eine mediengeschichtliche Genealogie KI-basierter Sprachsyntheseprogramme in Überkreuzungen von Datenverarbeitungstechnologie, Konzeptkunst und konzeptueller Literatur seit den 1960er Jahren nach und erprobt die Tragfähigkeit des Simulationsbegriffs für die dabei zur Anwendung kommenden Praktiken und Techniken auch in Form eines eigenen digitalen Lyrikprojekts.

Forschungsprojekt (Sommersemester 2021)

Der simulierte Autor: Literatur als Datenverarbeitung

Im Zuge ihrer Institutionalisierung hat auch eine Selbsthistorisierung jener Methoden eingesetzt, die unter dem Label Digital Humanities seit einiger Zeit versprechen, die Geistes- und Kulturwissenschaften zum einen durch empirische Rezeptionsforschung, zum anderen durch statistische Analysen nach dem Vorbild quantitativer Sozialwissenschaft nichts weniger als zu revolutionieren. Auf dem Spiel steht dabei auch immer die Selbstverständigung dieser Bewegung über ihre Herkunft und Beziehung zu den »analogen« Methoden der an ihr beteiligten Disziplinen. Wenn das hier unternommene Forschungsprojekt eine mediengenealogische Rekonstruktion von Methoden wie »distant reading« unternimmt, so verlegt es zunächst deren Entstehungsherd weit vor den Moment ihrer Popularisierung zu Beginn der 2000er Jahre in die Mitte des Zwanzigsten Jahrhunderts und legt dabei ihren Kern frei: Eine technisch implementierte Formalisierung wissenschaftlicher Arbeitstechniken wie Archivierung, Katalogisierung und Verweis, die schon sehr früh Auswirkungen auf Disziplinen wie Anthropologie und Literaturwissenschaft hatte. Dies führt zu einer Geschichte der Digital Humanities, welche ihre Singularität und Neuheit relativiert und ihre frühe wissensgeschichtliche Vernetzung mit zunächst alles andere als digitalen Fächern nachweist. Damit ist unter anderem die Neubewertung ihres oft angeführten Gründungsmythos verbunden — dem Index Thomisticus als Kooperation zwischen dem jesuitischen Theologieprofessor Roberto Busa und IBM in den 1960er Jahren — sowie die Rekonstruktion der Verbindungen zwischen experimenteller Leseforschung und Kybernetik auf der einen, strukturaler Anthropologie und Diskursanalyse auf der anderen Seite.