Matthias Wannhoff

Matthias Wannhoff, M.A., hat Kommunikationswissenschaften, Germanistik und Medienwissenschaft in Bonn sowie an der Humboldt-Universität zu Berlin studiert. Im Jahr 2014 schloss er sein Master-Studium mit einer Arbeit über Konzepte von „Leben“ und „Tod“ in moderner Physik, Kybernetik und Nachrichtentheorie ab. Von 2011 bis 2014 arbeitete er als wissenschaftliche Hilfskraft am Berliner Lehrstuhl für Medientheorien. Zu seinen Forschungsinteressen gehören die Theorie und Geschichte des digitalen Codes, „Digital Humanities“ in Praxis und Theorie sowie die Mediengeschichte der modernen Psychometrie. Letzte Veröffentlichungen: Unmögliche Lektüren. Zur Rolle der Medientechnik in den Filmen Michael Hanekes, 2013 Berlin; „Aufheizen/Abkühlen. Bausteine zu einer diagrammatischen Epistemologie des Kalten Krieges“. In: Höltgen/Gradinari (Hrsg.): Heiße Drähte. Medien im Kalten Krieg, 2014 Bochum/Freiburg, S. 101-122.

 

FORSCHUNGSPROJEKT

Geist und Standard. Eine Mediengeschichte des Intelligenztests

Intelligenztests sind Experimente, die schon in ihrer Theorie auf Medien bauen. Da sie zu messen beanspruchen, was keiner direkten Beobachtung zugänglich ist und Exaktheit dort anstreben, worauf kein Messapparat zugreifen kann, benötigen sie eigene Methoden der Datengewinnung. Vom Franzosen Alfred Binet (1857-1911) begründet, mag die moderne Psychometrie mit ihrem Arsenal an Fragebögen, Bilderrätseln und Lückentexten zunächst wie ein technologischer Rückschritt hinter die Laboratorien wirken, die zeitgleich in Deutschland unter der Leitung Wilhelm Wundts betrieben wurden.

Dagegen fragt mein Projekt, ob nicht gerade diese mediale Fundierung der Psychometrie jene „mechanization of the mind“ (Jean-Pierre Dupuy) vorbereitet hat, die sich seit den 1950er Jahren in Konzepten künstlicher Intelligenz niederschlägt. Mein Ausgangspunkt ist die These, dass bereits dem Design standardisierter Intelligenztests eine mechanistische Vorstellung von Bild- und Sprachverstehen zugrunde liegt, die auf Laborseite eigentümliche Bild- und Texttypen hervorgebracht hat: Konzipiert als semiotische Formen, die maximal bereinigt sind von Polyvalenzen, Unschärfen und Deutungskontingenzen, unterlaufen sie seit dem ersten Intelligenztest von Binet und seinem Schüler Théodore Simon im Jahr 1905 jede nachträgliche Unterscheidung zwischen „natürlicher“ und „künstlicher“ Intelligenz.

Um dieser These nachzugehen, gliedert sich mein Projekt in drei Teilschritte: erstens einer Rekonstruktion des Binet’schen Theoriehorizonts, wonach Intelligenz weder durch physiologische Messungen noch durch Introspektion hinreichend zu erfassen ist. Ein besonderer Schwerpunkt liegt dabei auf den frühen Texten Binets, die kognitive Leistungen als unbewusste, quasi automatisch ablaufende Prozesse fassen und bislang einer medien- und wissensgeschichtlichen Aufarbeitung harren.

Zweitens widme ich mich der Analyse jener semiotischen und medialen Formen, die in der Testsituation – technisch gesprochen – für die Black Box des menschlichen Geistes ein Interface bereitstellen. Erkenntnisleitend ist dabei die Frage, inwieweit sich das psychometrische Methodenverständnis gerade in natürlicher Sprache und Bildern realisieren lässt, also in Zeichenverbünden, die in langer zeichentheoretischer Tradition als immer schon mehrdeutig, konnotativ begriffen wurden. Pointiert gefragt: Wie lassen sich Sprache und Anschauung standardisieren?

Die Ergebnisse gilt es schließlich drittens in das auch zeitgenössische Sprechen über die vermeintliche Provokation künstlicher Intelligenz einzuordnen. Wenn es nämlich zutrifft, dass ein Intelligenztest seinen Gegenstand weniger misst als während der Messung überhaupt erst definiert, diese Definition von Intelligenz eine mechanistische ist und das Ausklammern von Kreativität menschlicher Denkleistungen letztlich den Erforschungen von menschlicher und künstlicher Intelligenz vorgeworfen werden kann, dann war diese Unterscheidung vielleicht schon immer eine Illusion.