„Wir wollen keine trivialen Maschinen.“ - Podiumsdiskussion: Research >> AI
Graduate School Open Days 2023
06.10.2023 An der Graduate School beginnen Mitte Oktober knapp 700 neue Studierende und Promovierende ihr Masterstudium oder ihre Promotion. Vorgeschaltet sind die jährlichen Opening Days für alle neuen Graduate Students, dieses Jahr vom 29. September bis 5. Oktober. Highlight der Opening Days 2023 war die Podiumsdiskussion zum Thema „Research >> AI“. Es diskutierten die Digitalisierungswissenschaftlerin Prof. Dr. Jill Walker Rettberg von der Universitäten Bergen, Sebastian Horndasch vom Stifterverband Berlin und der Medienwissenschaftler Prof. Dr. Jan Müggenburg. Die Diskussion wurde von der Leuphana Vizepräsidentin Prof. Dr. Simone Abels und Dr. Meikel Soliman, Manager der Leuphana Laboratories, moderiert.
Bevor akademische Events losgehen, während Teilnehmer*innen und Publikum zu ihren Plätzen finden und die Technik aufgebaut wird, läuft häufig klassische Musik. So auch hier, ein Stück für Klavier und zwei Streicher, ganz angenehm und vage vertraut. Vielleicht ist es Chopin. „Das was Sie hörten“, eröffnete Simone Abels das Podium, „war AI-Musik.“ Sie wies darauf hin, dass uns AI (Artificial Intelligence) am häufigsten als erschaffende [creative] Instanz begegnet – sie generiert Texte, Bilder und eben auch Musik.
Künstliche Intelligenz ist nicht länger aus Universitäten wegzudenken, waren sich die Diskutant*innen einig. Ob Übersetzungen mit deepL, Datenanalyse, dem Finden griffiger Überschriften oder allgemeines Brainstorming: AI liefert im Durchschnitt gute, belastbare Ergebnisse. Für Forschung eignet sie sich zwar nicht, da sie, wie Jill Walker Rettberg bemerkte, keine abschließenden Erklärungen gibt. Sie zeigt lediglich Antworten an, die gemäß der Datenmenge mit der sie trainiert wurde, am wahrscheinlichsten sind. Doch das ist nicht weiter schlimm, man muss die Antworten kritisch betrachten und prüfen wie man es mit jeder anderen Quelle auch machen würde. Problematisch sind dagegen die Bias, die unbewussten Vorannahmen und Engführungen, die AI mit sich bringen. Eine solche Engführung (im Sinne von: etwas Partikulares als etwas Typisches ausgeben) ist zum Beispiel, dass AI-generierte Bilder weiblicher Professorinnen überdurchschnittlich häufig abgeschnitten dargestellt werden.
Dass es auch ansonsten nicht sehr weit her mit AI-generierten Fotos ist, demonstrierte Sebastian Horndasch. Live ließ er eine AI ein Bild zum Stichwort „Professoren“ erstellen: Auf dem Bild sah man weiße alte Männer in langen Roben, die aussahen als würden sie in Hogwarts lehren. Als weiteres Beispiel für irreführende AI-Ergebnisse führte Rettberg an, welche Antwort die Amazon-Chatbox „Alexa“ ausspuckt, wenn man fragt, wie viele Tote es im Zweiten Weltkrieg gab: „Im Zweiten Weltkrieg gab es 1000 Tote.“ Es lässt sich leicht herausfinden, wie sie darauf kommt. Im Wikipedia-Eintrag „World War II casualties“ gibt es ein Foto von der Schlacht von Tarawa. Darunter steht die Bildunterschrift „Over 1,000 American troops died in the fighting.“ Bildunterschriften werden von Web-Crawlern als besonders relevant eingestuft und so schloss der Alexa-Algorithmus, dass diese Info wahrscheinlich zur Frage passen wird. „Um solche Technologien nutzen zu können“, fasste Abels zusammen, „braucht man also viel Wissen und viel Medienkompetenz [media literacy].“ Vielleicht macht das aber nichts, warf Jan Müggenburg ein, denn schließlich werden neue Technologien darauf entwickelt, möglichst klug zu sein – selbst wenn sie auf dem Weg dorthin Fehler machen: „Wir wollen keine trivialen Maschinen. Wir wollen kreative Maschinen.“ Die ständige Weiterentwicklung, ergänzte Horndasch, kann man sowieso nicht verhindern; allenfalls könnte man AI-erstellte Texte und Bilder mit einer Kennzeichnung versehen, wie die EU es bereits für 2026 plant.
„Welche Rolle haben Unis in dieser Entwicklung?“, fragte Meikel Soliman. Eine zentrale, fand Horndasch: „Wir leben in sich ändernden Zeiten und es braucht jemanden, der sie verständlich macht [who makes sense of it].“ Auf der praktischen Ebene schlug Rettberg vor, dass Lehrende ganz offen damit umgehen und ihre Seminare sogar damit beginnen, dass Studierende AI-Texte generieren – um diese Texte dann zu untersuchen und zu identifizieren, warum das zu kurz greift und wo genau der AI Fehler unterlaufen. AI in der Lehre bietet durchaus Vorteile, meinte Horndasch. Die soziale Situation von Studierenden in Deutschland ist so schlecht wie seit Jahrzehnten nicht mehr. AI-s können da eine egalitäre Wirkung haben: Sie sind teuer, aber nicht unerreichbar teuer und alle AI-s (von der günstigsten bis zur kostspieligsten) sind im Wesentlichen gleich gut. Nur optimistisch dürfe man aber auch nicht sein, mahnte Müggenburg, denn wesentliche gesellschaftliche Probleme – etwa der Lehrer*innenmangel – lassen sich mit AI allein nicht lösen. Zudem ist die massenweise Verwendung von KI in Hinblick auf die Klimafreundlichkeit zumindest fragwürdig.
Als das Podium für Fragen aus dem Plenum geöffnet wurde, gab ein Studierender zu bedenken, dass AI auch als Kriegswaffe verwendet wird. Im Ukrainekrieg etwa benutzten beide Seiten AI um Raketenziele auszumachen. „Viele Unterhaltungs-, Konsum- und sogar Forschungstechnologien haben ihren Ursprung in der Kriegstechnik“, verortete Müggenburg das historisch, „zum Beispiel Batterien oder Computerspiele.“ Das, was den Ukrainekrieg in dieser Hinsicht auszeichnet, ist allerdings wie dort Technologien als Waffen eingesetzt werden, die eben nicht avanciert sind, sondern die man auch im Supermarkt kaufen kann, etwa handelsübliche (Freizeit-) Drohnen.
Auf die Frage eines Studenten, ob Kunst in Zeiten künstlicher Intelligenz überhaupt noch eine Chance hat, erwiderte Rettberg, dass diese Diskussion häufig auf ‚Gute menschliche Kunst versus schlechte AI-Kunst‘ reduziert wird. Horndasch bemerkte, dass auch ein großer Teil menschlicher Kunst mittelmäßig sei – Werke sind nicht einfach dadurch, dass sie von Menschen geschaffen wurden, besser.
Zum Schluss lud Abels dazu ein, auch internationale Perspektiven auf das Thema einzubeziehen und den eigenen Blick auf nationale und regionale Vorannahmen zu hinterfragen. Zuvor hat eine Studentin zu bedenken gegeben: „Die allermeisten Menschen, die AI entwickeln, sind Inder*innen. Die allermeisten wissenschaftlichen Paper, die zu AI erscheinen, kommen aus China. Warum reproduziert AI trotzdem so hartnäckig westliche Hegemonie?“
„Die Podiumsdiskussion bzw. unser akademischer Diskurs im Rahmen der Opening Days“, erklärt Leiterin der Graduate School Anja Soltau, „drückt im Kleinen aus, was wir im Großen mit dem Masterstudium und der Promotion an der Graduate School verwirklichen wollen: Wissenschaftliches Durchdringen eines aktuellen, nur interdisziplinär greifbaren Themas, mit Impulsen von internationalen, renommierten Wissenschaftler*innen und das in Gemeinschaft mit unserer gesamten Graduate Student Community.“
Kontakt - Academic Events
- Luisa Hilmer
- Tom Kleist, M.Sc.