„Die Gefahren eines entgrenzten Krieges“ – Podiumsdiskussion über die Ethik von KI im Militärischen
15.12.2025 „Die militärischen Fragen der Friedenssicherung stellen sich aktuell in einer ganz neuen Dringlichkeit“, begrüßte Prof. Dr. Thomas Kück seine Gäste und das Publikum zu der Podiumsdiskussion im Rahmen der Reihe ETHIK IM GESPRÄCH. Unter dem Titel „Mensch – Maschine – Militär. Über die Ethik von KI im Militärischen“ diskutierten am 11. Dezember 2025 Gerhard Schreiber von der Universität der Bundeswehr in Hamburg und Tobias Lenz von der Leuphana Universität Lüneburg.
Prof. Dr. Gerhard Schreiber, Inhaber des Lehrstuhls für Evangelische Theologie/ Technikethik und Leiter des „AI Ethics Research Hub“ an der Universität der Bundeswehr, gab einen Einblick in seine Forschungen. Gegenwärtige (Technik-) Dynamiken beschleunigen sich rasant, wodurch die Notwendigkeit einer verbindlichen (Technik-) Ethik immer deutlicher wird. Im Verantwortungsbereich der NATO sei der Wille nach einer verbindlichen Definition ethischer Grenzen für den Einsatz von Künstlicher Intelligenz im Militärischen klar erkennbar, so der KI-Beauftragte der Helmut-Schmidt-Universität Hamburg.
Aus seinem Fachgebiet der internationalen Beziehungen konnte der Lüneburger Politikwissenschaftler Prof. Dr. Tobias Lenz dieser Einschätzung zwar folgen, bezweifelte aber die Erfolgsaussichten internationaler Vereinbarungen auf ethischem Gebiet. Zwar gab es historisch relativ erfolgreiche Verträge zur Regulation von Militärtechnologie, wie den Atomwaffensperrvertrag von 1970 und das Ottawa-Protokoll von 1996. „Aber schätzen wir die gegenwärtige Lage realistisch ein, dann sind internationale Vereinbarungen mit dem Ziel, neue KI-Techniken im Militär einzuschränken, in den nächsten 10-15 Jahren nicht zu erwarten.“ Vielmehr sei momentan eine erhebliche Zunahme multipolaren Wettbewerbs zu beobachten, wobei der KI eine wichtige strategische Rolle zugemessen werde.
„Über welche Techniken sprechen wir, wenn von KI im Militärischen die Rede ist?“, wollte Moderator Thomas Kück wissen. „Künstliche Intelligenz“ sei als Übersetzung von Artificial Intelligence nur bedingt treffend, so Schreiber. Intelligence meine im Englischen auch „Nachrichtengewinnung“ bzw. „Lageinformationen“. Gemeint sei daher vor allem eine zielgerichtete, computergestützte Informationsverarbeitung. Das Potenzial liege im Militärischen weniger in der Plattform selbst, sondern in der vorgelagerten Auswertung großer Datenmengen – etwa als Grundlage für Planung und Einsatz von Systemen wie Drohnen. So sei es bei der militärischen Eskalation in Gaza gewesen, ergänzte Lenz. Dort habe das israelische Militär aufgrund von KI-Informationen vermeintliche strategische Ziele ausgemacht, mit entsetzlichen Folgen für die zivile Bevölkerung.
An dieser Stelle lenkte Thomas Kück das Gespräch auf die ethische Dimension des Themas. Wolfgang Huber entwickle in seiner Ethik der Digitalisierung „Menschen, Götter und Maschinen“ (München 2022) eine Ethik der Verantwortung, wie es seinerzeit Hans Jonas für den Bereich der Umweltethik getan habe. Maßstab sei ein vorausschauendes Urteilen im Sinne des Vorsorgeprinzips (precautionary principle). Dem werde kaum jemand widersprechen, so Schreiber. Gerade im militärischen Bereich müsse Verantwortung jedoch genauer bestimmt werden. Das englische Wort responsibility bedeute wörtlich die Fähigkeit zur Antwort („response-ability“): rückblickend beziehe es sich auf Verantwortlichkeit, vorausschauend jedoch auf Verantwortbarkeit – und genau darin liege die schwierigere Frage. Schreiber unterschied drei Kategorien der Verantwortbarkeit militärischer KI-Nutzung: erstens zur Erhaltung des Eigenen, zweitens zur Nutzung gegen den Gegner ohne unmittelbare physische Wirkung und drittens als kinetisch wirksames Angriffsszenario. Der Begriff der kinetischen Wirkung sei dabei eine beschönigende militärische Umschreibung für den Einsatz von Waffen.
Es folgte eine rege Diskussion mit dem Publikum, die nicht zuletzt deutlich machte, wie intensiv dieses Thema die Menschen aktuell bewegt. „Was können wir in Europa tun?“, war die abschließende Frage eines Studenten. „Gas geben!“, war eine spontane Antwort aus dem Publikum, die Tobias Lenz in seinem Schlusswort aufgriff. „Teilweise ja, Gas geben und eigene Technik entwickeln, wenn Europa am Verhandlungstisch mitreden will, denn die Geschichte erfolgreicher Verhandlungen zeigt, dass primär diejenigen gehört werden, die sich selbst und nicht nur anderen rechtliche ‚Fesseln‘ anlegen. Wir sprechen hier aber auch über die Gefahren eines entgrenzten Krieges“, beschloss der Lüneburger Politikwissenschaftler mahnend seine Stellungnahme.
Was wir tun können, ergänzte Thomas Kück zum Abschluss der Veranstaltung, sei auch eine größere Wachsamkeit bei der Nutzung digitaler Medien. „Gezielte Desinformation ist auch eine Variante militärischer KI-Nutzung. Lassen wir uns von außen nicht kaputt machen, was wir demokratisch erreicht haben“, so der Lüneburger Theologe und nahm ein Wort von Gerhard Schreiber auf: „Wir müssen eine demokratische Resilienz entwickeln!“
Kontakt
- Prof. Dr. Thomas Kück


