Künstliche Intelligenz und Militär - (k)eine Sondermoral?
Künstliche Intelligenz und Militär - (k)eine Sondermoral?
Von Erny Gillen *
Am 25. und 26. April 2023 findet auf Einladung von Verteidigungsminister François Bausch (Déi Gréng) an der Universität in Belval eine internationale Konferenz zu den sogenannten „Lethal Autonomous Weapon Systems“ (LAWS) statt. Seit 2014 wird zu diesem Thema in Genf, auch unter Luxemburger Beteiligung, beraten und 2019 wurden elf allgemeine Leitlinien festgehalten. Es geht dabei darum, den Gebrauch bestimmter konventioneller Waffen zu verbieten oder einzuschränken, von denen auszugehen ist, dass sie Menschen über das Maß hinaus verletzen können oder Zivilisten und Kämpfende nur ungenügend unterscheiden.
Doch die Verhandlungen in Genf stocken, gerade auch, aber nicht nur, wegen der geopolitischen Situation. So wird etwa um Definitionen und Grenzen gerungen, die hinter dem ständigen und rasanten Fortschritt der Techniken stehen, welche künstliche Intelligenz (KI) erst ermöglichen und in praktische Anwendungen übersetzen. Neben den Gefahren und Risiken erwarten sich viele gewaltige Vorteile von diesen neuen Techniken, zumindest für diejenigen, die sie meistern und effizient bis disruptiv einsetzen werden. Die Erwartungen in den zivilen und militärischen Bereichen sind entsprechend hoch. Forschung, Wirtschaft und Armeen befürchten deshalb, dass die Politik sie zu früh oder falsch ausbremsen könnte.
Dass die Verhandlungen zu den von künstlicher Intelligenz angetriebenen autonomen Systemen getrennt nach militärischen und zivilen Anwendungen geführt werden, hilft, die Ängste gegenüber ersteren in den Diskussionen um wirtschaftliche und soziale Anwendungen und deren potenziellen Vorteile auszuklammern. Dabei unterscheiden sich die Technik der künstlichen Intelligenz und die daraus resultierende sogenannte Autonomie in zivilen oder militärischen Anwendungen systemisch nicht. KI ist selbst ein typisches „dual-use“-Produkt.
Aus dieser systemischen Perspektive lohnt es sich, die breit abgestützten Verhandlungsresultate der Ende November 2021 von 193 Regierungen angenommenen Unesco-Empfehlungen zu einer Ethik der künstlichen Intelligenz mit den elf Punkten der Regierungsexperten zur Weiterentwicklung der Konvention zu konventionellen Waffen (CCW) aus Genf zu vergleichen. Während letztere knapp sind und auf eine Seite passen, entfaltet die Unesco ihre allgemeinen Empfehlungen zu KI ausgehend von Werten und Prinzipien in einem zusammenhängenden Dokument.
Ein Grundprinzip
Menschen und ihre Gemeinschaften sollen KI-Systemen nicht untergeordnet werden oder durch sie Schaden erleiden (Punkt 14). Von diesem Grundprinzip folgert die Unesco beispielsweise, dass keine vitalen Entscheidungen an eine KI abgetreten werden dürften (Punkt 36). Ganz allgemein soll der Mensch weder als Arbeitssuchender noch als Anwärter auf einen Kredit oder eine soziale Leistung noch als Patientin, als Bürgerin, Soldatin oder Verbrecherin zum reinen Objekt einer maschinellen Berechnung werden.
Ganz allgemein soll der Mensch weder als Arbeitssuchender noch als Anwärter auf einen Kredit oder eine soziale Leistung noch als Patientin, als Bürgerin, Soldatin oder Verbrecherin zum reinen Objekt einer maschinellen Berechnung werden.
Die Genfer CCW-Prinzipien suchen lediglich ein Gleichgewicht zwischen „militärischer Notwendigkeit und humanitären Erwägungen" (Punkt k). Die Unesco-Empfehlungen verstehen KI-Ethik dagegen als Gesellschaftsaufgabe, die sich unter anderem an Menschenrechten und Völkerrecht ausrichten muss.
Menschen sollen nicht zum Gegenstand von Entscheidungen werden, die allein von autonomen Systemen getroffen werden. Übernimmt man diesen grundsätzlichen Standpunkt, wie er in der Ethik seit Kant unter allen Menschen Geltung hat, so braucht es hinsichtlich dieses Grundprinzips keine Sondermoral für autonome Waffensysteme. Die praktische Vernunft selbst oder die Würde des Menschen verbieten eine Instrumentalisierung von Menschen (in unserem Fall) als Daten zu welchem Zweck auch immer.
Der deutsche Ethikrat macht dieses Prinzip ebenfalls stark, wenn er in seiner Stellungnahme vom 20. März 2023 festhält, dass der Begriff „künstliche Intelligenz“ eher als anthropomorphisierende Metapher zu verstehen ist und die Autorschaft von Handlungen exklusiv vernunftbegabten Menschen zuzuschreiben ist.
Er wendet sich resolut gegen sogenannte automatisierte oder algorithmische Entscheidungssysteme (ADM-Systeme) und fordert ganz im Sinne von Artikel 22 des europäischen Datenschutzgesetzes, „dass niemand zum Objekt einer allein auf Algorithmen basierenden Bewertung gemacht werden sollte, sondern belastende Wertungsentscheidungen von einem Menschen verantwortet werden sollten“. Zudem warnt er vor der Gefahr der „automation bias“, die immer dann zutrifft, wenn Menschen sich automatisch auf Computer und andere Automaten verlassen, ohne deren Berechnungen kritisch zu reflektieren beziehungsweise zu hinterfragen.
Demgegenüber bleibt die Genfer Gruppe bei der Formulierung ihrer Leitlinien abstrakt, wenn sie lediglich einfordert, dass der Einsatz autonomer Waffen in der Letztverantwortung von Menschen bleiben muss (Punkt b, d), auch dann, wenn diese gegen Personen gerichtet sind.
In letzter Konsequenz heißt das ethische Grundprinzip, auf das die Unesco ihre allgemeinen Empfehlungen stützt, dass autonome Waffen nur feindliche Waffensysteme direkt ins Ziel nehmen dürfen, nicht aber direkt Menschen. Eigentlich müssten die Verhandlungsdelegationen innerhalb der CCW in Genf dieses Grundprinzip, das von ihren Ländern bereits als Unesco-Prinzip anerkannt wurde, teilen. Auf dieser Basis könnte die Gruppe dann neu weiterarbeiten und die Fragen um die Anwendung autonomer Waffensysteme im Rahmen des auszuweitenden internationalen humanitären Rechts regeln.
Verteidigung unter Wahrung des Prinzips der Verhältnismäßigkeit
Autonome Verteidigungssysteme (wie sie bereits vielfach im Einsatz sind) wären immer dann erlaubt, wenn sie nicht direkt Menschen zum Ziel hätten, sondern deren Angriffsmittel. Wie bei jeder Verteidigung würde auch in diesem Fall das Prinzip einer verhältnismäßigen Antwort gelten. Mit Angriffswaffen kämpfende Soldaten wären gegenüber autonomen Waffensystemen wie in jedem Krieg dem Risiko ausgesetzt, indirekt Opfer dieser Art der Verteidigung zu werden.
Im militärischen Einsatz werden alle Parteien Eskalationen vermeiden, weil jede Partei um das Potenzial noch größerer bis totaler Zerstörung etwa durch Atomwaffen weiß. Dieses Gleichgewicht des Schreckens wird durch den Einsatz von KI-gestützten Waffensystemen auf eine weitere Probe gestellt. An deren Ende stünde ein Krieg zwischen autonomen Waffensystemen, die die Zerstörung unserer Existenzgrundlage zur Folge haben könnte. In diesem Zusammenhang wären sogenannte „Tote-Hand-Systeme“ im Sinne des Überlebens von Menschen noch vor einem nicht auszudenkenden apokalyptischen Armageddon mit auszuhandeln.
Dieses Gleichgewicht des Schreckens wird durch den Einsatz von KI-gestützten Waffensystemen auf eine weitere Probe gestellt.
Die technischen Voraussetzungen für die Programmierung von Systemen, die zu ihrer Verteidigung auf sie gerichtete Waffen schneller, präziser, effizienter und verhältnismäßig ausschalten, liegen im Bereich des Möglichen, auch wenn natürlich Unfälle, wie bei allen technischen und menschlichen Verwirklichungen nicht ausgeschlossen werden können. Die Verhandlungen um die Bedingungen des internationalen humanitären Rechts werden auch heute noch in der Hoffnung auf ein friedliches Zusammenleben vor und nach möglichen Kriegen geführt.
Da ein genereller Bann von tödlichen autonomen Waffensystemen genauso utopisch ist, wie der Bann von Kriegen überhaupt, wird hier vorgeschlagen, die allgemeinen ethischen Werte und Prinzipien der Unesco-Empfehlungen konkret in den 193 Staaten anzuwenden und so eine gemeinsame feste Basis für die Verhandlungen in Genf, um eine Sondermoral zu autonomen Waffensystemen im Rahmen des anzupassenden internationalen humanitären Rechts zu schaffen.
Ethisches Design und Assessment
Die Fragestellungen um AMD-Systeme im Allgemeinen und autonome Waffensysteme im Besonderen werden sich weiter ständig unter dem Druck der Entwicklungen in Technik, Gesellschaft und Umwelt verändern. Gesetze kommen, wie in vielen Bereichen, häufig (zu) spät. Gegenüber Gesetzen haben ethische Reflexion und Empfehlungen genauso sowie die konkrete Arbeit mit Werten und Prinzipien den Vorteil, sich direkt an das Urteilsvermögen von denen zu richten, die verantwortlich und mit unterschiedlichen Einstellungen zusammenarbeiten (müssen).
Hierbei sind Institutionen wie Ministerien und Armeen, aber auch Entwickler und Vertreiber von Innovationen ganz besonders gefordert. Oft leisten sie Pionierarbeit, bevor neue Regeln das Gelände rechtlich absichern. Dort, wo Ethik bereits im Design der Systeme und ihres Einsatzes integriert wird, werden Unzulänglichkeiten, Fehler und Risikoquellen im Vorfeld mitgedacht, permanent während des gesamten Lebenszyklus der Technik angesprochen und evaluiert, um so mit dafür zu sorgen, dass, wie unserem Fall, die Maschine im Dienst des Menschen bleibt.
Dort, wo Ethik bereits im Design der Systeme und ihres Einsatzes integriert wird, werden Unzulänglichkeiten, Fehler und Risikoquellen im Vorfeld mitgedacht.
Wie die Unesco will auch die EU mit sogenannten regelmäßigen ethischen „Impact Assessments“ dafür sorgen, dass die schwerwiegenden Fragen der Ethik im gesamten Bereich der KI nicht erst dann gestellt werden, wenn Unfälle oder Verbrechen durch diese Techniken geschehen sind, sondern von Anfang an und entlang des gesamten Lebenszyklus von KI-Anwendungen. Solche spezifischen ethischen „Impact Assessments“ wären zusammen mit gezielten Angeboten im Bereich ethischer Bildung und Begleitung ebenfalls in die Genfer CCW-Anstrengungen sowie in die nationalen Verteidigungsstrategien zu integrieren.
Die Diskussion um letale autonome Waffensysteme wirft die Menschen auf sich als Frage zurück. Die möglichen Antworten können wir nicht ohne Selbstverleugnung an ChatGPT &Co. delegieren. Denn die Antworten, wer und was eine Soldatin in Zukunft sein wird, entscheiden in unseren Regionen auch mit darüber, wer und was die Bürger:innen in Zukunft sein werden.
* Der Autor ist Ethiker, betreibt die Moral Factory und hat die Luxemburger Armee bei der Erstellung ihrer Werte-Charta und ihres Militärkodex im Auftrag des Verteidigungsministeriums fachlich begleitet.
Folgen Sie uns auf Facebook, Twitter und Instagram und abonnieren Sie unseren Newsletter.
Als Abonnent wissen Sie mehr
In der heutigen schnelllebigen Zeit besteht ein großer Bedarf an zuverlässigen Informationen. Fakten, keine Gerüchte, zugänglich und klar formuliert. Unsere Journalisten halten Sie über die neuesten Nachrichten auf dem Laufenden, stellen politischen Entscheidern kritische Fragen und liefern Ihnen relevante Hintergrundgeschichten.
Als Abonnent haben Sie vollen Zugriff auf alle unsere Artikel, Analysen und Videos. Wählen Sie jetzt das Angebot, das zu Ihnen passt.
