3. Dezember 2024

Künstliche Intelligenz im Krieg

Verschiedene Rüstungskonzerne und Staaten setzen immer mehr auf die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI, englisch: Artifical Intelligence, AI) im Krieg. Sie verändert somit nicht nur den Alltag, sondern auch die Kriegsführung.

Entmenschlichung für den effizienten Krieg

Der Rüstungskonzern Otokar stellte beispielsweise in dieser Woche sein vollautonomes gepanzertes Kettenfahrzeug vor, das einfache Missionen selbstständig ausführen soll. Es wird als klimafreundlich, autonom und tödlich beworben. Autonome Waffensysteme, der Einsatz von autonomen Drohnen und Marschflugkörpern gehört auch in den aktuellen imperialistischen Kriegen bereits zum Alltag.

Eine zunehmende Automatisierung des Krieges ist aber auch nichts Neues, es zeigt sich eine Kontinuität in der Entwicklung. Durch einen zunehmenden Einsatz von Techniken sollen Stimmungen auch unter Soldatinnen und Soldaten, wie beispielsweise im Vietnamkrieg und hiermit zusammenhängendes Desertieren sowie öffentliche Beschreiben und Hinterfragen von Kriegen vermieden werden.

Drohnen haben in diesem Zusammenhang eine große Bedeutung. Sie verhindern direkten Kontakt. Joysticks und Bildschirme sorgen für die notwendige Entfremdung von Taten. Soziologische Forschung zeigt, wie sich der Militärisch-industrielle-Komplex Techniken zunutze macht, um effizient und entmenschlicht Krieg zu führen. Ethik, Empathie oder menschliche Emotionen werden hierdurch verringert. Außerdem wird der Einsatz von moderner Technik mit Fehlervermeidung und Risikominimierung verkauft. Hierdurch wird der Faktor Mensch sowie das Soziale und hiermit zusammenhängende potenzielle Probleme in der Durchsetzung der Interessen der Herrschenden durch Technisierung des Militärisch-industriellen-Komplexes minimiert.

Ein solcher Technikeinsatz und weiterentwickelte autonome Systeme lassen den Kriegseinsatz immer mehr wie ein Spiel anmuten. Die bittere, harte und tödliche Realität wird verschleiert.

KI vergleichbar mit der Erfindung des Schießpulvers

Der Einsatz von Künstlicher Intelligenz bringt dies auf eine ganz neue Stufe. Diese Entwicklung sei mit der Erfindung des Schießpulvers oder der Atombombe vergleichbar, heißt es. Es gibt allein in den USA hunderte von Forschungsprojekten zu autonomen Waffensystemen. Diese entscheiden sich nach Aktivierung ohne weitere menschliche Beteiligung für Ziele und führen den Angriff aus.

Forscherinnen und Forschern fordern bereits seit längerem das Verbot der digitalen Automatisierung des Krieges. Technischer Fortschritt und technische Entwicklungen werden genutzt, die für ganz andere Zwecke entwickelt wurden, sie werden ebenfalls potenziell in Kriegen eingesetzt.

Hunderte erfolgreiche Entwicklerinnen und Entwickler oder auch Firmen im Bereich KI warnen vermehrt vor dem unbedarften Einsatz von dieser Technik. Zu den mahnenden und warnenden gehören beispielsweise der ChatGPT-Gründer Sam Altman, der Technikchef von Microsoft oder der Chef von DeepMind, dem Google-Entwicklungsunternehmen für KI. Vieles in Sachen KI-Entwicklung sei auch für Expertinnen und Experten selbst aufgrund der rasanten Entwicklung eine Art Black Box.

Expertinnen und Experten warnen vor massiven Risken

Das Center of AI Safety, eine Non-Profit-Organisation, veröffentlichte hierzu Thesen: „KI-Systeme werden immer leistungsfähiger. KI-Modelle können Texte, Bilder und Videos erzeugen, die nur schwer von Menschen erstellten Inhalten zu unterscheiden sind. KI hat zwar viele nützliche Anwendungen, kann aber auch dazu verwendet werden, Vorurteile zu verstärken, autonome Waffen einzusetzen, Fehlinformationen zu verbreiten und Cyberangriffe durchzuführen. Auch wenn KI-Systeme mit menschlicher Beteiligung eingesetzt werden, sind KI-Agenten zunehmend in der Lage, eigenständig zu handeln und Schaden anzurichten (Chan et al., 2023).“

In Bezug auf die Gefahr im Zusammenhang mit dem Militärisch-industriellen-Komplex wird die Waffentauglichkeit von KI thematisiert. In diesem Kontext wird folgendes festgehalten: „Böswillige Akteure könnten KI so umfunktionieren, dass sie hochgradig zerstörerisch wirkt, was an sich schon eine existenzielle Gefahr darstellt und die Wahrscheinlichkeit einer politischen Destabilisierung erhöht. So wurden beispielsweise Methoden des Deep Reinforcement Learning für den Luftkampf eingesetzt, und Tools zur maschinellen Entdeckung von Medikamenten könnten zur Herstellung chemischer Waffen verwendet werden.

In den letzten Jahren haben Forscher KI-Systeme für automatisierte Cyberangriffe entwickelt (Buchanan et al., 2020, Cary et al., 2020), militärische Führer haben darüber diskutiert, KI-Systemen die entscheidende Kontrolle über Nuklearsilos zu geben (Klare 2020), und die Supermächte der Welt haben es abgelehnt, Abkommen zum Verbot autonomer Waffen zu unterzeichnen.“

EU AI-Act reicht nicht aus – Science Fiction-Dystopie

Die Europäische Union hat im Juni dieses Jahres einen Artifical-Itellegence-Act verabschiedet. Dieser wird jedoch als nicht weitreichend genug eingeschätzt. Unter anderem der deutsche KI-Experte und Executive Director bei KIRA, dem Center für AI-Risiken und ‑Einfluss, Daniel Privitera kritisiert ihn als ungenügend.

Die Frage, die sich als zentral beim Einsatz von KI stellt, ist, wer für völkerrechtliche Verbrechen zur Rechenschaft gezogen werden soll? Nicht, dass solche Verbrechen ohne KI immer angemessen geahndet würden…

Eine EU-Regulierung im globalen Rüstungswettlauf in Zeiten zunehmender innerimperialistischen Konflikte erscheint ohnehin wie ein Witz. Der bereits stattfindende Einsatz der Künstlicher Intelligenz in Kriegen hat etwas von einer Science Fiction-Dystopie. Es kommt zu einem weltweiten Wettrennen in der Entwicklung der KI, die zu Hyperwars führen. Eine massive Beschleunigung der Kriege wird durch den Einsatz von KI attestiert.

Grenzen zwischen ziviler und militärischer Forschung verwischen

KI-Einsatz in der Rüstungsindustrie lässt die Grenzen zwischen ziviler und militärischer Forschung verwischen. Künstliche Intelligenz gilt als Hoffnung des zukünftigen Wirtschaftswachstums des Kapitalismus sowie als Schlüssel zur militärischen Überlegenheit. Der Militärisch-industrielle-Komplex wird neu und enger konfiguriert. Es wird auch auf Wissen aus der universitären Forschung zurückgegriffen.

Der Einsatz von Künstlicher Intelligenz hat bereits jetzt bewiesen, dass er nicht fehlerfrei ist und Ungleichheiten reproduziert. Die vermeintlich zugeschriebene Objektivität oder Verarbeitung größerer Informationen ist nicht unbedingt gegeben, sie ist auch fehlerhaft und hat blinde Flecken.

Kurzfilm „Slaughterbots“ directed by Stewart Sugg, der Risiken von AI-Einsatz in diesem Kontext illustrieren soll.

Vermeintlich werden Kollateralschäden vermieden und quasi risikofrei Krieg geführt, dies wird jedoch von Wissenschaftlerinnen und Wissenschaftlern aus dem Bereich von KI und Robotik angezweifelt.

Klar ist, dass technische Herrschaftsbedürfnis und die Fantasie von Herrschenden von autonomer Kriegsführung auf Kosten der Arbeiterklasse geht und gehen wird, die imperialistischen Interessen weiter entmenschlicht und in Ausblendung der Risiken und Konsequenzen in sogenannten Hyperwars verfolgt werden.

Quelle: Der Standard/Deutschlandfunk/Deutschlandfunk/Center of AI Safety/Deutschlandfunk

 

Quelle: Zeitung der Arbeit

FriedensbewegungZeitung der Arbeit