Brüssel/Berlin. Im Krieg gegen die Hamas setzt Israel auf High-Tech. Erhöht das die Opferzahlen? Auch der Ukraine-Krieg ist Testfeld für KI-Waffen.

Im Kampf gegen die terroristische Hamas setzt Israel weiter auf massive Bombardements: Hunderte von Zielen im dichtbesiedelten Gazastreifen greift die israelische Armee täglich aus der Luft an, 15.000 waren es allein in den ersten 35 Tagen des Krieges – viel mehr als in früheren Konflikten. Die Militärführung hat preisgegeben, wie derart viele Ziele überhaupt identifiziert werden können: Die Armee verlässt sich bei der Auswahl verstärkt auf Künstliche Intelligenz (KI). Aber wegen der vielen zivilen Opfer – Vertreter der Terrororganisation im Gazastreifen sprechen von mehr als 16.000 Toten durch israelische Angriffe – stößt das Vorgehen auch auf Kritik.

Wie schon der Ukraine-Krieg gibt nun auch der Gaza-Krieg einen Ausblick auf die Hightech-Zukunft militärischer Konflikte. Israels Armee verfügt bereits seit 2021 über das KI-System „The Gospel“, das Daten zu 40.000 mutmaßlichen Hamas-Kämpfern mit Bewegungsprofil und Aufenthaltsort speichert. Dazu kommen Unmengen an neuen Rohdaten – Drohnenaufnahmen vom Gazastreifen, abgehörte Gespräche, Bilder von Überwachungskameras. Jede Änderung im Gelände kann das System automatisch erkennen.

Die Plattform gibt auf Basis dieser Daten Empfehlungen für Angriffe – auf die Infrastruktur, auf Hamas-Stellungen, aber offenbar auch zum Beispiel auf die Privatwohnungen mutmaßlicher Hamas-Terroristen. Quartiere einfacher Kämpfer wären bei früheren Konflikten noch kein Ziel gewesen, jetzt erhöht sich so die Bomben-Frequenz und wohl auch die Zahl ziviler Opfer.

Israels Armee: So wählt das KI-System Bomben-Ziele

Die Entscheidung über den Angriff trifft aber nicht das System, „The Gospel“ ist also noch nicht das Hirn eines autonomen Killer-Roboters. Die Befehle geben Offiziere einer vor vier Jahren gegründeten Spezialeinheit, die in der israelischen Armee als „Zielfabrik“ bezeichnet wird. Dort laufen rund um die Uhr auch weitere Informationen etwa von Geheimdienst-Einheiten ein. Schon im Sommer hatte der Ex-Chef der israelischen Streitkräfte, Generalleutnant Aviv Kochavi, die Effizienz gelobt: Früher habe die Trefferquote im Gazastreifen bei 50 Zielen im Jahr gelegen – bei der Operation „Guardian of the Walls“ 2021 seien es dank „The Gospel“ schon hundert mögliche Ziele am Tag gewesen.

Dass die Hamas Anfang Oktober ihren Terrorangriff völlig unbemerkt starten konnte, passt allerdings nicht so recht in die Erfolgsbilanz. Nicht ganz plausibel erscheint auch die Versicherung der Armee, dass die „Zielfabrik“ nur präzise Angriffe verantworte. Es gehe darum, „dem Feind großen und unbeteiligten Zivilisten nur minimalen Schaden zuzufügen“, heißt es in der offiziellen Darstellung der Armee. Israelische Medien zitieren anonym Militärs, bei Angriffen auf Häuser von Hamas-Kämpfern werde sogar im Vorfeld berechnet, wie viele Zivilisten beim Angriff ums Leben kommen.

Ein israelischer Bombenangriff im Gazastreifen, aufgenommen von der israelischen Seite der Grenze.
Ein israelischer Bombenangriff im Gazastreifen, aufgenommen von der israelischen Seite der Grenze. © AFP | FADEL SENNA

Technisch wäre das wohl möglich, ethisch wäre es heikel. Angesichts der hohen Opferzahlen im Gazastreifen bedeutet es entweder, dass die Armee wissentlich zivile Opfer auch in größerer Zahl in Kauf nimmt – oder dass das System gar nicht so präzise funktioniert wie behauptet. Kritiker vermuten letzteres und warnen, die Spezialeinheit sei mit der Bewertung der automatisierten Ziel-Empfehlungen überfordert; so äußern sich in israelischen Medien auch anonym Militärangehörige.

Marta Bo, KI-Expertin am Stockholmer Friedensforschungsinstitut Sipri, warnt, solche Systeme hätten schnell zu viel Einfluss auf menschliche Entscheidungen. Die Offiziere würden die Empfehlungen und ihre Erstellung nicht hinterfragen und das Risiko ziviler Schäden nicht ausreichend berücksichtigen: „Der Mensch wird zum Zahnrad in einem mechanischen Prozess.“

Auch der Ukraine-Krieg ist Testfeld für KI-Krieg

Ein Problem, für das sich Militäranalysten rund um die Welt interessieren. Denn mit dem militärischen Einsatz Künstlicher Intelligenz steht Israel nicht allein. Auch andere Staaten wie die USA, China, Russland, Iran oder die Türkei arbeiten daran. US-Vize-Verteidigungsministerin Kathleen Hicks erklärte kürzlich, mit von Künstlicher Intelligenz gesteuerten Drohnen-Schwärmen könne die US-Armee auch die zahlenmäßig überlegenen Streitkräfte Chinas schlagen.

So weit ist es noch nicht. Aber nicht nur der Gaza-Konflikt, auch der Ukraine-Krieg ist zum Testfeld für Schlachten der Zukunft geworden. Sowohl die als auch Russland setzen bereits autonome Drohnen ein. Die ukrainische Armee nutzt KI auch, um russische Soldaten, Waffen und Stellungen zu identifizieren und anzugreifen, Drohnenboote mit Sprengstoff ans Ziel zu bringen oder abgefangene russische Kommunikation in Echtzeit zu verarbeiten.

Eine Studie des Centrums für Europäische Politik in Freiburg (cep) bilanziert: „Der Ukraine-Krieg zeigt als quasi tragisches Test-Labor, dass KI in künftigen Konflikten eingesetzt werden wird – allen ethischen Grundsätzen zum Trotz.“ Zu verlockend seien die Vorteile auf dem Schlachtfeld. Nun kommt der Gaza-Krieg hinzu.

Die israelische Armee ist in einer Pionierrolle, weil sie zu den technisch modernsten weltweit zählt, über ein großes Budget verfügt und enge Verbindungen zu amerikanischen High-Tech-Rüstungsfirmen unterhält. Schon kurz nach der Terrorattacke der Hamas erhielt Israel hunderte amerikanische Überwachungsdrohnen, die gegnerische Ziele selbstständig ausmachen. Der Ex-Chef der israelischen Armee, Kochavi, räumt ein, dass Künstliche Intelligenz auch enorme Risiken berge. Aber: „Der Geist ist schon aus der Flasche.“