Heft 3/2024 - Netzteil


Die Angriffszielfabrik

Zur fortschreitenden Automatisierung von Militäroperationen

Júlia Nueno Guitart (Forensic Architecture)


Schreib’s auf,
ich bin Araber!
Die Nummer meines Ausweises: 50000
Zahl der Kinder: Acht
Und das neunte kommt nach dem Sommer –
Bist du wütend?

— Mahmud Darwisch, „Identitätskarte“, 1964
Aus: Ein Land aus Worten (Übersetzung: Stefan Weidner)

Am 29. Oktober 2023 ging auf TikTok das Video eines palästinensischen Jungen viral. Mit einem Clip-Mikrofon in der Hand begrüßt er darin sein Publikum nach einer Zeit ohne Internet und Telefon. Dem Video wurde nachträglich Radiomusik unterlegt. Hinter ihm stellen sich Menschen, wie er erklärt, bei einer der wenigen noch geöffneten Bäckereien im nördlichen Gazastreifen um Brot an. In den Kommentaren zum Video loben unzählige Menschen den Jungen namens Abboud, der trotz seiner Jugend zu einem spontanen Kriegsberichterstatter mit massenhaft Followern wurde.
Als im Oktober Stromausfälle und Benzinknappheit das Kochen zu Hause verunmöglichten, zirkulierten viele Fotos und Videos von Menschenschlangen vor Bäckereien im Gazastreifen. Einige schafften es in die internationalen Medien, die meisten aber zirkulierten nur in den sozialen Medien, wo sie Tausende Likes von Menschen auf der ganzen Welt bekamen, die so zu Zeug*innen des Zusammenbruchs der Lebensbedingungen in Gaza wurden. Am 4. November zeigte Al Jazeera das Video einer Bombenexplosion nahe einer Bäckerei mit Geokoordinaten nur wenige Meter entfernt von jener in Abbouds Video.
Von Oktober bis Anfang November dokumentierte Forensic Architecture die Zerstörung von 17 Bäckereien im Gazastreifen.1 In manchen Fällen, etwa der Bäckerei al-Sharq, wurde, während sich Menschen anstellten, in der Umgebung bombardiert, wodurch das Gebäude beschädigt und Zivilist*innen verletzt wurden. In anderen Fällen, etwa der Bäckerei al-Jadeed, war das Geschäft das direkte Ziel, von dem nur ein Krater übrigblieb. Mehrere Menschen wurden dabei getötet. Bilder beweisen, dass auf die Solarpaneele gezielt wurde, weswegen kein Brot mehr hergestellt werden konnte. Offensichtlich waren das geplante Attacken, denn Wohnhäuser und Infrastruktur in den betroffenen Gebieten blieben verschont, nur um später zerstört wurden. Die Bäckereien waren schon vor dem Krieg Teil des Verteilungssystems für humanitäre Hilfsgüter. Berichten zufolge bekam die Bäckerei Nuseirat nur Stunden, bevor sie bombardiert wurde, noch eine Lieferung Mehl von der UNRWA. Da Brot eines der wenigen verfügbaren Produkte war, wurden die Bäckereien in den ersten Kriegswochen zu einer entscheidenden zivilen Infrastruktur. In der Folge wurden viele von ihnen nördlich des Wadi Gaza und im Zentrum des Gazastreifens bombardiert. Mehr als die Hälfte der Angriffe ereignete sich in den zwei Wochen nach Israels Evakuierungsbefehl vom 13. Oktober 2023, der 1,1 Millionen Palästinenser*innen vorschrieb, ihre Häuser im nördlichen Gazastreifen zu verlassen.
Diese systematische Zerstörung ist ein Hinweis darauf, dass Israel seine Rechtfertigungslogik gegenüber dem humanitären Völkerrecht geändert hat. In früheren Kriegen folgte die militärische Strategie dem ökonomischen Prinzip, die Gewaltanwendung zu minimieren. Man legte eine Anzahl an zivilen Opfern fest, die bei der Elimination eines Zieles nicht überschritten werden sollte. Internationales Recht, das die Anwendung von Gewalt beschränken soll, spielt bei der Berechnung und Kontrolle der Gewaltökonomie eine Schlüsselrolle.2 So argumentierten die Israeli Defence Forces (IDF) im Gazakrieg 2021, telefonische Vorwarnungen würden ihre Angriffe auf Hochhäuser legalisieren. Die IDF behaupteten glatt, ihre Vorwarnungen dienten der Verhältnismäßigkeit, denn der Schaden würde ja minimiert, wenn man die Bewohner*innen ein paar Minuten, bevor ihre Häuser dem Erdboden gleichgemacht werden, warnt.
Diese Art Rechnung bietet indes noch eine weitere Option. Ist das Verhältnis zwischen Zivilist*innen und Kämpfern zu hoch, wie es im städtischen Raum, wo ein Großteil der Bevölkerung lebt, der Fall ist, können zum Ausgleich auch Zivilist*innen als Kämpfer eingestuft werden. Das Ausmaß an Zerstörung der materiellen und sozialen Infrastruktur im derzeitigen Krieg, in dem auch Gesundheitspersonal, Beamt*innen und normale Bürger*innen, die sich um zivile Schutzräume und die Hilfsgüterverteilung kümmern, zu Zielscheiben werden, legt nahe, dass die IDF nun diese Strategie anwenden. Indem sie die Definition erweitern, wer und was als militärisches Ziel gilt, können sie die Massentötungen als legal und strategisch notwendig ausweisen. Der rascheste Weg, in großem Stil Zivilist*innen in Kämpfende und zivile Einrichtungen wie Bäckereien in Militäreinrichtungen zu verwandeln, ist aber wohl der Einsatz von KI.
Im Mai 2024 wurden die Israeli Air Force und ihre Geheimdienstabteilung mit dem diesjährigen Israeli Defence Prize für der Erfolg ihrer „Angriffszielfabrik“ (מפעל המטרות) ausgezeichnet.3 In einer Pressemitteilung der Regierung heißt es, diese Einheiten bekämen die Auszeichnung für ihre innovative Nutzung „fortschrittlicher Algorithmen und KI“ bei der Identifizierung potenzieller militärischer Ziele, die sich offenbar als Zivilist*innen tarnen.4 Ein hochrangiger Militär sagte gegenüber der Jerusalem Post Anfang des Jahres, die KI-Systeme der Armee könnten erstmals schneller neue Ziele generieren, als man sie angreifen kann. Er verwies darauf, dass die IDF in den Kriegen 2014 und 2021 ihre Zielliste ausgeschöpft hätten. Früher stellten bei israelischen Militäroperationen das Ausfindigmachen und Rechtfertigen neuer Ziele einen Engpass dar. Jetzt ist dieser Vorgang durch KI automatisiert, was kontinuierliche Luftangriffe ermöglicht.
Dies stellt eine tiefgreifende Veränderung im Krieg und in der Sicherheitspolitik dar, denn militärische Ziele (aber auch Kriminelle) können nun schneller identifiziert als ausgeschaltet oder festgenommen werden. Armee- und Sicherheitsleute werden zu Informatiker*innen, die ihre Taktik adaptieren, um ständig neue Daten zu generieren, die wiederum ihre Aktionen rechtfertigen. Eine kritische Prüfung der diesen Handlungen zugrunde liegenden Prämissen findet nicht mehr statt.
Der Brigadegeneral Yossi Sariel, Kommandant der Intelligence Unit 8200 und Vorkämpfer der „Angriffszielfabrik“, spricht in seiner, im Zuge eines Auslandjahres an der National Defense University in Washington verfassten und in Eigenregie veröffentlichten Masterarbeit „The Human-Machine Team“ gar von einer neuen Phase der menschlichen Evolution.5 Sariel behauptet, Armeen sollten „die Lernsynergien zwischen Menschen und Maschinen zur Schaffung einer Superkognition“6 ankurbeln. Er umreißt ein Modell, bei dem Ziele durch die Verknüpfung geheimer Daten, beispielsweise von Informant*innen, mit der Identifizierung von Personen, die Mitglieder einer WhatsApp-Gruppe sind, der ein bereits bekannter Kämpfer angehört, ermittelt werden. Noch einfacher wäre es für das israelische Militär, eine Verschlüsselungslücke in WhatsApp zu nutzen, die The Intercept im Mai aufdeckte. Durch diese Lücke kann man aus den Metadaten von WhatsApp-Chats, das heißt, wer wann wen von wo aus kontaktierte, ein soziales Netzwerk extrapolieren, mit dem man per machine learning Zielpersonen generiert.7 Obwohl das siedlerkolonialistische Regime bereits seit Jahrzehnten die sozialen Netzwerke der Palästinenser*innen mit Registern, Datenbanken sowie durch polizeiliche Verfolgung und Haft ausforscht, ermöglichen die neuen Big-Data-Modelle deren automatisierte und beschleunigte Analyse. Mit dieser Technik kann man Verbindungen herstellen, die es ermöglichen, jeden und jede als Terroristen oder Terroristin zu identifizieren.
Nach dem Evakuierungsbefehl vom 13. Oktober waren für die IDF alle, die nördlich des Wadi Gaza blieben, potenzielle Terrorist*innen. Die Tatsache, dass einige deshalb nicht wegziehen wollten, weil sie sich an die Reue ihrer Großeltern erinnerten, die ihr Land während der Nakba 1948 verlassen hatten, blieb außen vor. Es gab weder Strom noch Benzin, und vor den Bäckereien stand man stundenlang Schlange. Eine Person in der Schlange, die von Israels Angriffszielfabrik durch ihr Smartphone mit einem mutmaßlichen Hamas-Terroristen in Verbindung gebracht wurde, konnte die Bäckerei nun zu einem militärischen Ziel machen. Da die rechtliche und strategische Rechtfertigung von vornherein feststand, lag das menschliche Element in diesem Human-Machine-Team nur noch darin zu entscheiden, ob die Bäckerei bombardiert wird oder nicht. Am Anfang des Krieges diente die Zerstörung von Bäckereien dazu, Palästinenser*innen nach Süden zu drängen, am Schluss nach Rafah, als Teil des Plans, Ägypten zur Grenzöffnung zu zwingen. Die Entscheidung im Einklang mit der übergeordneten politischen Strategie war demnach meist, die Bäckerei zu bombardieren.
Um Muster und Verbindungen zu entschlüsseln, die in so einem Netzwerk nicht evident sind, wurden im ganzen Gazastreifen biometrische Checkpoints eingerichtet. So wurde am 14. November 2023 ein Kontrollpunkt an der Salah-al-Din-Straße improvisiert, um es den IDF leichter zu machen, den Massentransfer der Zivilist*innen in den Süden nachzuverfolgen und zu kontrollieren. Laut Aussagen von Zeug*innen, aufgenommen vom Amt der Vereinten Nationen für die Koordinierung humanitärer Angelegenheiten (OCHA), diente dieser Kontrollpunkt den IDF indes dazu, willkürlich Menschen festzunehmen, Familien gewaltsam zu trennen, Leute zu demütigen und andere Formen psychischer und physischer Gewalt anzuwenden. Das OCHA berichtete des Weiteren, dass dieser Checkpoint nicht bemannt war, sondern von bewaffneten Soldat*innen in der Nähe ferngesteuert wurde. Dazu gab es auch ein computerisiertes Kontrollsystem: „Die Flüchtlinge wurden dazu angehalten, ihre Ausweise zu zeigen und sich offenbar einer Gesichtserkennung zu unterziehen.“8 Die Zwangsvertreibung der palästinensischen Bevölkerung ermöglichte somit den IDF, deren biometrische Daten ohne ihre Zustimmung zu sammeln.
Es gibt Satellitenbilder von März 2024, die eine Ballung vertriebener Palästinenser*innen vor einem improvisierten israelischen Kontrollpunkt am Eingang zur „Sicherheitszone“ Al-Mawasi zeigen. Verwendet das israelische Militär diesen Checkpoint ähnlich dem an der Salah-al-Din-Straße, dann dient auch diese „Sicherheitszone“ als selektive Kontrolle, was die die Wege und Anhaltung der Vertriebenen angeht. Seit Neujahr wurden zwei permanente Checkpoints errichtet, die die IDF als „drains“ (Abflüsse) bezeichnen und den Gazastreifen in zwei Abschnitte teilen.9 Diese dienen nicht nur als Filter, wer passieren darf und wer festgenommen wird, sondern auch als Registrierstellen, wo im Abgleich mit bestehenden Daten die Namen derjenigen ermittelt werden, die sich entschieden haben, im Norden zu bleiben und somit vielleicht als neue Zielpersonen herhalten müssen.
Der Zweck der „Angriffszielfabrik“ liegt in Summe darin, eine juristische Rechtfertigung für die Massentötungen von Palästinenser*innen zu liefern. Die ehemalige Einschränkung, die Zahl der zivilen Todesopfer so gering wie möglich zu halten, wird durch einen Mechanismus ersetzt, der Zivilist*innen zu Zielen eines potenziellen Genozids macht. Die Frage ist nicht, ob KI im Krieg gut oder schlecht ist oder ob man sie gerechter einsetzen könnte. Die Ungerechtigkeit der „Angriffszielfabrik“ ist politisch gewollt, unabhängig vom Design ihrer Datenmodelle, und beruht darauf, dass das internationale Recht die Logik der Gewalt mittels ökonomischer Berechnungen definiert, und dass diese Berechnungen, wenn sie millionenfach gemacht werden, dazu benützt werden können, um bewusst die Lebensumstände einer bestimmten Bevölkerungsgruppe zu zerstören. Internationales Recht und die Rechenleistung von KI wirken also zusammen, um die Kriminalisierung einer Bevölkerungsgruppe zu legitimieren und zu ermöglichen, bloß weil diese beschlossen hat, ihre Heimat nicht zu verlassen.
Nach der Zerstörung der Bäckereien wurden nun Tabuns (طابون), traditionelle palästinensischen Lehmöfen, gebaut, es kamen Ärzt*innen, die in Krankenhäusern Teig auf OP-Tüchern kneten, es kamen Frauen, die in Notunterkünften ungesäuertes Brot (خبز غ مخمر) in Asche backen, wie es bei den Beduinen immer schon üblich war, und es kamen Bauern, die Getreidesetzlinge pflanzen, um den Hunger zu bekämpfen. Diese Traditionen, die tief in der palästinensischen Lebensart und im Wissen um das Land verwurzelt sind, erinnern daran, dass in Anbetracht der computergestützten Zerstörung Palästinas eine andere Art von Netzwerk keimt – nämlich eines der kulturellen und menschlichen Beziehungen.

 

Übersetzt von Thomas Raab

 

[1] https://gaza-aid-attacks.forensic-architecture.org/
[2] Vgl. Eyal Weizman, The Least of All Possible Evils. A Short History of Humanitarian Violence. London: Verso 2011.
[3] https://www.kan.org.il/content/kan-news/defense/755144/.
[4] https://www.idf.il/אתרי-יחידות/יומן-המלחמה/כל-הכתבות/הפצות/מלחמה-מטרות-שהותקפו-כוחות-צה-ל-אגף-המודיעין-חיל-האוויר-חיל-הים/; Yuval Abraham, „Lavender“: The AI Machine Directing Israel’s Bombing Spree in Gaza, in: +972 Magazine, 3. April 2024; https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[5] Harry Davies/Bethan McKernan, Top Israeli Spy Chief Exposes His True Identity in Online Security Lapse, in: The Guardian, 5. April 2024; https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-his-true-identity-in-online-security-lapse/.
[6] Yossi Sariel, The Human-Machine Team. How to Create Synergy between Human & Artificial Intelligence That Will Revolutionize Our World. Eigenverlag 2021, S. 17.
[7] Sam Biddle, This Undisclosed WhatsApp Vulnerability Lets Governments See Who You Message, The Intercept, 22. Mai 2024; https://theintercept.com/2024/05/22/whatsapp-security-vulnerability-meta-israel-palestine/.
[8] Hostilities in the Gaza Strip and Israel | Flash Update #48 [EN/AR/HE] – Occupied Palestinian Territory | ReliefWeb, 24. November 2023; https://reliefweb.int/report/occupied-palestinian-territory/hostilities-gaza-strip-and-israel-flash-update-48-enarhe/.
[9] http://news.walla.co.il/item/3641108/