Heft 1/2024 - ArtGPT


Begrenzt zukunftsfähig

Algorithmische Apparate und neokoloniale Gebote

Anthony Downey


1
Der sogenannte Nahe Osten ist schon seit Langem Schauplatz fortschrittlicher Kartierungstechnologien, weniger als ein „sprechendes Subjekt“ denn vielmehr als Studienobjekt. Im Luftbildbereich kamen dabei in der Vergangenheit häufig kartografische und fotografische Methoden zum Einsatz. Das Vermächtnis von Kataster-, Foto- und Fotogrammetriegeräten hat nach wie vor Einfluss auf die Quantifizierung von Menschen und Regionen, vor allem, wenn es um den allumfassenden, berechnenden Blick autonomer Überwachungssysteme geht. Diese ferngesteuerten, mittels Künstlicher Intelligenz fortgeführten und verwalteten Systeme läuten ein neues Zeitalter der Kartierung ein, das zunehmend durch die operative Logik von Algorithmen umgesetzt wird. Algorithmusgestützte Modelle der Datenextraktion und Bildverarbeitung haben darüber hinaus nach und nach zu einer Verfeinerung neokolonialer Ziele geführt: Während es bei der Kolonisierung durch kartografische und andere, weniger subtile Mittel um die Gewinnung von Wohlstand und Arbeitskraft ging, beschäftigt sich die Neokolonisierung, auch wenn sie Ziele wie diese noch immer verfolgt, zunehmend mit automatisierten Modellen der vorausschauenden Analyse. Weil dies die algorithmische Verarbeitung von Daten für maschinelles Lernen und Computer Vision beinhaltet, ist die Funktionsweise dieser Prognosemodelle untrennbar mit dem kriegerischen Bestreben verbunden, wenn nicht gar durch dieses codiert, Ereignisse, die noch gar nicht eingetreten sind, zu berechnen oder vorherzusagen.
Als kalkulierte Herangehensweise an die Re-Präsentation von Menschen, Gemeinschaften und Topografien steht die Gewinnung und Verarbeitung von Daten im direkten Zusammenhang mit der Berechnung numerischer Werte: „Die Betonung des Numerischen bzw. der Instrumentalität des Wissens ist eng mit der Kartografie verbunden, da die Kartografie allen Orten und Objekten eine Position zuweist. Diese Position kann numerisch ausgedrückt werden.“1 Dieser Prozess räumt dem kolonialen „Ich/Auge“ [I/Eye] der Kartograf*innen eine privilegierte Stellung ein und wird dazu verwendet, die Gegenwart und unweigerlich auch die Zukunft zu verwalten – zu regulieren, zu beherrschen und zu besetzen – und auch einzudämmen. Die panoptischen und projektiven Ambitionen, die zunächst im „Ich/Auge“ der singulären Figur der*des Kartografierenden verkörpert sind, müssen jedoch automatisiert werden, wenn sie strategisch umsetzbar sein sollen. Um ein immerwährendes Kommando durchzusetzen, müssen, allgemein gesprochen, immer umfassendere Modelle der programmierten Wahrnehmung entwickelt werden. Zeitgenössische Kartierungstechnologien, die entwickelt wurden, um koloniale Bestrebungen und die Gebote neokolonialer militärisch-industrieller Komplexe zu unterstützen, extrahieren und quantifizieren mithilfe von KI Daten, um diese dann wieder auf eine bestimmte Umgebung zu projizieren. Der übergreifende Effekt dieser Praktiken der computergestützten Projektion ist die faktische Ausweitung des allsehenden neokolonialen Blicks in die Zukunft.
Die Entwicklung ferngesteuerter, entkörperlichter Überwachungstechnologien, die sich auf die historische Logik und Logistik kolonialer kartografischer Methoden stützten, erforderte auch die Verlagerung des Sehens – des augenzentrierten Wahrnehmens – in den Bereich des Maschinellen. Mit den extraktiven und projektiven Zwängen der kolonialen Macht wurde nicht nur das Sehen an maschinelle Wahrnehmungsmodelle delegiert, sondern auch die unvermeidliche Automatisierung der Bildproduktion heraufbeschworen. Im Kontext von Harun Farockis „operativen Bildern“ und Vilém Flussers Theorie der „technischen Bilder“ lässt sich in den extraktiven Bestrebungen des Neokolonialismus ein Zusammenhang herstellen zwischen der kolonialen Ambition, das Sehen zu automatisieren, und der Rolle von KI.2 „Technische Bilder“ und „operative Bilder“, die auf einem Abgleich innerhalb von Prozessen der Automatisierung, Gewinnung, Quantifizierung und Archivierung basieren, künden von Methoden der Datenabfrage, -speicherung und -zielführung, die heute in algorithmischen Apparaten zur Steuerung von unbemannten Luftfahrzeugen (Unmanned Aerial Vehicles, UAV) und tödlichen autonomen Waffensystemen (Lethal Autonomous Weapons, LAW) zur Anwendung kommen. Betrachtet man die Beziehung zwischen „technischen Bildern“ und „operativen Bildern“ im Zuge der Weiterentwicklung von augenzentrierten Modellen des Sehens in Richtung automatisierter Bildverarbeitung, wird auch erkennbar, dass der Einsatz von KI in UAVs und LAWs einen Herrschaftsapparat verkörpert, der die Zukunft sowohl eindämmt als auch aufhebt, insbesondere solche Zukünfte, die den Imperativen der Neokolonisierung entgegenstehen.

2
Als Systeme, die nicht-menschliche Handlungsfähigkeit demonstrieren, „simulieren“ Apparate Vilém Flusser zufolge Denkprozesse und ermöglichen anhand von Rechenprozessen die Entstehung von Modellen automatisierter Bildproduktion.3 „Technische Bilder“ seien folglich „von Apparaten erzeugt“4 – das Ergebnis sequenzieller, rekursiver Berechnungen statt menschenzentrierter Aktivitäten. „Dadurch“, so Flusser, „kehrt sich das ursprüngliche Verhältnis ‚Mensch/Apparat‘ um, und der Mensch funktioniert in Funktion der Apparate.“5 Es kommt einem*r so vor, als würde die Maschine hinter der Bildproduktion autonom agieren; dieses Gefühl liegt Harun Farockis bahnbrechender Erklärung des „operativen Bilds“ zugrunde. Ohne jeglichen ästhetischen Kontext sind „operative Bilder“ Teil einer maschinenbasierten operativen Logik und geben Farocki zufolge keinen Prozess wieder, sondern sind „vielmehr Teil eines Prozesses“6. Diese Bilder sind unverkennbar durch die jeweilige Operation und nicht durch eine referenzielle Logik definiert; als solche sind sie weder propagandistisch (sie versuchen nicht zu überzeugen), noch sind sie auf den „okularen“ Bereich der menschlichen Wahrnehmung ausgerichtet (sie sind beispielsweise nicht daran interessiert, unsere Aufmerksamkeit zu lenken). Da sie nicht aus Piktogrammen, sondern aus abstraktem Binärcode bestehen, sind sie auch nicht bildhaft – sie sind nicht einmal Bilder: „Ein Rechner kann zwar Bilder verarbeiten, braucht aber keine wirklichen Bilder zur Verifikation oder Falsifikation dessen, was er in einem Bild liest.“7 Durch ihre Reduzierung auf einen numerischen Code bleiben „operative Bilder“ in Form von sequenziertem Code oder Vektoren von grundlegender Bedeutung für die Entwicklung zeitgenössischer Modelle des rekursiven maschinellen Lernens und der Computer Vision.
Im letzten Teil von Farockis Auge/Maschine-Trilogie (2001–03) liegt ein auffälliger Schwerpunkt auf dem nicht-allegorischen, rekursiv verarbeiteten Bild – dem „operativen Bild“ – und dessen Rolle bei der Unterstützung zeitgenössischer Modelle zur Zielerfassung aus der Luft. In direktem Verweis auf den ersten Golfkrieg 1991 und die Invasionen in Afghanistan und im Irak 2001 und 2003 beobachtete Farocki, dass durch eine „neue Bilderpolitik“ ein Paradigma undurchsichtiger und weitgehend unkontrollierbarer Methoden der Bilderzeugung eingeführt worden war, das die Zukunft der „elektronischen Kriegsführung“ unaufhaltsam befördern würde.8 Das Neue an den operativen Bildern, die 2003 im Irak zum Einsatz kamen, sei, so wurde argumentiert, „dass sie nicht dazu gedacht sind, von Menschen gesehen zu werden, sondern als Schnittstellen im Kontext algorithmisch kontrollierter Lenkungsprozesse fungieren“9. In dem Maße, in dem sich „operative Bilder“ in algorithmischen Begriffen fassen lassen (die auf numerischen Werten bzw. geschlossenen Prozeduren und einer Reihe von rekursiven Anweisungen beruhen), lässt sich auch erkennen, wie sich ihre inhärente Zweckmäßigkeit an zeitgenössischen Kriegsschauplätzen und in Leitsystemen – dem allgegenwärtigen Impuls, auf Grundlage ihrer Berechnungen der Zukunft zu handeln – auf die reale Welt auswirkt: jenes Ausmaß, in dem sie in Summe dazu eingesetzt werden, um Menschen ins Visier zu nehmen und auch zu töten.10
Anhand der epistemologischen und tatsächlichen Gewalt bzw. ihren Folgen für Gemeinschaften und Einzelpersonen, die durch autonome Systeme erfasst werden, lässt sich ferner ermessen, wie stark das Erbe des Kolonialismus die algorithmische Logik des neokolonialen Imperialismus prägt. Die Logistik der Datenextraktion, ganz zu schweigen von der Gewalt, die infolge solcher Aktivitäten ausgeübt wird, wurde von Aimé Césaire kurz und bündig in dem Satz erfasst: „Kolonialisierung = Verdinglichung“. Mit dieser prägnanten Formulierung hat Césaire sowohl die inhärenten, von Kolonialmächten praktizierten Prozesse der Entmenschlichung als auch die Art und Weise hervorgehoben, wie daraus die gefügigen und produktiven – zugleich passiven und kommodifizierten – Körper der Kolonisierten hervorgingen. Seiner Zeit entsprechend verstand Césaire diese Konstellationen in erster Linie unter dem Gesichtspunkt der Anhäufung von Reichtum (Rohstoffen) und der Ausbeutung von körperlicher Zwangsarbeit. Seine These war jedoch auch insofern wegweisend, als er erkannt hatte, wie die Kolonisierung nach der uneingeschränkten Kontrolle über die Zukunft strebte, und sei es nur, um Elemente darin auszulöschen, die nicht mit den erklärten Zielen und Prioritäten des Imperialismus im Einklang standen: „Ich aber rede von um ihre Identität gebrachten Gesellschaften, von niedergetrampelten Kulturen, von ausgehöhlten Institutionen, von konfisziertem Land, von ausgelöschten Religionen, von vernichtetem künstlerischen Glanz, von vereitelten großen Möglichkeiten.“11 Bei der Ausbeutung von Rohstoffen, Arbeitskräften und Menschen, wie sie durch die gewaltsamen Projekte westlichen Wissens und westlicher Macht vorangetrieben wurde, bediente man sich eines Prozesses der Entmenschlichung, der die Möglichkeiten zukünftiger Realitäten verzögerte, wenn nicht gar zunichtemachte.

3
Im Kontext des Nahen Ostens sind Risikomanagement und Bedrohungsvorhersage – die Eindämmung der Zukunft – in hohem Maße auf den Einsatz von maschinellem Lernen und Computer Vision angewiesen. Dies zeichnete sich bereits 2003 ab, als George W. Bush im Vorfeld der Invasion des Iraks verkündete: „Wenn wir warten, bis Drohungen wahr werden, haben wir zu lange gewartet.“12 Bushs Statement implizierte, ob gewollt oder ungewollt, die unausgesprochene Annahme, dass Terrorismusbekämpfung notwendigerweise durch halb-, wenn nicht gar vollautonome Waffensysteme unterstützt wird, die in der Lage sind, die militärische Strategie einer vorausschauenden und präventiven Selbstverteidigung aufrechtzuerhalten und zu unterstützen.13 Um Bedrohungen vorhersehen zu können, muss man dieser Logik zufolge weiter sehen als das menschliche Auge und schneller handeln als das menschliche Gehirn; um einer Bedrohung zuvorzukommen, muss man bereit sein, die „unbekannten Unbekannten“14 zu ermitteln und auszuschließen. Obwohl es sich dabei um einen historischen Grundpfeiler militärischer Taktik handelt, gilt der Einsatz präventiver oder antizipativer Maßnahmen zur Selbstverteidigung – die sogenannte Bush-Doktrin – heute als zweifelhaftes Vermächtnis der Anschläge auf die USA am 11. September 2001. Obwohl es keine Beweise für eine irakische Beteiligung an den Ereignissen von 9/11 gab, war die Invasion des Iraks 2003, um ein besonders ungeheuerliches Beispiel zu nennen, ein Präventivkrieg, den die USA und ihre früheren Verbündeten führten, um derartige Angriffe in Zukunft zu verhindern.
Passend zu den Bestrebungen, „unbekannte Unbekannte“ vorherzusagen, schrieb Alex Karp, der CEO von Palantir, im Juli 2023 einen Gastkommentar für die New York Times. 20 Jahre nach der Invasion des Iraks standen die offensichtlichen Bedrohungen für die Sicherheit der USA und die Notwendigkeit solider Methoden der präventiven Kriegsführung immer noch im Vordergrund von Karps Überlegungen, vor allem in seiner Begeisterung für die anscheinend prophetischen, wenn nicht gar orakelhaften Fähigkeiten von KI-Prognosesystemen. Natürlich müsse, so Karp, der Einsatz von KI in der modernen Kriegsführung sorgfältig überwacht und reguliert werden. Seiner Ansicht nach stünden diejenigen, die an der Überwachung derartiger Kontroll- und Einflussrechte beteiligt sind – darunter sein Unternehmen, die US-Regierung, das US-Militär und Gremien auf Industrieebene – vor einer ähnlichen Entscheidung wie die Welt nach der Erfindung der Atomwaffen in den 1940er-Jahren. „Wir stehen [heute] vor der Entscheidung, ob wir die Entwicklung der fortschrittlichsten Formen Künstlicher Intelligenz, die nach Ansicht mancher die Menschheit bedrohen oder eines Tages ablösen könnten, beschränken oder gar stoppen sollten, oder ob wir mehr ungehindertes Experimentieren mit einer Technologie zulassen sollten, die das Potenzial hat, die internationale Politik dieses Jahrhunderts so zu prägen, wie Atomwaffen das letzte geprägt haben.“15
Karp räumte ein, dass die neuesten KI-Versionen, darunter auch die sogenannten Large Language Models (LLMs), die im Bereich des maschinellen Lernens zunehmend beliebter werden, für Benutzer*innen und Programmierer*innen gleichermaßen unmöglich zu verstehen sind, und dass das, „was in diesem Raum mit seinen Billionen Dimensionen entstanden ist, undurchsichtig und mysteriös ist“16. Es scheint jedoch, als könnten die „bekannten Unbekannten“ der KI, die erklärte Undurchsichtigkeit ihrer operativen Logik (ganz zu schweigen von der nachweislichen Neigung zu Fehlprognosen oder Halluzinationen), die „unbekannten Unbekannten“ von Bedrohungen vorhersagen, zumindest im Bereich der von Palantir propagierten prädiktiven Analytik.17 Karp ist sich dieses Dilemmas bewusst und beteuert, ohne näher auf Einzelheiten einzugehen, es werde unabdingbar sein, „eine nahtlosere Zusammenarbeit zwischen menschlichen Betreiber*innen und ihren algorithmischen Pendants zu ermöglichen, um sicherzustellen, dass die Maschinen ihren Schöpfer*innen untergeordnet bleibt“, aber dass wir dennoch „nicht davor zurückschrecken dürfen, scharfe Instrumente zu entwickeln, aus Angst, sie könnten gegen uns selbst gerichtet werden“18.
Diese Zusammenfassung der fortwährenden Dilemmata bei der Verwendung von KI-Systemen in der Kriegsführung, darunter auch die Gefahr, dass sich die Maschinen gegen uns wenden könnten, muss insofern ernst genommen werden, als Karp in seiner Funktion als CEO von Palantir zu den wenigen Personen gehört, die über einen Insidereinblick in deren zukünftigen Einsatz verfügen. Palantir gilt als führender Proponent der prädiktiven Analytik in der Kriegsführung und scheut sich nicht, für die Ausweitung von KI-Technologien auf aktuelle Kriegsschauplätze, Polizeiarbeit, Informationsmanagement und Datenanalytik im Allgemeinen einzutreten. In Übereinstimmung mit dem erklärten Ziel des Unternehmens, KI stärker in Kriegsgeschehen einzubinden, ist die Website von Palantir in dieser Frage ziemlich eindeutig. So erfahren wir beispielsweise, dass „neue Modernisierungsbestrebungen in der Luftfahrt die Reichweite von Aufklärung, Arbeitskraft und Ausrüstung der Armee erhöhen, um eine Bedrohung auf größere Entfernung dynamisch abzuwehren. Wir bei Palantir setzen KI/ML-fähige Lösungen in fliegenden Plattformen ein, damit die Benutzer weiter sehen, schnellere Erkenntnisse gewinnen und mit der erforderlichen Geschwindigkeit reagieren können.“19 Was damit gemeint ist, „mit der erforderlichen Geschwindigkeit [zu] reagieren“, so können wir nur vermuten, dass dies mit der präventiven Logik zu tun hat, Bedrohungen autonom zu antizipieren und auszulöschen, bevor sie sich manifestieren.
Palantirs erklärtes Ziel, Vorhersagemodelle und KI-Lösungen zu entwickeln, die es Militärstrateg*innen ermöglichen, (autonom oder anders) „weiter zu sehen“, ist nicht nur ein eindeutiger Beleg dafür, dass das Unternehmen auf die Schlussfolgerungs- und Vorhersagefähigkeiten von KI setzt. Vielmehr ist dies angesichts seiner aufstrebenden Position in Bezug auf die US-Regierung und das Pentagon auch ein klarer Hinweis darauf, dass derartige neokoloniale Technologien die Durchführung und den Ausgang künftiger Kriege im Nahen Osten bestimmen werden.20 Dieses Streben danach, „weiter zu sehen“, das sich bereits in den kolonialen Kartierungstechnologien manifestierte, unterstützt auch das neokoloniale Bestreben, das zu sehen, was nicht gesehen werden kann – bzw. das, was nur durch den algorithmischen Blick und seine Rationalisierung zukünftiger Realitäten gesehen werden kann. Wie Edward Said in seinem bahnbrechenden Werk Orientalismus argumentierte, bestand die Funktion des imperialen Blicks – und des kolonialen Diskurses im Allgemeinen – darin, „alles in Sicht (und außer Sicht) zu unterteilen, zu verwerten, zu schematisieren, einzuordnen, zu indizieren und aufzuzeichnen“21. Genau darin besteht auch die zukunftsorientierte algorithmische „Vision“ einer neokolonialen Weltordnung – einer Ordnung, die von KI-Apparaten aufrechterhalten und unterstützt wird, die alles, was in Sichtweite ist, und kritischerweise auch alles, was außer Sichtweite ist, einteilen, sich aneignen, neu ausrichten, vorhersagen und aufzeichnen wollen.

4
KI-gestützte Modelle für unbemannte Luftüberwachung und autonome Waffensysteme werden zwar üblicherweise als objektiver „Blick von nirgendwo“ (eine in der kolonialen Kartografie verwendeten Methode) dargestellt, sind jedoch angesichts ihrer Betonung von Extrapolation und Vorhersage epistemische Strukturen, die Realitäten erschaffen. Diese Rechenstrukturen, die tatsächliche Ereignisse in der Welt provozieren, können auch dazu verwendet werden, reale Gewalttaten zu rechtfertigen.22 Bei aller offensichtlichen Funktionsfähigkeit KI-gestützter Bildverarbeitungsmodelle, die im Nahen Osten zum Einsatz kommen, müssen wir daher, nicht zuletzt ihrer fragwürdigen Gültigkeit wegen, beobachten, inwieweit „Algorithmen in der Hinsicht politisch sind, dass sie dazu beitragen, die Welt auf die eine statt auf die andere Art und Weise erscheinen zu lassen. Wenn wir in diesem Sinne von algorithmischer Politik sprechen, beziehen wir uns auf die Vorstellung, dass Realitäten niemals von sich aus gegeben sind, sondern in und durch algorithmische Systeme ins Leben gerufen und aktualisiert werden.“23 Damit soll in Erinnerung gerufen werden, dass die Kolonisierung, wie Said überzeugend feststellte, eine „systematische Disziplin“ war, mit welcher „es der europäischen Kultur in nachaufklärerischer Zeit gelang, den Orient gesellschaftlich, politisch, militärisch, ideologisch, wissenschaftlich und künstlerisch zu vereinnahmen – ja, sogar erst zu schaffen.“24 Die Tatsache, dass Saids Einsichten mittlerweile weitgehend akzeptiert, wenn nicht gar Mainstream geworden sind, sollte uns nicht davon ablenken, dass das Zeitalter der Künstlichen Intelligenz von einem heimtückischen Wiederaufleben des rassischen, ethnischen und sozialen Determinismus zeugt, der in allen imperialen Unternehmungen und ihrer begeisterten Unterstützung für den Kolonialismus eine Rolle spielte.
Im Umfeld von Big Data, maschinellem Lernen, „Data Scraping“ und angewandten Algorithmen wird eine Form von digitalem Imperialismus auf profunde, um nicht zu sagen lukrative Weise in neokoloniale Prototypen von Drohnenaufklärung, Satellitenüberwachung und autonomen Formen der Kriegsführung einprogrammiert. Und dies ist nirgendwo verbreiteter als in der meist als Naher Osten bezeichneten Region, die schon seit Langem als Testgelände für westliche Technologien dient.25 Mit der Behauptung, dass sich das maschinelle „Auge“, jenes „Ich“, das mit kartografischen und anderen Vermessungsmethoden assoziiert wird, zu einem unkontrollierbaren, losgelösten algorithmischen Blick weiterentwickelt hat, soll letztlich auf eine weitere Unterscheidung hingewiesen werden: Der Übergang von abwägenden, „augenzentrierten“ Modellen des Sehens und Denkens zu rekursiven Algorithmen offenbart eine zunehmend gefühllose Konzeption von Subjekten im Hinblick auf ihre Verfügbarkeit oder Ersetzbarkeit, wobei Letzteres, wie Aimé Césaire feststellte, ein zentrales Merkmal des kolonialen Diskurses und der kolonialen Praxis darstellt. Angesichts dieser computergestützten Komplizenschaft bzw. der losgelösten Apparate der Neokolonisierung sollten wir uns fragen, ob es einen Zusammenhang gibt zwischen Automatisierung und der Zurückweisung von Schuld: Sorgt die Verlagerung der Wahrnehmung und der Entscheidungsprozesse, die wir mit der augenzentrierten Domäne menschlichen Sehens verbinden, auf autonome Apparate dafür, dass wir die rechtliche, politische und individuelle Verantwortung für die Anwendungen von KI dementsprechend von uns weisen? Anders gesagt: Ist KI zu einem Alibi geworden – einem Mittel, um sich von individueller, kriegerischer und staatlicher Verantwortung loszusagen, wenn es um algorithmische Entscheidungen über Leben und Tod geht?

 

Übersetzt von Anja Schulte

 

[1] Anne Godlewska, Map, Text and Image. The Mentality of Enlightened Conquerors: A New Look at the Description de l’Egypte, in: Transactions of the Institute of British Geographers, Vol. 20, No. 1 (1995), S. 5–28, hier: S. 6.
[2] Im Zusammenhang mit konfliktgetriebenen Technologien sollte hier auch Paul Virilios Theorie der „instrumentell erzeugten virtuellen Bilder“ und „Bildmaschinen“ erwähnt werden. Vgl. Paul Virilio, Die Sehmaschine. Berlin 2012.
[3] Vgl. Vilém Flusser, Für eine Philosophie der Fotografie, Edition Flusser Band 3. Berlin 2018.
[4] Ebd., S. 20.
[5] Vilém Flusser, Ins Universum der technischen Bilder, Edition Flusser Band 4. Berlin 2018, S. 78.
[6] Harun Farocki, Produktionsmitteilung für Auge/Maschine III (2003); https://www.harunfarocki.de/de/installationen/2000er/2003/auge-maschine-iii.html.
[7] Harun Farocki, Der Krieg findet immer einen Ausweg, in: Cinema #50, 2005, S. 21–31, hier: S. 29.
[8] Siehe Harun Farockis Produktionsnotiz für Auge/Maschine I (2001); https://www.harunfarocki.de/de/installationen/2000er/2000/auge-maschine.html.
[9] Martin Blumenthal-Barby, Der asymmetrische Blick. Film und Überwachung. Leiden 2016, S. 57.
[10] In ihrer aufschlussreichen Analyse der Funktionsweise von Algorithmen in Bezug auf die „vollgestopfte Datenumgebung von Drohnenbildern“ argumentiert Louise Amoore, dass „ein entscheidendes ethisches Problem des Algorithmus nicht in erster Linie die Fähigkeit betrifft, eine riesige Datenlandschaft zu sehen, zu erfassen oder zu untersuchen, sondern die Fähigkeit, etwas wahrzunehmen und zu filtern, um aktiv zu werden“. Vgl. Louise Amoore, Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Durham NC 2020, S. 16.
[11] Aimé Césaire, Rede über den Kolonialismus und andere Texte. Berlin 2010, S. 88.
[12] Vgl. George W. Bush, 1. Juni 2002; https://georgewbush-whitehouse.archives.gov/news/releases/2002/06/20020601-3.html.
[136 Eine ausführliche Erörterung der Beziehung zwischen algorithmischen Prognosen und kriegerischen Präventivmaßnahmen findet sich bei Anthony Downey, Algorithmic Predictions and Pre-Emptive Violence: Artificial Intelligence and the Future of Unmanned Aerial Systems, in: Digital War, 5. Dezember 2023; https://doi.org/10.1057/s42984-023-00068-7.
[14] Die Formulierung „unknown unknowns“, „unbekannte Unbekannte“, wurde vom damaligen US-Verteidigungsminister Donald Rumsfeld verwendet, als er 2003 seine Argumente für die präventive Invasion des Iraks vorbrachte. Eine Transkription von Rumsfelds mittlerweile berüchtigten Äußerungen findet sich unter https://archive.ph/20180320091111/http://archive.defense.gov/Transcripts/Transcript.aspx?TranscriptID=2636.
[15] Alex Karp, Our Oppenheimer Moment: The Creation of A.I. Weapons, in: The New York Times, 25. Juli 2023; https://www.nytimes.com/2023/07/25/opinion/karp-palantir-artificial-intelligence.html.
[16] Ebd.
[17] Palantir wurde ursprünglich von In-Q-Tel finanziert, einem Non-Profit-Unternehmen der CIA für die Vergabe von Risikokapital an junge IT-Unternehmen. Heute gilt Palantir zunehmend als führend im Bereich der prädiktiven Datenanalyse und der Verteidigung, was sich auch daran zeigt, dass das Unternehmen vor Kurzem im Rahmen eines KI-Forschungsvertrags der US-Armee 250 Millionen US-Dollar erhalten hat.
[18] Karp (siehe Anm. 15), ebd.
[19 https://www.palantir.com/offerings/defense/army/#airborne (Hervorhebungen hinzugefügt).
[20] Im Januar 2024 wurde bekanntgegeben, dass Palantir eine strategische Partnerschaft zur Lieferung prädiktiver Technologien mit dem israelischen Verteidigungsministerium vereinbart hat. Siehe Marissa Newman, Thiel’s Palantir, Israel Agree Strategic Partnership for Battle Tech, Bloomberg News, 12. Januar 2024; https://www.bloomberg.com/news/articles/2024-01-12palantir-israel-agree-to-strategic-partnership-for-battle-tech?leadSource=uverify%20wall.
[21] Edward Said, Orientalismus. Frankfurt am Main 2014, S. 105.
[22] Eine aufschlussreiche Darstellung algorithmischer Gewalt als „Macht der Berechnung“ findet sich bei Rocco Bellanova et al., Toward a Critique of Algorithmic Violence, in: International Political Sociology, 15:1 (März 2021), S. 121–150.
[23] Taina Bucher, If ... Then: Algorithmic Power and Politics. Oxford 2018, S. 3 (Hervorhebungen hinzugefügt).
[24] Said, Orientalismus, S. 11–12 (Hervorhebung hinzugefügt).
[25] Eine ausführliche Erörterung dieser und anderer Aspekte findet sich bei Anthony Downey, The Future of Death: Algorithmic Design, Predictive Analysis, and Drone Warfare, in: Jens Bjering et al. (Hg.), War and Aesthetics: Art, Technology, and the Futures of Warfare. Cambridge, MA 2024.