Heft 3/2019 - Netzteil


KI als soziotechnisches System

Künstlerische Auseinandersetzungen mit den neuen Mensch-Maschine-Beziehungen

Julia Gwendolyn Schneider


Ende 2018 wurde ein mit maschinell lernenden Algorithmen erzeugtes Gemälde für 432.500 Dollar von Christies verkauft.1 Portrait of Edmond de Belamy (2018) läutet einen fragwürdigen Trend ein, geht doch das Werk des Pariser Kollektivs Obvious nicht über eine ästhetisch-konzeptuelle Ebene hinaus. Es setzt Algorithmen als bloßes Medium ein, obwohl die fortschreitende Entwicklung künstlicher Intelligenz tief greifende Veränderungen bewirkt, die zur Reflexion auffordern. So erscheint etwa die Frage nach den neuartigen Mensch-Maschine-Beziehungen äußerst relevant. Mit dieser Schnittstelle – zwischen Ausgeliefertsein und möglicher Einflussnahme auf die sich durch KI verändernde Gestaltung und Wahrnehmung der Wirklichkeit – beschäftigen sich zahlreiche aktuelle Kunstprojekte.
Pierre Huyghes Installation UUmwelt (2018) wird teils von der spekulativen Vorstellung getragen, dass KI demnächst unsere Gedanken lesen kann. Auf großformatigen Monitorwänden sind rätselhafte Bildmutationen zu sehen, die auf nie vollständig greifbare farbige Objekte oder Tiere zu verweisen scheinen. Die Ansichten stagnieren und formieren sich zugleich endlos fort. In einem Labor in Kyoto zeigte Huyghe einer Person Bilder und lud sie dazu ein, sich weitere mental vorzustellen, während die Gehirnaktivität per funktioneller Magnetresonanztomografie aufgezeichnet wurde. Im Anschluss analysierte eine maschinelle Intelligenz die Gehirnströme und durchsuchte Bilddatenbanken nach gleichartigen Motiven, um zu ermitteln, welche Bilder der Mensch im Kopf gehabt haben könnte. Auf den Bildschirmen wird der Prozess des maschinellen Lernens, die Modellierung bildlicher Annäherungen, sichtbar.
Die verzerrten Bilder wurden von künstlichen neuronalen Netzen durch ein Generative Adversarial Network (GAN) erzeugt, Algorithmen, die unbeaufsichtigt lernen. Seitdem die Technologie 2014 ins Leben gerufen wurde, ist sie zu einem beliebten Werkzeug für künstlerische Projekte avanciert, so auch für das eingangs erwähnte Gemälde. Zu kritischeren GAN-basierten Werken zählen unter anderem Constant Dullaarts DullDream (2015 fortlaufend)2, worin Porträts ihrer individuellen Merkmale beraubt werden und Stellung zu Googles Erkennungssoftware DeepDream bezogen wird; Trevor Paglens Serie Adversarially Evolved Hallucinations (2017) spielt mit eigens entwickelten Taxonomien auf die kapitalistische Monstrosität der Technologie an; und Janek Simons Synthetic Poles (2019) erzeugt nahezu fotorealistische Bilder von Menschen, die nicht existieren. In einem erweiterten Sinn kommt die Technologie auch in Marta Revueltas AI Facial Profiling, Levels of Paranoia (2018) zum Einsatz. Sie greift die besorgniserregende Tendenz auf, dass maschinell lernende Algorithmen dazu benutzt werden, von Gesichtszügen auf Charaktereigenschaften zu schließen. Die Arbeit besteht aus einer Gesichtserkennungsmaschine, die vom Aussehen auf die individuelle Fähigkeit schließt, Waffen zu benutzen, und damit Aussagen über die potenzielle Gefährlichkeit eines Individuums trifft.
In Pierre Huyghes UUmwelt sind die Maschinenbilder Teil des Kommunikationssystems der Ausstellung. Externe Faktoren wie Sound, Licht, Temperatur, Feuchtigkeit, Fliegen und die BesucherInnen werden sensoriell erfasst und beeinflussen die Geschwindigkeit der sich fortschreibenden maschinellen Halluzinationen. Es geht um ein Ökosystem, das Mensch, Tier und Technologie durch Rückkopplungsschleifen miteinander verschaltet, ein offenes System, in dem der Mensch nicht zwangsläufig die Oberhand behält.
In eine ähnliche Richtung weist Se ti sabir (2019), ein kurzer Essayfilm von James Bridle, der Intelligenz als einen Prozess verstehen möchte, der über den Menschen hinausreicht. „Intelligence [...] is itself possibly a kind of network that exists as connections between things, bridges and communications across them, rather than purely reflex motions within individual brains.“3 Das Wort „sabir“ im Titel stammt aus der Lingua franca, die vom Mittelalter bis ins 19. Jahrhundert im Mittelmeerraum gesprochen wurde, eine romanisch-basierte Pidgin-Sprache, die sich aus dem Kontakt zu SprecherInnen nicht romanischer Sprachen herausbildete und als Handels- und Verkehrssprache verbreitet war. „Sabir“ bedeutet „wissen“. Mit der Zeit wurde das Wort zu einer Grußformel, die die Frage implizierte, ob es möglich sei, miteinander zu kommunizieren.
Bridles Interesse an der Lingua franca setzte ein, als er darüber nachdachte, wie KI heute, insbesondere als Anwendung für Sprachübersetzungen, dazu beiträgt, dass Menschen immer weniger auf ihr eigenes Verständnis angewiesen sind. Die Maschine vermittelt, und wir verlassen uns auf ihre Kompetenz. Obschon ihr Einsatz Vorteile verspricht, werden unsere eigenen Fähigkeiten sukzessive ersetzt, wir verstehen die Vorgänge in der Maschine nicht, und wir lernen auch nichts hinzu. Bridle möchte KI aber nicht ausschließlich auf diesen Gedanken reduzieren. Vielmehr sucht er nach einem Weg, um maschinelle Intelligenz weniger als Fürsprecher, Diener, Werkzeuge oder Waffe zu begreifen, sondern als eine neue Stimme, die sich in die Kakofonie der nicht menschlichen Stimmen und Intelligenzen einreiht, die uns umgeben. Er folgt dabei Ansätzen der Technikphilosophie, etwa Bruno Latours Akteur-Netzwerk-Theorie oder Gilbert Simondons offenen Maschinenverbänden. Indirekt fragt Bridle auch, wie intelligentere Kollaborationen mit KI aussehen könnten, die nicht überwiegend von Ideologien, Marktinteressen, Überwachung und Undurchsichtigkeit geprägt sind, Phänomene, die er eingehend in seinem Buch New Dark Age: Technology and the End of the Future (2018) beleuchtet.
Wenn es darum geht, wie intelligent, insbesondere auch aus einer ethischen Perspektive betrachtet, unsere Kollaborationen mit KI heute sind, kommt schnell die Frage auf, ob nicht die Technik selbst gegebenenfalls anders funktionieren sollte. Sind statistische Mustererkennung und automatische Schlussfolgerungen, für die keine tiefergehende Kenntnis der Zusammenhänge nötig ist – jener Ansatz, der unter dem Begriff machine learning als Teilgebiet der KI im Aufwind ist und im deep learning eine Weiterführung findet –, wirklich die beste Lösung? Es gibt Stimmen, die dafür plädieren, dass eine andere KI vonnöten wäre. So spricht sich der Wissenschaftler und Künstler Luc Steels für eine „verantwortliche KI“ aus und setzt sich für eine Kombination aus muster- und wissensbasierten Ansätzen in der KI-Forschung ein.4 Steels prägte den Begriff der „verhaltensbasierten Robotik“ mit, ein Bereich, der derzeit in der Entwicklung von KI-Algorithmen aber nicht im Vordergrund steht. In Sprachagenten (2018) sprechen Armin Linke & Giulia Bruno mit Steels und zeigen Archivmaterial über seine Experimente mit Robotern, die im Umgang miteinander ihre eigene Sprache entwickeln. Ausgangspunkt für die Talking-Heads-Experimente, die Steels zwischen 1999 und 2001 durchführte, war die Tatsache, dass Sprache kein starres System ist, sondern sich ständig weiterentwickelt. Die Kategorisierung der Welt und die Sprache der einfachen roboterhaften Agenten sind gleichfalls nicht vorprogrammiert, durch Lernspiele in einer Umgebung, in der sich zum Beispiel Hindernisse befinden, konstruieren bzw. erlernen sie diese selber. Aktuell arbeitet Steels am Projekt Odycceus (2017–21)5 mit, worin untersucht wird, wie und warum soziale Medien in letzter Zeit einen Sprachgebrauch unterstützt haben, der auf Desinformation, spaltende Diskurse und postfaktische Politik abzielt. Welchen Einfluss hat die Technologie auf diesen bedeutenden Wandel im menschlichen Diskurs?
Franz Wanners Installation PUBLIC VOID (2018) beschäftigt sich mit der Einflussnahme von Algorithmen auf die digitale Öffentlichkeit. Das Internet mag große Wahlmöglichkeiten bieten, KI-Algorithmen formen unser Informationsfeld jedoch mit. Auf eine große, im Raum hängende Fläche werden Bilder, Videos und Texte projiziert: ein Informationsfluss aus Social-Media-Profilen, deren NutzerInnen, anders als sonst üblich, ihr Einverständnis für den Mitschnitt erteilt haben. Als Code wurden geleakte Algorithmen der Firma Cambridge Analytica verwendet, die 2016 durch Microtargeting in sozialen Netzwerken zur Wahl des jetzt amtierenden US-Präsidenten beigetragen haben sollen. Wanner benutzt die Algorithmen wie Found Footage und zeigt, dass derselbe Code ganz unterschiedliche Haltungen transportieren kann. In Online-Posts russischer sozialer Netzwerke wurde nach folgenden Selektoren gesucht: Millennium Baby, Micro Target, Troll Factory, Click Worker und Data Cleaning. Entgegen des manipulativen Ansatzes von Cambridge Analytica kommt so eine kritische Internetöffentlichkeit zum Vorschein. Die Arbeit entstand während des Wahljahrs in Russland, und in diesem Zusammenhang spielt „Millennium Baby“ etwa auf die Generation an, die zum ersten Mal wählen durfte und mit spezieller Wahlwerbung geködert wurde. Anders als in der Realität ist es in der Installation leicht möglich, sich auf die Seite der algorithmischen Steuerung zu begeben. Während der herausgefilterte Datenstrom auf die semitransparente Fläche projiziert wird, wird der Code auf die Rückseite übertragen. Beide verschränken sich lose miteinander. Die Transparenz der gewählten Doppelprojektion verweist in markanter Weise auf ihr Fehlen in der digitalen Öffentlichkeit.
Die oftmals geringe Einflussnahme von UserInnen in einer von Algorithmen organisierten Online-Welt thematisiert ein zweiter Screen mit Touchfunktion. Zu sehen ist ein roter Drehknopf, unter dem „reset“ zu lesen ist, sowie die Anweisung, den Knopf zu betätigen. „Mit dem Finger über das Display zu streichen, bedeutet aber nicht unbedingt, am Geschehen teilzunehmen“, wie Wanner treffend formuliert.6 Die Betätigung löst nur den Wechsel des Worts ins Russische aus. Wichtig für das Verständnis ist zusätzlich, dass der Reset-Button im Sinne eines guten Neustarts der diplomatischen Beziehungen 2009 von der US-Außenministerin ihrem russischen Kollegen als Objekt überreicht wurde, allerdings mit ungenauer Übersetzung. Das für „reset“ gewählte russische Wort „peregruzka“ bedeutet Überlastung.
Hito Steyerls Filminstallation The City of Broken Windows (2018) bezieht sich auf die fragwürdige Ausweitung der Kompetenzen und Tätigkeitsfelder von KI. Konkret geht es um den Einsatz als private Sicherheitstechnologie im urbanen Raum. Kontrastiert wird diese Entwicklung mit der Möglichkeit, als menschliche AkteurInnen in Erscheinung zu treten. Während in dem einen Video eine Sicherheitsfirma KI trainiert, das Geräusch zerbrechender Scheiben zu erkennen – Ingenieure zerschlagen dafür unzählige Glasscheiben –, sorgt in dem anderen eine Community in nordamerikanischen Großstädten dafür, dass zerbrochene Fenster durch aufgemalte simuliert werden. Diese Trompe-l’oeils sollen im Sinne der Broken-Windows-Theorie wirken: Die Ursachen für die Kriminalität können so zwar nicht behoben werden, aber der realen Verwahrlosung wird Einhalt geboten. Während die einen Vertrauen in den technologischen Fortschritt setzen, der durchaus dazu beiträgt, dass Städte nicht nur smarter, sondern auch „gentrifizierter“ werden, kämpfen die anderen mit Grassroots-Methoden gegen den urbanen Verfall in armen Gegenden an. Den Raum zwischen den beiden Videos durchzieht ein läutender Sound, der fehlerhafte Versuch einer KI, das Geräusch zerbrechender Fensterscheiben herzustellen.
Wie vielschichtig und problematisch die Prozesse hinter der glatten Oberfläche eines Amazon Echo sind, dem sprachgesteuerten digitalen Assistenten für zu Hause, zeigen Kate Crawford und Vladan Joler in ihrer künstlerischen Forschungsarbeit Anatomy of an AI System (2018)7. Im Untertitel (an anatomical map of human labor, data and planetary resources) wird die Intention der detaillierten Karte deutlich: Es geht um den Raubbau an menschlicher Arbeitskraft, Daten und Ressourcen am Beispiel von Amazon Echo. Ein Diagrammsystem, gegliedert in Geburt, Leben und Tod des Geräts, und ein Essay erhellen die ökologischen und ökonomischen Zusammenhänge von planetarischem Ausmaß, die mit der bequemen Technologie einhergehen. Dabei geht es unter anderem um die weltweit größten Lithiumreserven in Bolivien und deren Abbau im Salzsee von Uyuni; die freiwillige Datenarbeit der NutzerInnen, die dazu beiträgt, die neuronalen Netze des Geräts zu trainieren und die allumfassende Quantifizierung voranzutreiben; die Ausbeutung outgesourcter geistiger Arbeit in Entwicklungsländer, bei der Daten für das maschinelle Lernen kategorisiert werden; bis hin zu den informellen beschäftigten ArbeiterInnen, die die giftigen Abfälle beseitigen. „Die wahren Kosten dieser Systeme – soziale, ökologische, wirtschaftliche und politische – werden noch eine Weile im Verborgenen bleiben. […] Und doch nimmt man das System jedes Mal in Anspruch, wenn man einen simplen Sprachbefehl an einen kleinen Zylinder in seinem Wohnzimmer richtet: ‚Alexa, wie spät ist es?‘“8 Ähnlich denkend plädierte Hito Steyerl jüngst dafür, KI vielleicht nur für Kunst in Museen und Galerien zu verwenden und sie von der Welt zu isolieren, bis wir alle ihre Konsequenzen kennen.9

 

 

[1| Is artificial intelligence set to become art’s next medium?, 12.12.2018; www.christies.com/features/A-collaboration-between-two-artists-one-human-one-a-machine-9332-1.aspx.
[2] Unter http://dulldream.xyz können NutzerInnen Bilder von sich hochladen und erhalten sie ohne individuelle Merkmale zurück.
[3] James Bridle, Se ti sabir (2019).
[4] Luc Steels, Will Artificial Intelligence Rule the World?, ECLT Christmas Lecture, European Centre for Living Technology, Ca’ Foscari University of Venice, 22. Dezember 2016; https://www.youtube.com/watch?v=MXr5XHpGuCs.
[5] www.odycceus.eu
[6] Franz Wanner, PUBLIC VOID, Museum of Moscow, Kulturreferat der Landeshauptstadt München, 2019.
[7] https://anatomyof.ai
[8] Kate Crawford und Vladan Joler, Anatomie eines KI-Systems: Der Raubbau an menschlicher Arbeitskraft, Daten und Ressourcen am Beispiel des Amazon Echo, in: Arch+, Heft 3, Nr. 234 (Dezember 2018), S. 119.
[9] Vgl. Hito Steyerl, Conclusion, AI Symposium, Castello di Rivoli, 12. Dezember 2018; https://www.youtube.com/watch?v=ARL9EYE-JwM.