Heft 4/2018 - Netzteil
Künstliche Intelligenz (KI) gehörte von Anfang an zur Entwicklung der Computertechnologie dazu. In der Praxis war die Technik aber nicht leistungsfähig, und in den 1990er-Jahren wurde es stiller um die KI-Forschung. Heute hingegen ist KI Teil des Alltags. Um mit Komplexität umzugehen und sie auf Schemata reduzieren zu können, haben die Algorithmen sehen gelernt. Der Einsatz von Computersehsystemen reicht über selbstfahrende Autos, Drohnen, Gesichtserkennungssoftware bis hin zu KI-Netzwerken, die von Facebook, Google und anderen Firmen zur Interpretation von Bildern benutzt werden, um hier nur einige Bereiche zu nennen. Inzwischen gibt es aber auch zahlreiche Kunstprojekte, die sich mit der neuen Form des Sehens durch selbstlernende Algorithmen beschäftigen.
Für die Performance Deep Blue Dream (2016–17) wurde der pensionierte Schachcomputer Deep Blue von Lauren Huret und Hunter Longe zu neuem Leben erweckt. Das von IBM entwickelte Computerprogramm erlangte 1997 Berühmtheit, als es den damaligen Schachweltmeister Garri Kasparow besiegte. Die Spielstärke von Deep Blue basierte auf seiner enormen Rechenleistung. Nach dem verlorenen Match hatte Kasparow kritisch angemerkt, dass ihm einige Züge des Computers menschlich vorgekommen seien. So wie damals IBM streitet Deep Blue in der Performance ab, dass ein Mensch beim Sieg geholfen hätte. Das Ziel wäre die Kalkulation von Schachzügen gewesen, er hätte Kasparow weder erkennen, noch auf seine Emotionen reagieren können.
Heute scheint sich Deep Blue von brute force als Lösungsmethode weitestgehend verabschiedet zu haben, vielmehr hebt er sein komplexes Eigenleben hervor: „But with Internet access and the advent of recent developments in artificial intelligence, neural networks, and so many experiments in neural morphic computing, I can find patterns in larger data sets and make predictions based on those patterns.“ Deep Blue meint, im Bereich des „Machine Learning“ bzw. „Deep Learning“ angekommen zu sein. Demnach würde das System jetzt mit künstlichen neuronalen Netzwerken operieren und die Welt per Mustererkennung erfassen.
Huret und Longe spielen auf diese Entwicklung an, wenn Deep Blue plötzlich das Publikum scannt und wie ein Hellseher in das Leben der Menschen vor der Kamera zu schauen scheint. Einige Anwesende werden direkt mit ihren Internetidentitäten konfrontiert, das System entschlüsselt online auffindbare persönliche Daten und liest sie aus. Die Situation beunruhigt, zumindest jene, die ihre Datenspuren nicht vorgeführt bekommen möchten. Mit dieser Umkehrung der Machtverhältnisse hält die Performance dem Publikum einen Spiegel vor, zeigt, wie alltäglich KI geworden ist, fragt danach, wo die Privatsphäre anfängt und wo sie aufhört. Dabei geht es auch um die Frage, wer in Zukunft die Datenbanken kontrolliert, die private Fotos archivieren, um Algorithmen zu trainieren.
Trevor Paglens konzeptueller Film Behold These Glorious Times! (2017) zeigt, wie maschinelles Sehen in künstlichen neuronalen Netzwerken ausgebildet wird. Unzählige Trainingsbilder von ImageNet, die zur Entwicklung von selbstlernenden Computersehsystemen verwendet werden, erzeugen eine Bilderflut, die als animiertes Raster den Bildschirm überzieht, bevor sie in Klassifizierungen übergeht. Objekte, Gesichter, Handlungen und Emotionen werden mit automatisierten Verfahren der Mustererkennung erfasst: Zur Identifizierung zerlegen die Algorithmen die Bildinhalte in Einzelteile und extrahieren verschiedene Merkmale.
Was passiert, wenn die Welt ausschließlich in Kategorien und Mustern wahrgenommen wird, wenn Mehrdeutiges zu Eindeutigem gemacht wird, damit die Maschine es lesen kann? Algorithmen sehen nicht nur Bilder, sie interpretieren sie auch. Eine Geste wird als Handlungsanweisung erkannt, und ein Gerät führt die entsprechende Funktion aus. Gesten besitzen zudem eine erkennungsdienstliche Dimension, die auf „suspektes“ Verhalten aufmerksam machen soll. Der Film zeigt Auszüge aus dem Extended Cohn-Kanade Dataset, einer Datenbank, die hauptsächlich auf gestellten prototypischen Gesichtszügen beruht und zum Training für algorithmische Analysen von Gefühlsausdrücken verwendet wird. Das System klassifiziert anhand von Basisemotionen, die an den Gesichtsmuskeln abgelesen werden. Wozu aber führen derartige Standardisierungen, die individuelle Abweichungen mit der statistischen Herstellung von Typischem überblenden?
Für Machine-Readable Hito (2017) fertigte Paglen über 100 Porträtfotos von Hito Steyerl an, die dabei ihr Mienenspiel bewusst variierte, und wandte anschließend Gesichtserkennungsalgorithmen darauf an. Jedes Foto wird so mit Metadaten versehen, die Auskunft über das Alter, das Geschlecht und den Gefühlszustand geben. Wenn das System Steyerl als 57 Prozent weiblich und 43 Prozent männlich beschreibt, wer wäre dann 100 Prozent weiblich? Wer legt die weltanschaulichen Feinheiten des maschinellen Sehsystems fest? Der Blick des Algorithmus transportiert kulturelle Beurteilungen und Werte, der KI fehlt jedoch jede umfassendere Reflexionsfähigkeit, wodurch Fragen der Ethik ungelöst im Raum stehen bleiben.
Paglens Fotoserie Adversarially Evolved Hallucinations (2017) verdeutlicht, dass selbstlernende Algorithmen nicht objektiv sind. Als Metakommentar auf die eingesetzte Technologie entwickelte Paglen mithilfe von ProgrammiererInnen explizit subjektive Trainingssets, die auf irrationalen Konzepten beruhen, etwa „Monster“ und „Träume“. Die Bilder der Serie entstanden aus der Interaktion zweier KI-Systeme: einem bilderkennenden und einem bildgenerierenden. Der Austausch erfolgte so lange, bis das eine System eine Visualisierung erzeugt hatte, die das andere erkannte. Nach diesem Verfahren entstand etwa ein abstraktes Vampirbild, basierend auf dem Trainingsset „Monsters of Capitalism“, das Monster benutzte, die als Kreaturen des Kapitalismus gelten.
Das Phänomen der „Pareidolie“, bei dem Gesichter in Muster hineininterpretiert werden, greift auch Lauren Hurets Video Les âmes suspendues (2017) auf. Gänzlich mit dem Smartphone und einer Gesichtserkennungssoftware gefilmt, führt das Werk die halluzinatorischen Fähigkeiten der Technologie vor. Eine App schaut sich im Atelier der Künstlerin um und erzeugt unerwartete Überblendungen von Gegenständen mit seelenlosen Gesichtsmasken. Das Programm kann nur Gesichter erkennen und offenbart damit seine eingeschränkte Perspektive. Im übertragenen Sinne künden die Halluzinationen auch davon, dass KI-Systeme wie künstliche Normierungsapparate funktionieren, die sich zunehmend über die Welt legen.
Die Problematik selbstlernender Algorithmen besteht aber nicht nur in ihrer reduktionistischen Weltsicht, sondern auch in ihrer abstrakten, unsichtbaren Handlungsautonomie. KIs lernen zunehmend, komplexe Daten zu deuten, wodurch ihre Entscheidungen immer weniger durchschaubar werden. Mit Sight Machine (2017) öffnet Trevor Paglen die Blackbox ein Stück weit: Während eines Auftritts des Kronos Quartets wird das Konzert auf einem Bildschirm hinter den MusikerInnen aus der Sicht von selbstlernenden Algorithmen übertragen. Paglen macht so das breite Spektrum heutiger Computersehsysteme sichtbar. Wie sinnvoll ist es aber, ein Streichquartett durch die Augen eines selbstfahrenden Autos zu sehen oder mit dem Blick einer ferngesteuerten Rakete? Deutlich wird jedenfalls, dass Algorithmen die Welt ganz anders wahrnehmen und interpretieren als Menschen. Die zunehmende Automatisierung des Sehens sollte genau deswegen im Blick behalten werden, auch um die sozialen, wirtschaftlichen und politischen Implikationen nicht undurchschaubaren Blackbox-Verfahren zu überlassen.