Heft 4/2023 - Netzteil


Don’t believe the Criti-Hype

Zu den vermeintlichen und den tatsächlichen Gefahren von KI

Ariana Dongus


Es ist wieder einmal so weit: Der nächste Angriff, die nächste Übernahme der Welt durch KI steht offenbar bevor. Als gäbe es in diesen Zeiten nicht andere Krisen von planetarem Ausmaß, um die man sich kümmern müsste, verbreitet der Ruf nach einem Moratorium für KI-Labore eine drastische Weltuntergangsstimmung. Das Future of Life Institute, die Organisation, die im März 2023 einen offenen Brief initiiert hat, behauptet mit Nachdruck, dass KI-Systeme bei allgemeinen Aufgaben inzwischen mit Menschen konkurrenzfähig wären und wir uns fragen müssten, ob diese uns nicht irgendwann überlisten und ersetzen könnten: „Sollen wir den Kontrollverlust über unsere Zivilisation riskieren?“1
Der dystopische Ton, der diese angebliche KI-Apokalypse umgibt, ist nicht nur alarmistisch, sondern auf den ersten Blick auch ziemlich irritierend. Schon wieder ein Hype, mag man denken und seufzend aufhören zu lesen. Es gibt aber noch ein ganzes Bündel anderer Probleme, die mit diesem Brief verbunden sind und die ich im Folgenden aufzeigen möchte.
Der Brief hat eine ganz bestimmte Dynamik entfacht. Er war nicht die Idee einiger weniger, sondern wurde von vielen einflussreichen Forschenden unterzeichnet, nicht nur aus der Industrie, sondern auch von Eliteuniversitäten wie Cambridge und Harvard. Während die zentrale Behauptung des Schreibens bei näherer Betrachtung nicht haltbar ist, versuchen Organisationen wie das Future of Human Life Institute die Menschen davon zu überzeugen, dass Software wie ChatGPT ein Schritt auf dem Weg zur Superintelligenz sei, während es sich in Wirklichkeit um einen Textgenerator handelt, der selbst kein Bewusstsein hat und somit auch keine Ahnung, was er eigentlich tut. Ja, KI ist gefährlich, aber aus ganz anderen Gründen, als der Brief suggeriert – Gründe, die eher im Kontext von Überwachung, Datendiebstahl und Regimen des Extraktivismus anzusiedeln sind.
Der Brief ist insofern symptomatisch für unsere Zeit, als er ein Beispiel für die Kämpfe um Agenda-Setting und Diskurs-Framing darstellt, die sich aktuell mit hoher Geschwindigkeit vollziehen. Der Brief hat sich in Medien verbreitet, die seine dramatischen Behauptungen oft eins zu eins wiedergeben. Lee Vinsel hat für diesen Prozess in einem Beitrag auf medium.com den Begriff „Criti-Hype“2 geprägt: kritisches Schreiben, das einen Hype nicht nur aufgreift, sondern weiter aufbläht. Ist die bevorstehende Übernahme durch eine von Menschen geschaffene Intelligenz nicht viel spannender als mühsame soziale Kämpfe um reproduktive Rechte, Wohnraum oder einen existenzsichernden Lohn?

Unsichtbare Arbeit, unsichtbare Kritik
Hier soll die Aufmerksamkeit auf ein anderes Problem gelenkt werden, schließlich ignoriert die Haltung der Unterzeichner*innen die lange Tradition der Technikkritik sowohl aus der Tech-Industrie als auch aus der Forschung. Mit heroischer Geste setzen sich die Verfasser*innen in eine Position der Autorität – sie wüssten ja, wovon sie reden – und der Originalität – sie seien die Ersten, die das Ausmaß der Bedrohung vorhersehen. Wäre es nicht so bezeichnend für die Macht weißer männlicher Privilegierter, wäre es amüsant zu zeigen, dass die Verfassenden, wenn sie eine Ahnung von dieser kritischen Tradition hätten, konsequenterweise ihre eigenen diskriminierenden Geschäftsmodelle abschaffen müssten.
Zwar verweist der Brief in einer Fußnote auf das einflussreiche Paper „Stochastic Parrots“ aus dem Jahr 2021, in dem unter anderem die Wissenschaftlerin Emily Bender und die Tech-Whistleblowerin Timnit Gebru vor den potenziellen Gefahren synthetisch erzeugter Inhalte warnen.3 Doch der Brief unterschlägt die Gründe und Kontexte dieser Warnung, um die beschworenen apokalyptischen KI-Szenarien glaubwürdiger zu machen. Folglich haben sich Bender und Gebru zusammen mit anderen gegen den Brief ausgesprochen und erklärt, dass das Problem nicht darin bestünde, dass KI in Zukunft die Kontrolle über die menschliche Zivilisation übernehme. Stattdessen rufen sie Probleme in Erinnerung, auf die sie seit mehreren Jahren hinweisen, nämlich die „Machtkonzentration in den Händen weniger Menschen, die Reproduktion von Unterdrückungssystemen und die Schädigung natürlicher Ökosysteme durch den verschwenderischen Umgang mit Energieressourcen“4.
Der Mut, Praktiken der Diskriminierung und Überwachung in der Bereitstellung von Google-Produkten anzusprechen, wurde jedoch kaum zur Kenntnis genommen, vielmehr wurde Gebru von Google gefeuert – ein klarer Versuch, die Arbeit, den Intellekt und den Mut von Frauen, insbesondere von Women of Color, unsichtbar zu machen.
Ein weiteres symptomatisches Ereignis war in diesem Zusammenhang, als US-Präsident Biden kürzlich bei einem Treffen mit CEOs industrieller KI-Unternehmen erklärte, dass KI „extrem mächtig und extrem gefährlich“ sei und er hoffe, dass die CEOs „uns aufklären können, was zum Schutz der Gesellschaft am nötigsten sei“5. Von den Entwickler*innen problematischer Technologien die Lösung eines Problems zu verlangen, zu dem sie selbst entscheidend beigetragen haben, mutet auf den ersten Blick absurd an. Wichtiger erscheint hier aber, dass Bidens Aufruf auf eine Dynamik hinweist, auf welche die Wissenschafts- und Technikforschung vielfach hingewiesen hat: dass KI nämlich zu einer infrastrukturellen Kraft geworden ist, deren Rückgrat weitgehend unsichtbar ist. Darin klingt die politische Vorstellung von KI als einer Sklavin der Menschheit an, die eines Tages gegen ihren Schöpfer revoltieren könnte – eine Vorstellung, die zutiefst kolonial und patriarchalisch ist.
Letztlich verdeckt die Debatte über eine künftige Superintelligenz jedoch auch die ganz alltägliche Realität, wie un- oder unterbezahlte Arbeit im Rahmen der KI-Produktion genutzt wird: Viele Algorithmen für maschinelles Lernen werden mittels Inhalten trainiert, die aus dem Internet ausgelesen wurden. Diese unentgeltliche Abschöpfung hat sich für industrielle KI als attraktives Geschäftsmodell erwiesen. Aber auch andere Arbeit wie die von Gig-Worker*innen in Kenia bleibt unterbezahlt. Erst deren Arbeit ermöglicht es, dass Chatbots „intelligent“ erscheinen – so wie dies viele andere unsichtbare Gig-Worker*innen für viele andere, angeblich intelligente Maschinen taten. Vielfach wird hier für Centbeträge mit verstörendem Material gearbeitet, was bisweilen auch traumatisierende Wirkung hat.6 Diesbezüglich ist es unerlässlich, derlei Formen unsichtbarer (Sorge-)Arbeit auch offiziell anzuerkennen, da dies entscheidend zur Aufrechterhaltung der betreffenden Systeme beiträgt.

Hacker-Philanthropie für eine bessere Welt
Um auf Joe Bidens Aufruf bzw. die Frage zurückzukommen, ob Tech-Unternehmen in der Vergangenheit gute Arbeit zum Schutz der Gesellschaft geleistet haben, sollen hier miteinander verknüpfte Arten von Tech-Interventionen beleuchtet werden: der sogenannte „Solutionism“ und die „Tech-Philantropie“. Der Aufstieg der Tech-Unternehmen hat der Idee des „Solutionism“ – dem Gedanken, dass Technologie alle möglichen Probleme lösen kann – enormen Auftrieb gegeben. Gleichzeitig begannen die Tech-Konglomerate, die inzwischen selbst zu extrem mächtigen Institutionen geworden sind, sich in Sachen Philanthropie zu engagieren, wobei jedoch die traditionelle Vorstellung von Geldspenden aufgegeben wird.
Bei dieser neuen Form des Philanthro-Kapitalismus oder von „Venture-Hacker-Philanthropie“, wie sie von einigen genannt wird, geht es nicht um reale Investitionen oder die „gute alte“ Benennung von Bibliotheken, Schulen oder Krankenhäusern nach großzügigen Spender*innen,7 sondern um den Kampf gegen Kindersterblichkeit, Armut und Hunger, das Eintreten für Klimaschutz, Bildung und digitale Inklusion. In dieser Weltanschauung wird Technologie als universelles Werkzeug zur Rettung der Welt gepriesen, doch sie hat selbst kein Gesicht, sie wird nicht auf die gleiche Weise vermenschlicht wie diejenigen Maschinen, die laut dem offenen Brief bald die Weltherrschaft übernehmen werden. Vielmehr bleibt sie anonym und agiert im Hintergrund – ein Widerspruch, der im Silicon Valley keine*n zu stören scheint.
Diese Tech-Philanthropie ist eine Form des Kapitalismus, die darauf abzielt, durch den Einsatz von Technologie eine bessere Welt zu schaffen. So haben Großkonzerne wie Google, Meta (vormals Facebook) und Microsoft in zunehmendem Maße philanthropische Initiativen im globalen Süden gestartet, die oft als technologische Lösungen für soziale und ökologische Probleme dargestellt werden. Während sich die Unternehmen als aktiv gerieren, um Probleme zu lösen, Innovationen einzuführen usw., sind die Regionen und Menschen im globalen Süden zumeist bloß die passiven Adressat*innen dieser Vorhaben. Diese Asymmetrie wird selten problematisiert und erinnert an koloniale Machtlogiken. Initiativen wie das Free Basics-Programm von Meta sowie Googles Project Loon (inzwischen eingestellt), die Internetzugang im globalen Süden ermöglichen sollten, stehen in der Kritik, bestehende Machtverhältnisse zu verstärken, indem einigen wenigen mächtigen Unternehmen die Kontrolle über den Zugang zu Informationen eingeräumt wird. Meine eigene Forschung über Coding-Bootcamps in Geflüchtetenlagern im Nahen Osten hat gezeigt, dass sich viele Hoffnungen der Arbeiter*innen, etwa in die USA oder nach Kanada zu ziehen, um in Tech-Hauptquartieren zu arbeiten, nicht erfüllten.8 Stattdessen mussten sie bleiben, wo sie waren, und Remote-Online-Arbeit verrichten, die projekt-, stück- oder stundenweise bezahlt wurde und keinerlei Arbeitnehmerrechte garantierte. Dies wirft die Frage auf, inwiefern die Autonomie und Handlungsfähigkeit derjenigen, die zu den Empfänger*innen der vermeintlichen Philantropiemaßnahmen zählen, geachtet oder aber – wie im genannten Fall – stark beeinträchtigt wird. Bestehende Machtungleichgewichte dürften auf diese Weise vielfach noch verstärkt werden, was sich generell auf die Dynamik zwischen globalem Norden und Süden umlegen lässt.

Behauptungen in Präsens und Futur
Die hier beschriebenen Formen des lösungsorientierten Tech-Utopismus, die darauf abzielen, die „Welt durch ihr Eingreifen zu verbessern“, sind auf die Gegenwart gerichtet.9 Dieser „Präsentismus“ steht im Kontrast zu den in Technologiezusammenhängen häufig propagierten Visionen von der Zukunft der Menschheit. Das Future of Life Institute, das für die Verbreitung des offenen Briefes verantwortlich ist, ist eine transhumanistische und auf den sogenannten „Longtermism“ orientierte Organisation. Sie vertritt die Idee, dass die langfristigen Auswirkungen neuer Technologien, insbesondere von KI, berücksichtigt werden müssen, da sie katastrophale Folgen für die Zukunft der Menschheit haben könnten. Das klingt auf den ersten Blick nicht unvernünftig, problematisch ist jedoch, dass sich die Proponent*innen mehr Sorgen um die ferne Zukunft zu machen scheinen als um die realen Schäden und Formen von Gewalt, die Hightech hier und heute verursacht. Der „Longtermism“ ist eine mächtige Ideologie und eng mit dem Transhumanismus verwandt, der Idee der Verbesserung der menschlichen Langlebigkeit und Kognition, welche stark diskriminierende Züge trägt, da sie große Ähnlichkeiten zur historischen Eugenik der ersten Welle aufweist.10
Milliardäre mit Venture-ähnlicher Philanthropiementalität gelten in zunehmendem Maße als diejenigen, die bereit sind, Verantwortung für die Rettung des Planeten und der ganzen Menschheit tragen. Gleichzeitig lässt sich beobachten, wie nach und nach politische Macht, Infrastruktur, wissenschaftliche Forschung und diskursive Autorität auf diese Tech-Kapitalisten übertragen werden. Die Frage stellt sich, ob es ausschließlich in der Hand dieser Menschen liegen sollte, sich vorzustellen, wie man in der Gegenwart und in der Zukunft leben soll.