Heft 1/2024 - ArtGPT


Intelligenz als Machtkonzentration

Interview mit Meredith Whittaker, der Präsidentin von Signal, über KI und die Big-Tech-Konzerne

Yannick Fritz


Meredith Whittaker ist Präsidentin der gemeinnützigen Signal-Stiftung, welche die gleichnamige Messaging-App verwaltet. Bevor sie diese Position 2022 übernahm, beriet sie 2021 die Vorsitzende der US Federal Trade Commission Lina Kahn zu den Themen Machtkonzentration von Unternehmen und Gefahren von KI. Mit ihrer Einschätzung gegenwärtiger Probleme von KI und ihrer Arbeit bei Signal nimmt sie eine Gegenposition zu vielen populären Tech-Vertreter*innen ein, die zuweilen mit Weltuntergangsszenarien vor den zukünftigen Gefahren von KI warnen. Whittaker war außerdem Professorin an der NYU sowie Mitbegründerin und Fakultätsleiterin des AI Now Institute. Im Jahr 2019 verließ sie Google nach 13 Jahren als eine der Co-Organisator*innen des „Google Walkout“.

Yannick Fritz: Bevor Sie bei Google arbeiteten, haben Sie in Berkeley Rhetorik und Literatur studiert. In Anlehnung daran habe ich ein Zitat des Science-Fiction-Autors Ted Chiang mitgebracht, der sich zur Technologie und den sich ausbreitenden Ängsten vor „superintelligenten, selbstreplizierenden KIs“ äußert: „Ich neige zu der Ansicht, dass die meisten Ängste vor Künstlicher Intelligenz am besten als Ängste vor dem Kapitalismus zu verstehen sind [...], als Befürchtungen, wie der Kapitalismus Technologie gegen uns einsetzen wird. Technologie und Kapitalismus sind so eng miteinander verwoben, dass es schwer ist, die beiden auseinanderzuhalten.“1 Was halten Sie von dieser Aussage und von den Ängsten und Risiken, die heute mit KI einhergehen?

Meredith Whittaker: Ich kann Chiangs Kommentar sehr viel abgewinnen. Ich denke, es geht tatsächlich um eine Angst davor, wie Technologien eingesetzt werden, um uns zu kontrollieren. Diesbezüglich interessiert mich, wessen Probleme üblicherweise durch Technologie gelöst und welche Fragen mit ihr beantwortet werden. Und letztlich geht es auch darum, wer die Entscheidungen darüber trifft, welche technologischen Ansätze für diese Probleme entwickelt, entworfen, gebaut, gewartet und verwendet werden. Am Ende geht es um Machtverhältnisse.

Fritz: Der CEO von OpenAI, Sam Altman, ist einer von vielen Tech-Führungskräften, die sich besorgt gegenüber den Fähigkeiten von KI zeigen. Gleichzeitig wurde öffentlich, dass OpenAI Lobbyarbeit für bestimmte Formulierungen in der derzeit diskutierten EU-KI-Verordnung geleistet hat, wodurch mögliche Regulierungen verwässert wurden. ChatGPT zum Beispiel wird nun nicht mehr als „hochriskant“ eingestuft.2 Die mildere Einstufung würde unter anderem bedeuten, dass die Generierung illegaler Inhalte beschränkt werden muss – etwas, dass OpenAI bereits durch Outsourcing zu realisieren versucht. Wie kollidieren solche Praktiken mit Vorstellungen von „riskanter, autonomer KI“, und mit welchen Arbeitsdynamiken haben wir es hier zu tun?

Whittacker: Ob Sam oder irgendein KI-Wissenschaftler wirklich Angst vor diesen zukünftigen superintelligenten Maschinen und dem damit verbundenen existenziellen Risiko hat, kann ich nicht beurteilen. Ich glaube, dass Religion im Leben der Menschen sehr machtvoll sein kann. Davon abgesehen instrumentalisieren Unternehmen diese Ängste sehr geschickt. Solche Horrorgeschichten sind praktisch Werbung für eine Technologie, über die nur eine Handvoll Unternehmen verfügt. Ich glaube nicht, dass es auf der Welt auch nur ein Militär gibt, das keinen Zugang zu einem hyperdestruktiven superintelligenten System haben möchte. Wenn diese Unternehmen jedoch mit Regulierungsbehörden sprechen, werden die bestehenden Systeme unabhängig von solch spekulativen Zukünften betrachtet. Gleichzeitig wird die existierende Technologie als Teil einer ohnehin unabwendbaren Fortschrittsbewegung dargestellt – passend zu einem Spruch, den wir seit Jahren aus dem Silicon Valley kennen: „Regulierung erstickt Innovation.“ So können die Unternehmen das Beste aus beiden Welten haben.
Aber über OpenAI können wir nicht diskutieren, ohne über den Mutterkonzern Microsoft zu sprechen. In der KI gibt es das Paradigma „bigger is better“. KI-Technologien konkurrieren um Größe und Skalierbarkeit. Je größer die Rechenleistung, die Datenmengen, das Modell, als desto leistungsfähiger sehen wir es an. Das bedeutet, dass Organisationen wie OpenAI oder andere Start-ups nur überleben können, wenn sie an die infrastrukturellen Ressourcen von Microsoft, Google, Amazon, Nvidia usw. angebunden sind. Wir sprechen hier von Hunderten Millionen Dollar für einen Trainingslauf bzw. von Millionen und Abermillionen Dollar für die Bezahlung der Arbeit, die erforderlich ist, um generative KI-Modelle so zu justieren, dass sie für seriöse Geschäfte und eine liberale Gesellschaft akzeptabel sind. Der Druck, eine Rendite zu erzielen, ist also extrem hoch. Daher müssen wir auch darauf achten, worüber wir uns tatsächlich Sorgen machen sollten. Microsoft lizenziert diese Systeme über uneinsehbare Business-to-Business-Azure-Cloud-Verträge, sei es an Start-ups oder an Regierungsorganisationen. Wir haben nur sehr wenig Einblick, wo diese Systeme eingesetzt werden oder wie sie sich wirklich auf uns auswirken. Wobei die Art und Weise, wie Menschen in Machtpositionen diese Systeme auf die betroffene Bevölkerung anwenden, eine Reihe von Nachteilen mit sich bringen kann, egal, ob es sich dabei um Arbeiter*innen, Studierende oder Bürger*innen handelt.

Fritz: Wenn wir über die Auswirkungen von KI auf Arbeiter*innen nachdenken, dann geht es nicht nur um diejenigen, die algorithmisch gesteuerten Arbeitsroutinen unterworfen sind, sondern auch um die Clickworker*innen, die diese Modelle überhaupt erst trainieren und oft mit traumatisierenden Daten arbeiten müssen. In diesem Sinne ist der Begriff des Risikos mehrdeutiger, als er oft dargestellt wird.

Whittacker: Jüngsten Schätzungen zufolge sind oder waren 100 Millionen Menschen in irgendeiner Weise damit beschäftigt, diese Systeme zu kalibrieren, zum Beispiel Daten zu labeln, was eine unglaublich traumatisierende Arbeit ist. Sie sind im Grunde eine menschliche Pufferzone, welche die rassistische, misogyne, hässliche und gewalttätige Sprache auffängt, die diese Systeme nicht reproduzieren sollen. In diesem Sinne ist die Geschichte der Automatisierung eine klassische Geschichte der Arbeitsarbitrage: Es werden Menschen eingestellt, um diese sogenannten automatisierten Systeme an Orten zu pflegen oder zu überwachen, wo ihnen nicht viel bezahlt werden muss. Währenddessen bedient vorrangig der Globale Norden das Narrativ der Automatisierung, um Risikokapitalinvestitionen zu erhalten. Die sehr ablenkenden Erzählungen rund um KI blenden die Arbeit aus, die auf jeder Ebene dieser Systeme, auf jeder Stufe der Lieferkette stattfindet. Hier sollten wir auf die Writers Guild of America und andere Arbeitskämpfe verweisen. Diese drehen sich um die Machtasymmetrie zwischen denjenigen, die diese Systeme als Mechanismen zur Arbeitskontrolle und -degradierung einsetzen, und denjenigen, die ein Mitspracherecht bei der Nutzung dieser Systeme fordern.
Abgesehen davon ist die Auffassung, dass Menschen austauschbare, numerische Einheiten seien, die aus der Ferne kontrolliert werden können, grundlegend in der Konzeption von Computern und Komputation verankert. Ursprünglich wurden diese Arbeitskontrollmechanismen während der Sklaverei auf den Plantagen entwickelt, und ich denke, wir haben dieses Modell extrapoliert. Letztendlich haben wir es mit Systemen zu tun, die unglaublich – ich möchte kein Adjektiv verwenden, das den Anschein erweckt, als würde ich sie loben –, aber die unglaublich gut in der Kontrolle von Arbeit und von sozialen Verhältnissen sind.

Fritz: Sie haben den Kampf der Writers Guild of America, die für eine strengere Regulierung des Einsatzes von KI in ihrem Bereich eintritt, als eine „Frontlinie“ im Kampf für eine sinnvolle KI-Regulierung beschrieben.3 Wie hängen solche Kämpfe mit der Geschichte der Komputation zusammen, die Sie gerade skizziert haben?

Whittacker: Ich behaupte, dass Komputation historisch betrachtet ein Import von Technologie zur Disziplinierung und Verwaltung von Arbeiter*innen war – Technologien, die auf den Plantagen entwickelt und verfeinert wurden. Heute nutzen wir daraus erwachsene Technologie als Vorlage für die mechanische Organisation von Arbeit und die Entmachtung von Arbeiter*innen.4 Die Vorläufer des klassischen Computing waren die Analytical Engine von Charles Babbage und ihr Vorgänger, die Difference Engine. Babbage ist weithin für seine Theorien zum Computing bekannt, die selbst eng mit seinen Schriften zur Ökonomie verwoben sind. Diese „Engines“ wurden ursprünglich während des Niedergangs des Britischen Empire entwickelt, als die Notwendigkeit bestand, logarithmische Tabellen zur Kalkulierung der Verluste der britischen Flotte zu erstellen. In diesem Kontext des Empire argumentierte Babbage selbst aus einer kapitalistischen Perspektive: Je weniger Fähigkeiten man einzelnen Arbeiter*innen zubilligt, desto weniger muss man ihnen bezahlen, und desto leichter sind sie kontrollierbar und – letztendlich – automatisierbar. Aus Sicht des Kapitals braucht es diese epistemische Autorität im Hinblick auf die Definition bestimmter Fähigkeiten, etwa um die Arbeit der Arbeiter*innen als „gering qualifiziert“ [low skilled] zu bezeichnen und dann die Maschine mit Fähigkeiten oder zumindest einem Programm auszustatten, das eine bestimmte Aufgabe erledigt. Die objektive Funktion von Babbages Arbeit bestand darin, einen Weg zu finden, die „Arbeitsfrage“ [labour question] zu lösen, sprich die Problematik, wie die Arbeit und die Arbeiter*innen im Dienst des Britischen Empire nach der Abschaffung der Sklaverei mechanisiert und kontrolliert werden konnten. Sklaverei muss hier als eine Praxis der Behandlung von Arbeiter*innen als Objekte und der Rechtfertigung dieser Behandlung durch Narrative der „Rassifizierung“ verstanden werden. Wir können nicht über Arbeit sprechen, ohne die Sklaverei dabei als einen Kernpunkt in Betracht zu ziehen. Es gab damals einen regen Wissensaustausch, was die Leitfäden zu Plantagen und jene zur Industrie betraf, und das war das Umfeld, in dem Babbage arbeitete.

Fritz: Mit dieser Geschichte im Hinterkopf könnte man meinen, dass zumindest heute mehr Transparenz dazu beitragen würde, aktuelle ökonomische Dynamiken offenzulegen, die in die Produktion eines KI-Systems einfließen. Im Allgemeinen folgen solche Transparenzanliegen oft der Idee, dass Beobachtung die erforderlichen Erkenntnisse liefert, um Systeme steuern oder zur Verantwortung ziehen zu können.5 In Anbetracht der Tatsache, dass KI und maschinelles Lernen oft als „Black Box“ betrachtet werden, erscheint ein Blick in ihr Inneres als hinreichend intuitiv, um ihre Funktionsweise zu verstehen. Zudem spielen Offenheit und Transparenz auch in der Rhetorik von OpenAI eine große Rolle. Wie verhält sich die KI-Industrie im Hinblick auf diese Begriffe?

Whittacker: Ohne die Möglichkeit, auf der Grundlage solcher Informationen zu handeln, ist Transparenz ein „Flex“. Sie ist ein Ausdruck von Macht, bietet aber nicht wirklich die Möglichkeit, um die Regulierbarkeit zu beeinflussen. Anstatt Macht oder Kontrolle abzugeben, erhalten wir heute einen kleinen Einblick in diese Systeme. Natürlich glaube ich nicht, dass KI-Systeme in diesem begrenzten Sinne „offengelegt“ werden können. Ich denke, dass Transparenz ein ziemlich fadenscheiniges Konzept ist, wenn wir über Systeme mit zentraler Kontrollmacht und Infrastrukturen in den Händen von Unternehmen sprechen.

Fritz: Wie sehen diese Infrastrukturen konkret aus?

Whittacker: Infrastrukturen bestehen nicht nur aus Chips. Infrastrukturen sind Dateninfrastrukturen, Arbeitsinfrastrukturen, die vielen Sedimentschichten aus Standards und Praktiken, die für all das erforderlich sind. Und derzeit sind es vor allem die großen Unternehmen, die hierfür das Tempo vorgeben. Die Arbeitshypothese meiner akademischen Forschung ist, dass der Impuls „bigger is better“ nicht neu ist, sondern dass er der KI vorausging und die Deep-Learning-Welle um 2012 darauf aufgebaut hat. Wenn man sich die Branche der überwachungsgetriebenen Werbung ansieht – die heutige Tech-Industrie –, dann gab es diesen Größenfetisch von Google, Microsoft oder Meta schon lange vorher. Als ich bei Google gearbeitet habe, sagten die Führungskräfte immer wieder: „Wir dienen Milliarden, nicht Millionen.“ Größe und Skalierbarkeit [scale] waren die Messlatte, an der man Fortschritt maß. Und das ermöglichte die Vision, alle Informationen der Welt zu organisieren, das heißt, die ganze Welt zu überwachen, alle Daten zu sammeln und in Besitz zu nehmen, um Google Search in großem Maßstab zu ermöglichen und die Reichweite von Google auf der ganzen Welt noch mehr zu vergrößern. „Bigger is better“ erfordert mehr und mehr Daten, es erfordert die Schaffung und Sammlung von Daten, selbst dort, wo keine Daten sind. Ich denke, dass die KI, mit der wir es jetzt zu tun haben, ein Produkt dieses Paradigmas ist, nicht umgekehrt. Die KI-Unternehmen konkurrieren jetzt unter dem Motto „bigger is better“. Es geht um große Computer, große Datenmengen, die Fähigkeit, Talente anzuziehen. Und es geht darum, dass sie die Arbeitsprozesse, die Normen, die Standards definieren, die Tatsache, dass Google das [Framework] TensorFlow besitzt, das auf seinen proprietären Chips arbeitet, und Meta effektiv PyTorch besitzt und leitet.6 All das ist das Wasser, in dem die KI-Forschung schwimmt.

Fritz: Um auf das eingangs erwähnte Zitat zurückzukommen: Viele dieser mit KI einhergehenden Probleme scheinen nicht unbedingt eine Frage der technologischen Innovation, sondern auch des politischen und sozialen Wandels zu sein. Wie sehen Sie die Auswirkungen und die mögliche Regulierung einer solchen Technologie?

Whittacker: Die Regulierungsdebatte ist sehr heikel. Zunächst werden 70 Prozent des Cloud-Markts von US-Unternehmen beherrscht. Zwischen den USA und China befindet sich Europa, dessen KI-Verordnung eine Menge Nervosität auslöst. Es geht um zweierlei: Raum in der KI-Industrie zu gewinnen, was insbesondere für Deutschland und Frankreich wichtig ist, und gleichzeitig zu verhindern, dass die USA bzw. US-amerikanische Unternehmen ihre hegemoniale Macht weiter ausbauen. Europa will kein Klient der USA sein, will aber auch keine Regulierung, die eigene Unternehmen daran hindern könnte, zum nationalen Champion zu avancieren. Diese Handvoll von US-Unternehmen sind allerdings überhaupt nur zu dieser Größe herangewachsen, weil sie auf dem oben erwähnten Überwachungsmodell aufbauen. So etwas wird sich in Europa nicht organisch entwickeln. Außerdem erleben wir diese Nervosität in Bezug auf die US-Hegemonie zu einer Zeit, in der alle über Trump und zunehmende autoritäre Tendenzen sprechen. Was wir aber nicht sehen, ist eine Durchsetzung der europäischen DSGVO [Datenschutz-Grundverordnung] in einer Weise, die überwachungsgetriebene Werbung verbieten würde, oder eine Nutzung solcher Instrumente, um die Wurzeln dieses Geschäftsmodells sinnvoll zu kappen. Meiner Meinung nach müssten wir genau dies tun, während wir gleichzeitig die Arbeitnehmer*innen stärken und die Machtverhältnisse innerhalb der Regulierungslandschaft zu verschieben versuchen. Um all dies zu erreichen, brauchen wir starke soziale Bewegungen, und es muss für die Politiker*innen schmerzhafter sein, nicht zu handeln. Im Moment fließen Hunderte Millionen Dollar in Lobbyarbeit und Einflusskampagnen, und ich glaube, wir haben kein richtiges Gegengewicht dazu.

Die Originalversion finden Sie online auf: springerin.at/en/

 

 

[1] Ezra Klein Interviews Ted Chiang, in: The New York Times, 30. März 2024; https://www.nytimes.com/2021/03/30/podcasts/ezra-klein-podcast-ted-chiang-transcript.html (eigene Übersetzung).
[2] Billy Perrigo, Exclusive: OpenAI Lobbied the E.U. to Water Down AI Regulation, in: Time, 20. Juni 2023; https://time.com/6288245/openai-eu-lobbying-ai-act/.
[3] Meredith Whittaker, AI, Privacy, and the Surveillance Business Model, in: re:publica 2023, 5. Juni 2023; https://re-publica.com/de/session/ai-privacy-and-surveillance-business-model.
[4] Vgl. Meredith Whittaker, Origin Stories: Plantations, Computers, and Industrial Control, in: Logic(s), Vol. 19, 17. Mai 2023; https://logicmag.io/supa-dupa-skies/origin-stories-plantations-computers-and-industrial-control/.
[5] Mike Ananny/Kate Crawford, Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability, in: New Media & Society, Vol. 20, No. 3, März 2018; https://doi.org/10.1177/1461444816676645.
[6] TensorFlow und PyTorch wurden von Google- und Meta-Forschungsteams als Frameworks für maschinelles Lernen entwickelt, die zum Beispiel bei Applikationen des Natural Language Processing oder von Computer Vision verwendet werden.