Heft 1/2024 - ArtGPT


Kunst aus dem Feedbackloop

Eine Gesprächsrunde zum Einsatz von KI in unterschiedlichen Praxisfeldern

Christa Benzer, Arthur Flexer, Manu Luksch, Thomas Raab


Spätestens seit neben ChatGPT auch Bildgeneratoren wie DALL-E, Midjourney oder Stable Diffusion für alle zugänglich und anwendbar sind, scheinen auch Kunst und Kultur von Künstlicher Intelligenz ganz unmittelbar beeinflusst zu werden. Die maschinelle Unterstützung verspricht Bilder, Musik und Texte je nach Bedarf, Wunsch und Laune – und vor allem eine immens beschleunigte Produktion. Aber was passiert eigentlich mit dem zu erwartenden gigantischen Output? Wie schafft man es, die schon jetzt verschriene Midjourney-Ästhetik nicht einfach zu reproduzieren, sondern etwas Eigenes zu entwickeln? Verändern die KI-Anwendungen künstlerische Techniken wie Sampling oder Remixen, und muss man ob der schieren Masse an Produktionen das längst überkommen geglaubte Label „Hochkunst“ wieder einführen?
Im Gespräch mit Arthur Flexer, Senior Scientist am Institute for Computational Perception in Linz, Manu Luksch, Senior Researcher am Laboratory for Artifical Intelligence in Design am Royal College of Art London, und dem Autor und Kognitionsforscher Thomas Raab wird über subversive Anwendungspraktiken nachgedacht. Fragen rund um das Urheberrecht werden darin genauso problematisiert wie die (Un-)Möglichkeit der Regulierung oder die sich am Horizont abzeichnende „Enshittification“.

Christa Benzer: Wie seht ihr den aktuellen KI-Hype – aus euren jeweiligen Perspektiven?

Manu Luksch: Für mich lautet eine spannende Frage, ob KI auch spezifische geografische Auswirkungen hat. In London etwa ist Gesichtserkennungssoftware für die Überwachung des öffentlichen Raums erlaubt. In der EU sieht das anders aus. Es ist in Großbritannien längst ein technologisches Wettrennen im Gang, aber Regulierungsbestrebungen stehen keine auf der Tagesordnung, im Gegenteil: Die Regierung diskutiert darüber, die Menschenrechte abzuschaffen, um der Industrie möglichst viel Raum zu geben. Man hält alle Tore geöffnet, bevor man das Risiko eingeht, wirtschaftlich etwas zu versäumen. Etwa in der Chipproduktion, bei Halbleitern etc. Da ist zwischen dem angloamerikanischen Raum und China längst ein kleiner Kalter Krieg ausgebrochen.

Benzer: Was bedeutet der Hype für das Institute of Computational Perception in Linz? Aufmerksamkeit bedeutet auch Geld.

Arthur Flexer: In 1990er-Jahren haben wir an dem mittlerweile schon 35 Jahre bestehenden Österreichischen Forschungsinstitut für Artifical Intelligence noch die Firmen angebettelt, mit uns zu sprechen – jetzt ist es umgekehrt. Gerade im Zusammenhang mit KI und Kunst ist schon interessant, wie viel Aufmerksamkeit Anwendungen wie Midjourney etc. erfahren. Alle denken, ChatGPT sei kreativ, und jede*r kann die Bildbearbeitungsprogramme selbst ausprobieren. Deswegen liegt der Fokus derzeit auf den Kreativanwendungen, obwohl die wichtigen Dinge ganz woanders passieren: bei der Überwachung zum Beispiel oder der Automatisierung vieler Arbeitsabläufe. Europa versucht, sich mit dem „EU AI Act“ etwas anders zu positionieren, aber ja, im angelsächsischen Raum gibt es da wenig Reaktion.

Thomas Raab: Mir fällt in Bezug auf die Kreativanwendungen vor allem auf, dass es meines Wissens noch keine Untersuchungen zur tatsächlichen Nachfrage gibt. Es ist ein Unterschied, ob man bloß herumexperimentiert oder gezielt versucht, diese Anwendungen für die eigene Arbeit produktiv zu machen. Als Übersetzer muss ich zugeben, dass sich beispielsweise DeepL immens verbessert hat, aber für mich lautet die Frage, ob es tatsächlich eine Zeitersparnis ist, wenn ich mir das Tippen erspare, dann aber lange editieren muss. Über all dem schwebt zudem die schwierige Frage, was Kreativität überhaupt ist bzw. wie sie funktioniert. Einfache Gestaltungsprozesse lassen sich mit KI natürlich beschleunigen.

Benzer: Arthur, könntest du kurz skizzieren, wie diese Computerprogramme funktionieren?

Flexer: Grundsätzlich geht es darum, die Wahrscheinlichkeitsverteilung von Daten zu modellieren und die Maschine davon lernen zu lassen. Ein Bild ist für den Computer nur eine Anhäufung von Daten, die miteinander in Verbindung stehen. Anwendungen wie Midjourney oder DALL-E basieren auf sogenannten „diffusion models“. Man nimmt ein Bild und macht es mit „Noise“, einer Art Rauschen, absichtlich schlechter. Dann reversiert man diesen Prozess und lässt das neuronale Netz lernen, wie man das Bild wieder herstellen kann. Gleichzeitig fügt man noch eine semantische Beschreibung hinzu. In diesem Prozess, bei dem ich Abermillionen Bilder einspiele, die alle „verrauscht“, mit Beschreibungen versehen und dann wiederhergestellt werden, lernt die Maschine die Form der Wahrscheinlichkeitsverteilung dahinter. So entstehen Bilder, die alle mehr oder weniger an den Trainingsdaten hängen und mehr oder weniger Remixes dieser Trainingsdaten produzieren.

Luksch: Deine Beschreibung des maschinellen Feedbackloops macht sehr schön deutlich, dass die Bezeichnung Künstliche Intelligenz nur ein Schachzug der Industrie ist. Die Technik wird dem Namen nicht gerecht, in eine „intelligente“ Handlung spielt doch sehr viel mehr mit hinein.

Flexer: Es hängt auch damit zusammen, dass „Intelligence“ im Englischen unter anderem auch Informationsverarbeitung bedeutet. Aber der aktuelle Hype basiert darauf, dass man so tut, als ob die Technologie selbst intelligent sei. Dabei funktionieren diese Algorithmen nicht mal annähernd so wie die menschliche Kognition. Die Verarbeitung in Form von Wahrscheinlichkeiten gibt es in dieser Form im menschlichen Gehirn nicht. Die Bildgenerierung macht bisweilen haarsträubende Fehler, etwa in Bezug auf die Anatomie des menschlichen Körpers, und ChatGPT halluziniert bisweilen falsche Fakten. Das ist auch nicht reparabel, weil die Maschine lediglich dafür gebaut ist, Wahrscheinlichkeiten in Form von Daten zu modellieren und davon dann Beispiele zu sampeln. Das lässt sich im Nachhinein auch nicht mehr umbauen oder reparieren.

Benzer: Der Terminus Künstliche Intelligenz soll Furore machen. Aber wieso kränkt er uns auch?

Raab: Weil man sich die Frage stellen muss, ob statistische Mustererkennung „Intelligenz“ auch deswegen so gut ersetzen kann, weil unsere Verhaltensweisen ohnehin eingeschränkt bürokratisch sind. Ich gehe beispielsweise in Stuttgart immer um dieselbe Zeit zu meinem Seminar, und jedes Mal, wenn ich dort ankomme, fährt ein SUV an derselben Ecke vor. Es steigt immer derselbe Typ aus und geht dann in den nahe gelegenen Park – vermutlich zum Joggen. Auf Basis dieser Wahrnehmung entsteht eine Art Modell der Situation, wir haben hier sozusagen ein statistisch perfekt bewältigbares Problem. Es ist aber nur deswegen bewältigbar, weil wir alle schon in ein bürokratisches Gerüst eingenäht sind. Ich sehe die Problematik vor allem in der Rückkopplung: Das heißt, wenn man jetzt mit Machine-Learning-Systemen arbeitet, die mit Bild- und Textkorpora trainiert werden, die solche bürokratischen Regelmäßigkeiten implizit abbilden, findet man sich irgendwann mit dem Status quo ab und merkt gar nicht mehr, dass man eigentlich selbst ziemlich eingeschränkt ist und nur noch in vorgegebenen Mustern denkt und fühlt.

Flexer: Die Programme müssen gar nicht superintelligent sein, und man muss sich gar nicht die schwierige Frage stellen, was Intelligenz und Kreativität eigentlich sind. Wenn es Programme gibt, die Arbeitsabläufe effizienter machen, dann reicht das, um viele Arbeitsplätze zu verdrängen. In Bezug auf die Kunst gehe ich davon aus, dass alles, was Gebrauchskunst ist – Hintergrundmusik, Illustrationen in Zeitschriften oder Texte, die nicht für die Ewigkeit geschrieben sind –, stark unter Druck kommen wird.

Benzer: Es gibt Künstler*innen, die diese Anwendungen als Tools verwenden, und es gibt Kunst, die versucht, die dahinterliegenden technischen Mechanismen zu analysieren, die „Bias“ in den Trainingsdaten, ihren Energieverbrauch etc.

Luksch: In meiner Arbeit geht es mir um die Entmystifizierung der Technologie. Der Ausgangspunkt meiner Serie Atlas of the Liminal: From Matter to Data war zunächst das vergiftete Informationsumfeld. Während einer Gastprofessur in Stanford bin ich am Campus über ein winziges Schild gestolpert, auf dem stand, dass man wegen der Schadstoffbelastung des Bodens an dieser Stelle nicht weitergehen soll. Interessant daran ist nicht nur, dass die Halbleiterindustrie in Silicon Valley schon vor 50 Jahren die Böden vergiftet hat, sondern auch, dass niemand Verantwortung dafür übernimmt. Derzeit kümmert sich die Environmental Protection Agency, also eine staatliche Einrichtung, um diese Zonen. Dabei sind die Verursacher die heute mächtigsten Technologiekonzerne, die die Herstellung inzwischen einfach nach Taiwan oder Südkorea verlagert haben. Mir geht es um solche Umweltkosten, aber auch die sozialen Kosten. Denn leider gibt es in dem Bereich der KI-Entwicklung jede Menge Einsatz von Arbeiter*innen, die unter undenkbaren Bedingungen Geräte bauen, Daten trainieren, säubern etc.

Flexer: Darum kümmern sich die großen Konzerne wenig. Spotify beispielsweise stellt lieber Leute an, die nichts anderes machen, als an einer von Machine Learning getriebenen neuen Musikproduktion zu arbeiten. Dafür wurden zig Patente und die rechtlichen Rahmenbedingungen geschaffen, sodass jede*r, der*die Content bei Spotify hochlädt, auch zustimmt, dass es derivative Werke dieser hochgeladenen Musik geben darf. Spannend wird, wie die Künstler*innen darauf reagieren.

Luksch: Spotify ist ein gutes Beispiel eines monopolistischen Konzerns als Akteur in diesem Feld. Das größte Problem bei KI ist, dass sie in den Händen von so wenigen liegt. Das heißt, jene Firmen, die jahrzehntelang aggressiv und rücksichtslos Daten gesammelt haben, sind auf dem Gebiet jetzt federführend. Bei Spotify sehe ich eine sehr problematische Entwicklung. Wenn die Rechte auf die dort produzierte KI-basierte Musik auch bei Spotify liegen, kommen alle Tantiemen einzig dem Konzern und niemandem sonst zugute.

Raab: Man sollte unterscheiden zwischen Gestaltungen, die man auf Basis von Statistiken und bestehenden Bild- und Textkorpora generiert, die ja im Wesentlichen die Kunst- oder Designgeschichte abbilden, und Werken, die den Charakter des Neuen haben. Wenn man das weiterdenkt, kommt vermutlich irgendwann der Begriff „Hochkunst“ wieder ins Spiel, der in unserem Gespräch auch jetzt schon ungünstig mitschwingt. Das ist ein ungelöstes Problem: Was ist Populärkunst, was ist „Midcult“, wie Umberto Eco Kunst mit inhaltlichem Anspruch, aber formaler Klischeehaftigkeit, so schön genannt hat, und was ist kognitiv produktive Kunst?

Flexer: Nehmen wir an, ich hätte die ganze Musikgeschichte bis kurz vor Techno in meinem Programm. Auf Basis dessen hätte vermutlich niemals jemand einen Techno-Track hervorbringen können. Und selbst wenn, hätte es bestimmter Menschen bedurft, um festzustellen, dass das etwas Neues ist. Das finde ich einen interessanten Aspekt: dass man eigentlich weggehen muss von Stilkopien und Remixen, um etwas Neues zu entwickeln. Wann entsteht etwas Neues? Kann in der Maschine etwas Neues entstehen? Und selbst wenn, können nur wir als Gesellschaft beurteilen, ob das interessant ist.

Raab: Das Wohlgefallen ist natürlich kein rein subjektiver Vorgang, sondern sozial eingebettet. Das, was cool ist und was neu ist, wird ja hergestellt – von Eltern, Peer Groups, Medien etc. Das alles geht nun in die Trainingsdaten ein, bloß ohne Kontext, ohne Ironie, ohne cool. Deswegen hat die Korpusstatistik vom Machine Learning für mich auch etwas von einer Rache an der Coolness der Punkästhetik. In dem Augenblick, wo man damals gelacht hat über Martin Kippenberger oder über Gary Glitter, hat man deren Werke schließlich selbst zu der Kunst gemacht und weiterverbreitet. Heute ist der Mist, den wir nur als ironisch gut fanden, in den Korpora drinnen und mischt im Output der Machine-Learning-Generatoren mit. Die Kunst existiert quasi in unseren Gedanken. Und diese lassen sich nicht 1:1 in einem Medium ausdrücken. Daher ist auch das Urheberrecht für Kunst permanent strittig. Diese Fragen sind allerdings schon vor dem KI-Hype etwa bei Plagiatsvorwürfen im akademischen Raum aufgetaucht. Die Frage lautet, ob es schon ein Plagiat ist, wenn jemand einen Satz abschreibt, aber den Gedanken zuvor doch selber gedacht hat. Das Urheberrecht hebt auf geistiges Eigentum ab, aber Geist lässt sich nicht messen.

Benzer: Niemand unter den mir bekannten Künstler*innen fürchtet sich vor Konkurrenz durch diese Bilder. Aber dass die eigene Arbeit als Trainingsdaten für die KI benutzt werden könnte, ist schon ein reales Problem. Und selbst wenn derzeit noch vieles Spielerei ist, haben diese Programme doch Auswirkungen, etwa auf die Kunstausbildung, wo Studierende angeblich KI-gestützte Lösungen präsentieren, jedoch gar keine Fragen mehr dazu stellen.

Raab: Da komme ich wieder auf Kippenberger zurück, der auch auf die Kunstgeschichte geschissen hat. Wieso sollen das meine Studierenden auf einer vielleicht unbewussteren Ebene nicht auch machen dürfen? Wenn nein, muss man die etwas undankbare Aufgabe übernehmen, konservative Werte zu vertreten. Ich sehe nicht, wie unsere Generation, für die Kulturtechniken wie Aneignen, Remixen, Ironie etc. so wichtig waren und nach wie vor sind, diese Rolle nun übernehmen soll.

Benzer: Seht ihr denn Möglichkeiten einer subversiven Anwendung dieser Tools?

Flexer: Für mich könnte der absichtliche Missbrauch eines Programms eine Möglichkeit sein, eine neue Ästhetik zu schaffen (daran arbeiten wir auch im Rahmen des FWF PEEK-Projekts Spirits in Complexity im Bereich der Musik, unter anderem gemeinsam mit Thomas Grill von der Universität für Musik und darstellende Kunst Wien). Die elektrisch verstärkte Gitarre wurde zum Beispiel entwickelt, damit man im Vergleich zu der leiseren akustischen Gitarre mit lauteren Musikinstrumenten wie dem Klavier oder Blasinstrumenten mithalten kann. Daraus ist dann aber etwas ganz anderes entstanden. Oder ein jüngeres Beispiel, das Programm Autotune, mit dem man im Nachhinein oder sogar in Echtzeit falsch gesungene Töne korrigieren kann. Wenn man extreme Parameter wählt, ergeben sich dabei völlig neue Verzerrungseffekte. Etwas Ähnliches habe ich bei den Bildprogrammen bislang noch nicht gesehen.

Luksch: Fehler, die aus Experimenten mit Technologie entstehen, waren schon immer ganz tolles künstlerisches Material. Aber inwiefern können wir wirklich etwas über dieses Tool sagen, auf dessen internes Funktionieren wir gar nicht zugreifen können? Wäre es nicht notwendig, dass man auch das Werkzeug selber gestalten kann? Mit einem Werkzeug zu arbeiten, das – Stichwort Blackbox – Entscheidungen trifft, die ich nicht kontrollieren kann, ist für mich als Künstlerin schwierig. Aber noch kurz etwas zum Urheberrecht: Ich stimme Thomas völlig zu – da wird ein bisschen lamentiert, wobei klar ist, dass das digitale Medium seit jeher die Möglichkeit der Multiplizierbarkeit impliziert. Das wurde von wirtschaftlichen Interessen zwar gedrosselt, aber Kopierverbote sind völlig gegen die „Natur“ dieses Mediums, und für mich bedeutet Kultur im Grunde Zitieren – gerade auch im Hinblick auf die Kunstgeschichte.

Benzer: Aber es gibt doch berechtigte Befürchtungen um das geistige Eigentum?

Raab: Als Schriftsteller habe ich natürlich ein ganz praktisches Interesse am Urheberrecht. Ich wollte vorhin nur anmerken, dass das, was geschützt wird, eben nicht das ist, was auf dem Blatt steht. Aber klar, ich hoffe auch auf eine kommende „Microsoft-Pension“ für Content Provider! Also dass Microsoft etwas an literarische Verwertungsgesellschaften abgibt und dann alle Schriftsteller*innen je nach der Anzahl der Zeichen, die sie veröffentlicht haben, eine Auszahlung bekommen.

Luksch: Das Urheberrecht für ein ganzes Werk ist etwas anderes. Ich hoffe schwer, dass weiter gesampelt wird, um etwas Neues entstehen zu lassen. Außerdem gibt es bereits Apps wie Nightshade, mit denen man ein Werk davor schützen kann, für das Training von KI herangezogen zu werden, wenn man das möchte.

Benzer: Wenn man euch so zuhört, scheinen sich die Verwerfungen für die Kunst noch in Grenzen zu halten. Wo seht ihr größere Probleme?

Flexer: Ich sehe am Horizont tatsächlich ein ungleich größeres Problem: Durch diese Programme werden ja Unmengen von Daten geschaffen, die dann wieder im Internet landen. Ein Beispiel aus dem Musikbereich: Apple Music hat 100 Millionen Songs im Katalog. Eine andere Firma, eine von Dutzenden von „AI Generative Music“-Firmen namens Boomy, brüstet sich, dass sie innerhalb eines Jahres 13 Millionen Songs rausgeschickt hat. Sie wirbt damit, dass man innerhalb weniger Sekunden eigene Musik schaffen kann. Dasselbe gilt für Texte, Images usw. Es gibt dafür schon einen Begriff: „Enshittification“. Das Problem ist, dass diese Programme irgendwann auch von diesen „schlechten“ Daten zu lernen beginnen und in Zukunft gar nicht mehr unterschieden werden kann, was von Menschen verifizierte Daten sind und was im Gegensatz dazu vielleicht nicht so gute „künstliche“ Daten. Das wird die Programme stark in Mitleidenschaft ziehen.

Raab: Das ist das alte Bullshit-Problem Harry Frankfurts1. Schon in den letzten 30 Jahren gab es eine gigantische Produktion und Veröffentlichung von Bullshit, die inzwischen auch im Internet gelandet ist. Und jetzt ist diese Produktion auch noch automatisiert. Ein bisschen hämisch betrachtet, könnte man das als Rache an der Bürokratie verstehen. Man muss zum Beispiel keine Bewerbungen mehr schreiben, weil ChatGPT dieses seit jeher sinnlose Genre mittlerweile besser erledigt. Bei ChatGPT kann man aber, wenn man ein bisschen „herumtinkert“ an den Prompts, sehr gut mit eigenen Augen sehen, wie das die Wahrscheinlichkeit der Wortfolgen verändert. Leider machen das die Studierenden aber nicht, und so werden ihre Texte, Bewerbungen, Anträge – allesamt bürokratische Textformen – eingespeist in den endlosen Bullshit-Cycle. Die Frage wird sein: Wer steigt aus diesem Cycle aus, wer kann sich das leisten, und wird man dann dafür bestraft oder belohnt? Vermutlich wird man fürs Aussteigen zukünftig wohl eher bestraft werden.

Luksch: Für mich lautet eine der wichtigsten Fragen, was dieses potenziell fantastische Kommunikationsnetzwerk, das wir geschaffen haben, Positives dazu beitragen könnte, Menschen dazu zu motivieren, selbst kreativ zu sein. Ich habe bei KI immer den Eindruck, dass an versteckten Motiven gearbeitet wird, und dass sie überhaupt nicht im Dialog damit steht, was die Menschheit eigentlich braucht. Was sind die brennenden gesellschaftlichen Probleme, und wie kann KI zu ihrer Lösung beitragen? Wo sollten öffentliche Budgets investiert werden, worauf sollten unsere kollektiven Bemühungen abzielen?

Flexer: Da bin ich ganz deiner Meinung. Ein Drittel des gesamten Spotify-Katalogs wird überhaupt nie gehört und nur ein minimaler Prozentsatz mehr als tausendmal im Jahr gestreamt. Das heißt, es existiert jetzt schon ganz viel Kunst, die von Menschen geschaffen wurde, und was wirklich niemand braucht, ist eine KI-kreierte Kunst, die damit auch noch in Konkurrenz tritt. Die Frage lautet also, was wir aus einer gesellschaftlichen Perspektive wollen, und was gefördert werden soll. Musik, die jemand mit ein paar Klicks produziert hat, möchte ich mir jedenfalls nicht anhören. Vielleicht ziehen sich Künstler*innen in Zukunft auf Kunstformen zurück, die nicht automatisiert, nicht reproduziert werden können.

Benzer: Wenn es um die Frage geht, was gesellschaftlich gefördert werden soll, landet man schnell bei der möglichen Regulierung von KI. Was haltet ihr davon?

Raab: Ich habe bei staatlichen Maßnahmen immer ein komisches Gefühl. Wenn man die Menschen ernst nimmt, muss man ihnen auch zutrauen, dass sie ihre eigenen Schlüsse ziehen. Wenn man aber sagt, sie sind dazu nicht fähig, sondern streben wie Lemminge zum Abgrund, dann müssen wir unseren Begriff einer Demokratie mündiger Bürger*innen überdenken. Wir könnten uns auch gegen die Nutzung dieser Plattformen entscheiden, wir geben die Daten dort ja freiwillig ab.

Flexer: Freiwillig? Jein. Deine Texte werden sicher auch schon zum Trainieren von KIs verwendet, ohne dass du dem zugestimmt hast. Aber das Problem der Wahrhaftigkeit von Inhalten gibt es schon länger. Spätestens seit den 1990er-Jahren gibt es „Alternative Facts“. Das wird jetzt dramatisch beschleunigt. Aber ich bin sonst auf Thomas’ Seite: Man muss den Menschen ermöglichen und sie dabei unterstützen, die falschen von den wahren Fakten zu unterscheiden. Dafür werden sich glaubwürdige Institutionen herausbilden müssen, denen man vertrauen kann. Grundsätzlich aber ist die Datenkatze aus dem Sack, die kann man nicht mehr einfangen, auch nicht mit Regulierungen.

Luksch: Die Größenordnung, in der einzelne Akteur*innen über „Targeted Distribution“ einen Meinungsumschwung produzieren können, ist schon erheblich. Ich mache gerade einen Film zum praktischen Einsatz von KI in den Vereinigten Arabischen Emiraten. Da werden Profile von Fake-Journalist*innen erstellt, die genau in den von dir angesprochenen etablierten, „glaubwürdigen“ Medien „Opinion Pieces“ platzieren. Ich denke, dass wir hier vor großen Herausforderungen stehen, und ich sehe noch wenig Reaktion darauf. Ich habe seit 2016 Cambridge Analytica und ihre Praktiken mitverfolgt: Es gab dazu Diskussionen im britischen Parlament, aber absolut keine Maßnahmen. Wir schlafwandeln in eine Krise hinein, in der an den Grundpfeilern der Demokratie gerüttelt wird.

1 Harry Frankfurt, Bullshit. Frankfurt am Main 2006.

Arthur Flexer hat an dem Projekt Dust and Data. The Art of Curating in the Age of Artificial Intelligence mitgearbeitet; sein jüngstes, vom Österreichischen Wissenschaftsfonds (PEEK) gefördertes Projekt im Bereich KI und Musik heißt Spirits in Complexity (gemeinsam mit Thomas Grill von der mdw, Wien).

Manu Luksch ist interdisziplinäre Künstlerin, Filmemacherin und Aktivistin in Wien und London. Sie beschäftigt sich mit den technologischen Transformationen und ihren Auswirkungen auf das Zusammenleben und die Conditio Humana. 2023 wurde sie mit dem Outstanding Artist Award für Medienkunst ausgezeichnet.

Thomas Raab ist Schriftsteller, Gastdozent und Übersetzer in Wien, der sich mit Grundfragen der Kognitionswissenschaft beschäftigt. Neben Sachbüchern und dem satirisch-kritischen Roman Die Netzwerk-Orange (2015), in der eine Ministeriums- KI als Therapeut wirkt, veröffentlichte er 2023 das Fachbuch Oswald Wieners Theorie des Denkens (mit T. Eder und M.Schwarz).