Heft 1/2021 - Netzteil


Preis der Freiheit

Interview mit Mark Coeckelbergh über die Ethik von Künstlicher Intelligenz

Christian Höller


Der Philosoph Mark Coeckelbergh befasst sich seit Langem mit der Entwicklung intelligenter Maschinen und deren Auswirkung auf Menschenbilder, gesellschaftliche Transformationen bis hin zur Ideologie des Trans- bzw. Posthumanen. In seinem Buch AI Ethics (MIT Press, 2020) entwirft er einen Überblick über die drängendsten moralischen Fragen, die mit dieser Entwicklung einhergehen. Sollen wir die durch Künstliche Intelligenz (KI) möglich werdenden neuen Freiheiten als alternativloses Zukunftsangebot einfach nur genießen? Sollen wir Behauptungen einer nicht menschlichen Intelligenz grundsätzlich misstrauen? Wo endet die Selbstlosigkeit in Bezug auf das maschinelle Andere und wo fängt die Erwägung einer vertrauenswürdigen KI an? Fragen wie diesen widmet sich Coeckelbergh im hier folgenden Gespräch.

Christian Höller: Der Diskurs über KI wird von zwei Extrempositionen beherrscht: Angst vor einer „Superintelligenz“ oder „technologischen Singularität“ zum einen und utopischen Fantasien eines „irdischen Elysiums“, wo alle lästige Arbeit von Maschinen verrichtet wird, zum anderen. Wo sollte eine realistischere, aber zugleich kritische Einschätzung von KI Ihrer Ansicht nach ansetzen?

Mark Coeckelbergh: Es gibt eine im weitesten Sinn transhumanistische Erzählung über die ferne Zukunft, in der die Menschheit transformiert sein wird und die Maschinen die Macht übernommen haben, eine Zeit, in der andere Planeten kolonisiert werden und wir ins Weltall aufbrechen. Es wäre dann egal, dass wir nicht mehr menschlich sind oder durch superintelligente Maschinen ersetzt würden. Meine Einstellung dazu ist, dass es niemals menschenähnliche Maschinen geben wird, die Menschen in Sachen allgemeiner Intelligenz übertreffen. Was es dagegen sicher geben wird, ist hocheffiziente KI für ganz bestimmte Zwecke. Schon heute existieren eindrucksvolle Apps für Spracherkennung oder bestimmte Spiele. Doch ich bin skeptisch, was die Simulation von allgemeiner Intelligenz angeht. Außerdem ist es gefährlich, sich auf solch abstrakte und weit entfernte Szenarien zu konzentrieren, da dies die Probleme hier auf dieser Erde ausblendet, Probleme, die mit komplexen sozialen und ökologischen Themen zu tun haben.
Die andere Vision von der Machtübernahme der Maschinen geht davon aus, dass wir nicht mehr arbeiten müssen und nur noch Freizeit haben werden. Diese Idee der Freizeitgesellschaft ist uralt, nur leider ist sie bis heute nicht Wirklichkeit geworden. Was vielmehr passiert, ist, dass Technologien im Kapitalismus für bestimmte kapitalistische Zwecke eingesetzt werden. Hier gibt es eine große Kluft zwischen Menschen, die unter harten oder prekären Bedingungen in digitalen Umgebungen arbeiten, wobei sie noch dazu ständig kontrolliert werden, und Menschen, die ihren Job verlieren oder überhaupt keine Arbeit haben. Auch diese Erzählung lenkt von den wirklichen sozialen und politischen Problemen ab, die sich im Zuge der Ausbreitung von KI ergeben.

Höller: KI ist in viele Bereiche des Alltags vorgedrungen, von der Suche im Internet über Konsumempfehlungen, von selbstfahrenden Autos (von denen es bei uns noch nicht allzu viele gibt) bis hin zu dem, was „predictive policing“ (also eine vorhersehende Überwachung) genannt wird. Weshalb braucht es in all diesen Bereichen so etwas wie ethische Codes? Man könnte auch argumentieren, dass all diese Technologien – zumindest oberflächlich betrachtet – das Leben doch nur erleichtern wollen, dass sie sozusagen dem Allgemeinwohl dienen.

Coeckelbergh: Es ist das Standardargument der Tech-Konzerne, dass sie doch nur zum Wohl der Menschheit beitragen wollen. Zum Teil stimmt es natürlich, dass viele Dinge einfacher werden und wir nicht mehr alles selber machen müssen. Aber das Delegieren von Aufgaben an Maschinen hat ernsthafte Auswirkungen, und hier kommt man unweigerlich in den Bereich der Ethik, etwa was Fragen des Privatlebens oder der Verantwortung angeht. Wir sollten uns auch fragen, wie viel leichter das Leben durch den ständigen Gebrauch elektronischer Technologien tatsächlich wird, vor allem wenn man an die psychologischen, aber auch körperlichen Folgen denkt. E-Mail macht zweifellos vieles einfacher, doch wie bei jeder Technologie ändert sich damit auch das ganze System, und plötzlich findet man sich in dieser neuen, fast schon wieder tayloristischen Umgebung wieder, in der E-Mails wie auf dem Fließband daherkommen. Der entscheidende Punkt ist, inwiefern das gesamte System durch eine bestimmte Technologie neu konfiguriert wird.

Höller: Ein Großteil der KI-Forschung findet in den geheimen Laboren privater Firmen statt. Wenn dann bestimmte Apps auf die Öffentlichkeit losgelassen werden, hat man zumeist nicht den entferntesten Schimmer, wie genau der Mechanismus dahinter funktioniert. Sollten Firmen dazu gezwungen werden, die exakten Protokolle der zugrunde liegenden Algorithmen zu veröffentlichen? Und wenn ja, hätte das nicht eine komplette Überforderung der NutzerInnen zur Folge?

Coeckelbergh: Es gibt hier zweifelsohne eine große Wissenskluft, die zugleich auch ein Machtgefälle ist. Ich glaube, es sollte tatsächlich einen Wissenstransfer von den Konzernen zu den NutzerInnen geben, aber ich finde nicht, dass das nur technische Aspekte betreffen sollte. Vielmehr braucht es ein verstärktes allgemeines Wissen darüber, wie eine bestimmte Technologie funktioniert, ohne dass man dazu die Software dahinter studieren muss. Das Hauptproblem liegt darin, dass vieles im Zuge von KI und Datenwissenschaft hinter den Kulissen vor sich geht und gleichsam unsichtbar bleibt, etwa wenn Daten einfach ohne unser Wissen genutzt oder weiterkauft werden. Es sollte obligat für Konzerne sein, uns darüber aufzuklären, was sie mit unseren Daten anstellen. Dazu braucht es keine technischen Details.

Höller: Ihr Ansatz einer „KI-Ethik“ geht sehr behutsam und überlegt vor, insbesondere in Bezug auf das Gespenst eine drohenden KI-Apokalypse, aber auch in Bezug auf das generelle Verhältnis zwischen Mensch und Maschine, um das sich ein Gutteil des gegenwärtigen KI-Diskurses dreht. Inwiefern sollte die gängige Geschichte vom fundamentalen Wettstreit zwischen Mensch und Maschine revidiert werden, um ein besseres (und auch ethisches) Verständnis von KI zu ermöglichen?

Coeckelbergh: Einerseits ist die Annahme einer fundamentalen Differenz nicht besonders hilfreich, da wir auf diese Weise verkennen, dass die Technologie menschgemacht und damit auch veränderbar ist. Wir sollten auch nicht übersehen, dass soziale und politische Systeme auf komplexe Weise mit Technologie verknüpft sind. Diesbezüglich stimme ich mit dem Ansatz des Posthumanismus überein. Andererseits sollte jedoch der irreführenden und allzu optimistischen Ansicht entgegengetreten werden, dass Menschen Maschinen sind und dass beide eine Symbiose bilden und bis ans Ende aller Tage glücklich miteinander vereint sind. Es gibt hier definitiv Spannungen und Ungleichgewichte, die aufgrund von Automation und KI auftreten und denen man sich widmen muss. Märchen über das technologische „Andere“, wie sie der Posthumanismus erzählt, lenken davon eher ab.

Höller: Die Entwicklung einer KI-Ethik scheint stark davon abzuhängen, welchen moralischen Status wir Maschinen zuschreiben. Bekräftigen wir, sobald wir von moralischer Handlungsfähigkeit oder moralischer Empfänglichkeit sprechen, nicht automatisch einen gewissen Anthropozentrismus, da diese Zuschreibungen ja stets vom Modell des menschlichen Individuums ausgehen?

Coeckelbergh: Wenn die Frage so gestellt wird, gehen wir tatsächlich von einer menschenähnlichen Maschine aus. Selbstverständlich unterliegen wir als menschliche Wesen bestimmten Limitationen, wie sich über andere Wesen nachdenken lässt. Was hier helfen könnte, sind Umweltphilosophie und Tierethik, wo über andere Wesen als nicht notwendigerweise menschlich reflektiert wird. Aber es besteht immer die Gefahr, dass wir anderen Gewalt antun, wenn wir sie kategorisieren oder ihnen diverse Eigenschaften zuschreiben. Ich schlage deshalb einen relationalen Ansatz vor, der auf dem Vorsichtsprinzip basiert, dass wir uns bezüglich des moralischen Status von anderen niemals sicher sein können und ihn deshalb auch nicht festschreiben sollten. Wir sollten hier keine voreiligen Schlüsse ziehen, zumal wir in der Vergangenheit enorme Fehler begangen haben, etwa was den Status vom SklavInnen oder auch von Tieren betrifft.

Höller: Die heutige KI basiert zum Großteil auf Machine Learning, das meist in Form neuronaler Netze implementiert ist. Selbst die IngenieurInnen, die die Anfangsbedingungen dieser Systeme festlegen, die Trainingsdatensätze auswählen und so fort, geben zu, dass sie mitunter keine Ahnung haben, wie der Lernmechanismus einen bestimmten Lösungsansatz entwickelt.1 Es scheint, als seien der menschliche Geist und auch die menschliche moralische Handlungsfähigkeit diesbezüglich keine besondere Hilfe, vor allem wenn es darum geht, sie als Modell für das Funktionieren eines Algorithmus herzunehmen.

Coeckelbergh: Wir sind in der Lage, ein generelles Verständnis davon zu entwickeln, wie die Technologie funktioniert. Aber das Problem mit Black Boxes besteht darin, dass eine bestimmte Entscheidung zumeist nicht auf den einen Mechanismus zurückgeführt werden kann, den die Maschine zur Entscheidungsfindung nutzt. Dies wird insbesondere zu einem Problem, wenn die Technologie dazu eingesetzt wird, Menschen zu beurteilen, wie etwa von RichterInnen bei einer Verhandlung. Das Problem besteht nicht nur darin, dass der Maschine Fehler unterlaufen können, wie dies bereits passiert ist,2 sondern auch in der allgemeinen Intransparenz, wie solche Entscheidungen zustande kommen. Es ist dies auch ein Problem der Verantwortlichkeit, da verantwortlich zu sein ja auch bedeutet, anderen gegenüber Verantwortung zu tragen. Auch hier ist ein relationaler Ansatz vonnöten. Wenn ich Richter bin und KI dazu nutze, um zu entscheiden, ob jemand ins Gefängnis muss, dann habe ich die Pflicht, diese Entscheidung hinreichend zu erklären.

Höller: Transparenz hat seine Grenzen, nicht nur im Hinblick auf die Freiheit, bestimmten Forschungsinteressen nachzugehen, sondern auch, vermutlich viel entscheidender, im Hinblick auf die technische Umsetzung algorithmischer Entscheidungsfindung. Inwiefern könnte „Erklärbarkeit“ als oftmals gegenüber KI erhobene Forderung diese Obskurität aufklären helfen? Und auf welcher Ebene sollte diese Forderung sinnvollerweise erhoben werden, um eine vertrauenswürdige KI zu gewährleisten?

Coeckelbergh: Zunächst einmal können technische Maßnahmen helfen, um die Technologie transparenter zu machen. Aber es ist ebenso wichtig, einen gesetzlichen Rahmen zu schaffen, innerhalb dessen die UrheberInnen der Technologie verpflichtet sind, die Mechanismen dahinter zu erklären und ihre Entscheidungen zu rechtfertigen. Dies sollte auf einer politischen Ebene verhandelt werden, was eine große Herausforderung darstellt, da heutzutage die großen Tech-Konzerne immer mehr Entscheidungen für die allgemeine Öffentlichkeit treffen und beispielsweise auch einzelne Leute zensurieren. All diese Entscheidungen werden ohne unser Zutun getroffen, und es ist nicht klar, welche Kriterien dabei von Zensoren und Content-ModeratorInnen herangezogen werden. Selbst bei traditionellen Medien wie Zeitungen wird Content-Moderation eingesetzt, ohne dass klar wäre, welche Kriterien hier gelten.

Höller: 2017 gab es den berühmten Fall, dass zwei von Facebook entwickelte Chatbots in einer von ihnen spontan kreierten künstlichen Sprache zu kommunizieren begannen, woraufhin die IngenieurInnen den Stecker zogen.3 Denken Sie, die IngenieurInnen handelten richtig?

Coeckelbergh: Es ist interessant, dass die Bots eine eigene Sprache entwickelten, was an sich schon ein spannendes Studienobjekt wäre. Ich glaube nicht, dass wir hier Angst bezüglich einer plötzlich auftretenden Superintelligenz haben sollten. Vielmehr sollte man sich fragen, wie uns diese Art von Maschinenintelligenz weiterhelfen kann, zum Beispiel im medizinischen oder kreativen Bereich.

Höller: Verzweifelt wird heute danach gesucht, wie sich die globale Klimakatastrophe abwenden lässt. Diesbezüglich gibt es spekulative Vorschläge, die auf die Frage hinauslaufen, ob nicht eine gutmütige „AI Nanny“ oder eine global operierende „Öko-KI“4 am ehesten in der Lage wäre, die Folgen der Erderwärmung zu mildern. Was spricht, abgesehen von seinem utopischen Charakter, gegen einen solchen Top-down-Ansatz?

Coeckelbergh: Es ist natürlich verlockend zu sagen, eine KI könne bei diesen komplexen ökologischen Problemen hilfreich sein. Aber ein Top-down-Ansatz ist gefährlich und weist in Richtung Autoritarismus. Ich denke, wir benötigen tatsächlich eine KI, um mehr Wissen über den Klimawandel zu erlangen; auch zur Koordination politischer Ansätze könnte sie eingesetzt werden. Aber es besteht die riesige Gefahr der Manipulation von Menschen, selbst wenn diese Manipulation einem guten Zweck dienen würde, und das ist bestimmt nicht die Art von politischem System, die wir möchten. Andererseits kann es nicht sein, dass wissenschaftliche Expertise und Technologie hier keine Rolle spielen – tatsächlich sollten wir darüber nachdenken, wie sich Demokratie mit Expertise und KI vereinen lässt. Die Gefahr einer einseitigen, utilitaristischen Denkweise sehen wir beispielsweise in dem Film I, Robot (2004), worin eine KI zum Wohl der Menschheit agiert und Leute einfach verschwinden lässt.

Höller: Eine der Schlussfolgerungen Ihres Buchs lautet, dass wir „die richtige Balance zwischen Technokratie und partizipativer Demokratie“5 finden müssen. Ist das nicht ein sehr anthropozentrischer Vorschlag, insbesondere wenn man an die posthumanistische Forderung denkt, nicht menschliche Formen von Intelligenz und Handlungsfähigkeit in das Denken miteinzubeziehen? Oder anders gesagt: Sollte das Ziel nicht darin bestehen, eine tragfähige Koexistenz zwischen menschlichen und nicht menschlichen Formen einschließlich maschinischer Intelligenz zu finden?

Coeckelbergh: Absolut, Koexistenz und Relationalität sind diesbezüglich Schlüsselbegriffe, und wir sollten auf alle Fälle unsere Politik gegenüber dem Nichtmenschlichen überdenken. Anstatt zu anderen Planeten aufzubrechen, sollten wir uns mit diesem Planeten und seinen Problemen befassen. Das Ziel besteht darin, ein anderes Verhältnis zu anderen Wesen und unserer natürlichen Umgebung zu entwickeln. Wenn wir das nicht schaffen, steigern wir nur die Übermacht, die bereits im Anthropozän bestimmend war. Indem wir die Herrschaft über den Planeten mittels Geoengineering noch weiter ausbauen, werden die Probleme sicher nicht geringer. Stattdessen sollten wir selbstreflexiv über andere Haltungen gegenüber Mitmenschen, Nichtmenschen und der Umwelt, von denen wir abhängen, nachdenken. Uns selbst als verwundbare und abhängige Wesen zu begreifen, ist ein wichtiger Bestandteil einer Ethik und Politik, denen unser Überleben und Gedeihen gemeinsam mit anderen ein Anliegen ist.

 

 

[1] Vgl. Will Knight, The Dark Secret at the Heart of AI, 11. April 2017; https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/.
[2] Vgl. Kashmir Hill, Wrongfully Accused by an Algorithm, 24. Juni 2020; https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html und Kashmir Hill, Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match, 29. Dezember 2020; https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html.
[3] Vgl. Andrew Griffin, Facebook’s artificial intelligence robots shut down after they start talking to each other in their own language, 31. Juli 2017; https://www.independent.co.uk/life-style/facebook-artificial-intelligence-ai-chatbot-new-language-research-openai-google-a7869706.html.
[4] Vgl. Roberto Simanowski, Todesalgorithmus. Das Dilemma der künstlichen Intelligenz. Wien 2020, S. 58ff.
[5] Mark Coeckelbergh, AI Ethics. Cambridge 2020, S. 177.