Heft 1/2018 - Netzteil


Wer hat Angst vor künstlichen Vögeln?

Zum aktuellen Stand der KI-Forschung

Stefan Woltran


In den letzten Jahren hat sich in Medien, aber auch in Teilen der Fachwelt ein eigenartiger Schauder vor einer von Computern beherrschten Zukunft breitgemacht. Neuartige Software und Roboter, die eine Vielzahl von Arbeitsplätzen vernichten werden, selbstfahrende Autos, die in moralische Dilemmata geraten und falsche Entscheidungen treffen, oder die häufig beschworene „Singularität“, also jener Zeitpunkt, an dem die künstliche die menschliche Intelligenz überflügeln wird, um sofort eine noch bessere Intelligenz zu schaffen – all das ist in zahlreichen Publikationen und Diskussionen zugegen. Oft und gerne werden diese Entwicklungen mit dem Begriff Künstliche Intelligenz (KI) assoziiert.
Tatsächlich wurden in den vergangenen Jahren auf diesem Gebiet spektakuläre Fortschritte erzielt. Als Beispiele seien hier AlphaGo1, ein Programm, das die besten menschlichen SpielerInnen in einem der (berechnungs-)komplexesten Brettspiele besiegt, oder Watson2, dessen Sprachverständnis ausreicht, um im Quizspiel Jeopardy unschlagbar zu sein, genannt.
Aber sind diese Programme wirklich intelligent? Was versteht man eigentlich unter Intelligenz? Ohne auf letztere Frage hier näher eingehen zu können, soll nüchtern der aktuelle Stand in der KI-Forschung skizziert werden. Vorangestellt sei dem ein in der KI-Community gern gebrauchtes Bonmot, welches sinngemäß lautet, dass Humanbiologie genauso irrelevant für die KI-Forschung ist wie Ornithologie für die Luftfahrttechnik. Anders gesagt: Solange wir uns Flugzeuge oder Helikopter als künstliche Vögel vergegenwärtigen, braucht der Begriff der Künstlichen Intelligenz nicht notwendig mit der Gesamtheit menschlicher Denkleistungen wie Abstraktionsvermögen, Bewusstsein oder Vorstellungskraft in Verbindung gebracht werden. Tatsächlich ist ein Großteil der KI-Forschung – um bei dieser Analogie zu bleiben – mit der Entwicklung von Düsentriebwerken beschäftigt: Es gilt, komplexe Algorithmen und Berechnungen möglichst effizient abzuarbeiten.

Zwei Strömungen der KI
So wie die Aerodynamik notwendige Gesetzmäßigkeiten für die Entwicklung unserer künstlichen Vögel beschreibt, sind formale Systeme, insbesondere jene der Logik, das Fundament der „Symbolischen AI“. Man versucht, eine Problemstellung (finde den bestmöglichen nächsten Zug für die aktuelle Situation eine Go-Spiels) formal zu beschreiben, indem man die Ausgangssituation und die Spielregeln (was sind gültige Züge, wann ist ein Spiel entschieden?) exakt spezifiziert. Das Lösen derartiger Probleme erfordert das Durchforsten riesiger sogenannter Spielbäume und ist höchst rechenaufwendig. Daher braucht es ausgeklügelte Algorithmen, die dies in Kombination mit effizienter Hardware in absehbarer Zeit bewerkstelligen – Stichwort Düsenantrieb. Der Schritt von einem Brettspiel zu potenziell intelligentem Problemlösen scheint gewagt, ist aber trotzdem naheliegend: Für das Herleiten neuen Wissens (etwa in Form von mathematischen Theoremen) gibt es ebenfalls eine Ausgangssituation (Axiome) und klare Regeln, deren Anwendung zu neuen Einsichten führen kann. Nichtsdestotrotz bleibt das Vorgehen gleich: das möglichst effiziente Durchprobieren einer Vielzahl von Möglichkeiten.
Einen anderen Ansatz verfolgt die „Subsymbolische KI“, die heutzutage durch Schlagwörter wie maschinelles Lernen oder neuronale Netzwerke charakterisiert wird. Grob gesprochen wird hier versucht, durch ausgeklügelte statistische Methoden eine Funktion von hochdimensionalen Vektoren (etwa Bilddaten) in niedrigdimensionale Vektoren (etwa Wörter, die das Bild beschreiben) zu spezifizieren. Dies wird typischerweise durch sogenanntes „Trainieren“, bei dem zahlreiche Parameter und Aktivierungsfunktionen kalibriert werden, bewerkstelligt. Je mehr Daten (beispielsweise Bilder mit bereits vorhandener Beschreibung) für dieses Training zur Verfügung stehen, desto bessere Beschreibungen liefert der Algorithmus auch für neue, noch nicht gesehene Bilder. Obwohl diese Idee im Grunde nicht neu ist, hat sie sich im letzten Jahrzehnt aufgrund verbesserter Hardware zur Parallelverarbeitung und insbesondere durch die Verfügbarkeit immenser Datenmengen durch das WWW erfolgreich umsetzen lassen. Auch Spiele, die ein Computer millionenfach gegen sich selbst spielen kann, sind für diesen Ansatz geeignet. Tatsächlich benutzt eine neue Version des erwähnten AlphaGo einen solchen Ansatz, um Spielsituationen zu bewerten und somit Spielbäume effizienter abarbeiten zu können. Um noch einmal zu den künstlichen Vögeln zurückzukehren: Beim maschinellen Lernen wird statistisch der beste Papierflieger für eine mögliche Flugroute unter bestimmten thermischen Verhältnissen ermittelt, und zwar anhand von zuvor gelernten (besser: verarbeiteten) Daten über das Flugverhalten unzähliger Arten von Papierfliegern in verschiedensten Situationen. Interessant ist, dass dieser Ansatz ohne explizites Formalisieren von Regeln, also beispielsweise ohne das Wissen um Aerodynamik auskommt. Noch interessanter und relevanter hinsichtlich der eingangs gestellten Frage, wie intelligent eine solche Software nun wirklich ist, ist die Tatsache, dass ein solches System auch kein explizites Wissen über Aerodynamik generiert, geschweige denn in der Lage ist, von den vielen gespeicherten Flugdaten formale Gesetzmäßigkeiten zu abstrahieren. Tatsächlich steht die Forschung im Hinblick auf die Frage, wie neuronale Netze ihre Entscheidungen „erklären“ können, erst ganz am Anfang.
Es erscheint daher im Moment nicht von immanenter Wichtigkeit, sich über die Fragestellung, wie wir einer sich selbst bewussten und mit menschenähnlicher Intelligenz ausgestatteten Software begegnen sollen, den Kopf zu zerbrechen. Vielmehr ergeben sich profanere, aber dringliche Probleme, derer sich Gesellschaft und Politik bewusst sein sollten: KI-Software wird die Arbeitswelt definitiv verändern; wie eine solche Transformation zu gestalten wäre, ist jedoch schwer einzuschätzen (als Beispiel seien hier die durchaus konzeptuell ähnlichen Arbeiten von SetzerInnen in einer Druckerei und WebdesignerInnen gegenübergestellt). Weiters ist die Gefahr des Einsatzes von KI-Technologie in Waffen oder als Waffe zu nennen. Während sich in beiden Aspekten Ähnlichkeiten zu vergangenen technischen Entwicklungen widerspiegeln, ist aktuell eine zusätzliche Dimension in Betracht zu ziehen, nämlich jene der Daten. Zwei Implikationen seien erwähnt: Erstens müssen Daten für das Training von KI-Software ausgewogen und sorgfältig ausgewählt werden („biased data yield biased AI“3 oder drastischer formuliert: Wenn eine Bildererkennungssoftware nur Fotos von hellhäutigen Menschen vorgesetzt bekommt, wird sie dunkelhäutige Menschen schwer erkennen bzw. falsch zuordnen und sich somit potenziell rassistisch verhalten. Zweitens sind die größten Datenbanken aktuell in der Hand weniger Konzerne, und tatsächlich sind es genau diese Konzerne, die immens viel in KI investieren, nicht zuletzt um ihre Daten profitorientiert nutzen zu können. Aus dieser Sicht stellt „die Homogenität der Silicon-Valley-Denker eine gefährlichere Bedrohung der Zukunft als jede gedachte Roboter-Apokalypse“4 dar.