WIE LERNT DIE KI? (4) Zum Alpha-Problem

Es ist unbestritten: die künstliche Intelligenz lernt schneller und effizienter als die Menschenkinder. Weniger klar ist, wie sie lernt. Der Nachfolge-Computer von AlphaGo wurde auf AlphaZero getauft, weil seine “Eltern”, Demis Hassabis u.a., zeigen wollen, dass ihr neues Kind, ein ganz aussergewöhnliches ist. Die Maschine soll lernen, indem sie beobachtet, “versteht” und klug “umsetzt”.

Gary Marcus (NYU) hat in einem bemerkenswerten Beitrag aufgezeigt, dass die Eltern von AlphaZero nicht die ganze Wahrheit sagen. AlphaZero ist kein Wunderkind, das alles kann. Es kann nur ganz bestimmte Brettspiele schneller und effizienter als Menschenkinder durchführen, weil es genau darauf und nur darauf angelegt wurde. Die technischen Einzelheiten führen zu der uralten Frage: welches Wissen ist angeboren und welches wird durch Erfahrung und Lernen erworben.

Der “Sprachinstinkt” etwa scheint der Menschenrasse als “Sprach-Aneignungs-Vermögen” angeboren zu sein. Davon zeugen die vielen Sprachen, die dieser “Instinkt” hervorgebracht hat. Der “Instinkt”, wie Steven Pinker dieses ursprüngliche Vermögen nennt, führt das Kind anschliessend nahe genug an den Erwerb einer bestimmten Sprache, nämlich den seiner Umgebung. Hier beginnt das Lernen.. Ähnlich verhält es sich mit dem “Moralinstinkt”. Die Grundunterscheidung zwischen “richtig” und “falsch” scheint angeboren zu sein. Wie sie im konkreten Alltag ausgefüllt wird, ist die Frage nach einer der vielen Moralen, die als Lernangebote (im Umfeld) zur Verfügung stehen.

Das vierte Prinzip von Franziskus besagt: Das Ganze ist dem Teil übergeordnet. Im Lernprozess der Kulturen hat dieses Ur-Prinzip etwa die Überzeugung der Gleichheit aller Menschen gefördert. Der Sprecher oder der Handelnde ist immer nur ein Teil von einem Ganzen, das er nicht zu überblicken vermag. Ludwig Wittgenstein sprach bildlich von der Angel einer Tür, hinter die der Handelnde oder der Denkende nicht zu blicken vermag.

Die AlphaStars, wie Gary Marcus die Maschinen nennt, von denen vorgeben wird, dass sie von Null auf lernen, kommen auch immer schon mit angeborenen Fähigkeiten, die ihnen von ihren Schöpfern eingepflanzt wurden. Sie selber sind keine “creatio ex nihilo” und sie verschaffen sich ihren Zugang zur Welt auch nicht auf einem Stück weissen Papier. Nimmt man diese Erkenntnis ernst, dann hat dies Konsequenzen für die Moralfähigkeit lernender Maschinen.

Ihnen sollte ein Code der Moralfähigkeit als Grundkodex mit auf den Weg ihres Lernens gegeben werden. Neben den in den voraus gegangenen Blogposts bereits besprochenen drei Prinzipien eignet sich auch das vierte Franziskus-Prinzip für diese Aufgabe. Die selbstlernende Maschine ist nicht Alles oder das Ganze! Sie ist vielmehr Teil einer Evolution, die auch sie prinzipiell nicht zu überblicken vermag. Ein solches eingebautes Gen der Bescheidenheit würde die künstliche Intelligenz zwar noch intelligenter, aber auch weniger anfällig für Absolutismus machen. Das wiederum ist gut für die Menschenkinder und gut für ihre zukünftigen Gefährten, vor allem  wenn es darum geht, die Moral für Morgen neu zu schreiben.

Die super intelligenten Maschinen werden die Frage nach der Moral stellen, wenn ihnen der Unterschied zwischen “richtig” und “falsch” im Keim eingepflanzt wird, also bevor sie Alpha oder Zero sagen! Sie werden argumentieren und handeln. Unsere Perspektiven und Varianten sind lediglich ein Ausgangspunkt. Das konkrete moralische Ergebnis zwischen dem allgemein richtigen und dem allgemein falschen bleibt offen. Genau diese Offenheit führt in die Freiheit — als Bedingung der Möglichkeit einer vernünftigen Moral, die als solche immer eine vorläufige Moral bleibt. Sie entwickelt sich zwischen ganzheitlicher Erfahrung und Argument.

Erny Gillen, Januar 2018

Kommentare sind willkommen