ETHISCH FÜHREN & KOOPERIEREN

OUTDOOR SEMINAR AM ALPSTEIN (CH)

Vom 2.-6. Juni  2019

 

 

Führung wird als menschliche Kunst verstanden, gemeinsam und engagiert Ziele anzustreben. Ethik wird als Methode verstanden, die Ziele und die Mittel mit Argumenten im ergebnisoffenen Diskurs zuverlässig zu bestimmen. Dabei dient uns das Moral—Factory—Oktaeder als unterstützendes Instrument der Orientierung.

Beim Outdoor-Seminar erfährst und lernst Du nachhaltig, wie Ethik & Führung sich zwischen vier spezifisch gepolten Gegensatzpaaren entfalten und ein zukunftsorientiertes Führungsverhalten bewirken, wenn (1) die Zeit wichtiger ist als der Raum, (2) die Einheit mehr wiegt als der Konflikt, (3) die Wirklichkeit wichtiger ist als die Idee und (4) das Ganze dem Teil übergeordnet ist. 

Der innere und äußere Prozess wird theoretisch und praktisch durch kurze Impulsvorträge, Einzel- und Gruppenreflexion, Fallbeispiele aus dem Leben der Teilnehmenden, Übungen in der Gruppe und in der Natur, eine achtsame Präsenz und Feedbacks sowie Momente der Entspannung und des offenen Gesprächs unterstützt. Zwischendurch besteht die Gelegenheit für Einzelgespräche mit den beiden Begleitern, damit der Transfert der Methode in Deinen Berufsalltag bestmöglich gelingen kann.

FLYER ALPSTEIN JUNI 2019

Ein Kooperationsseminar mit Hugo Furrer, educta.

Ethik & Leadership vereinen

Bonn, am 9. März: Frau Christa Garvert, Vorstandsvorsitzende der Franziskusstiftung für Pflege und Herr Dr. Erny Gillen, geschäftsführender Gesellschafter der Moral Factory, im engagierten Gespräch über die ethisch-pädagogischen Weiterentwicklungen der Papst Franziskus Formel zu einer praktischen Methode, für Menschen in Leitungspositionen, die Ethik und Leadership vereinen müssen.

Die Moral Factory Tool Box für Ethik & Leadership

Learn more @ Summer School July 2018

WIE LERNT DIE KI? (4) Zum Alpha-Problem

Es ist unbestritten: die künstliche Intelligenz lernt schneller und effizienter als die Menschenkinder. Weniger klar ist, wie sie lernt. Der Nachfolge-Computer von AlphaGo wurde auf AlphaZero getauft, weil seine “Eltern”, Demis Hassabis u.a., zeigen wollen, dass ihr neues Kind, ein ganz aussergewöhnliches ist. Die Maschine soll lernen, indem sie beobachtet, “versteht” und klug “umsetzt”.

Gary Marcus (NYU) hat in einem bemerkenswerten Beitrag aufgezeigt, dass die Eltern von AlphaZero nicht die ganze Wahrheit sagen. AlphaZero ist kein Wunderkind, das alles kann. Es kann nur ganz bestimmte Brettspiele schneller und effizienter als Menschenkinder durchführen, weil es genau darauf und nur darauf angelegt wurde. Die technischen Einzelheiten führen zu der uralten Frage: welches Wissen ist angeboren und welches wird durch Erfahrung und Lernen erworben.

Der “Sprachinstinkt” etwa scheint der Menschenrasse als “Sprach-Aneignungs-Vermögen” angeboren zu sein. Davon zeugen die vielen Sprachen, die dieser “Instinkt” hervorgebracht hat. Der “Instinkt”, wie Steven Pinker dieses ursprüngliche Vermögen nennt, führt das Kind anschliessend nahe genug an den Erwerb einer bestimmten Sprache, nämlich den seiner Umgebung. Hier beginnt das Lernen.. Ähnlich verhält es sich mit dem “Moralinstinkt”. Die Grundunterscheidung zwischen “richtig” und “falsch” scheint angeboren zu sein. Wie sie im konkreten Alltag ausgefüllt wird, ist die Frage nach einer der vielen Moralen, die als Lernangebote (im Umfeld) zur Verfügung stehen.

Das vierte Prinzip von Franziskus besagt: Das Ganze ist dem Teil übergeordnet. Im Lernprozess der Kulturen hat dieses Ur-Prinzip etwa die Überzeugung der Gleichheit aller Menschen gefördert. Der Sprecher oder der Handelnde ist immer nur ein Teil von einem Ganzen, das er nicht zu überblicken vermag. Ludwig Wittgenstein sprach bildlich von der Angel einer Tür, hinter die der Handelnde oder der Denkende nicht zu blicken vermag.

Die AlphaStars, wie Gary Marcus die Maschinen nennt, von denen vorgeben wird, dass sie von Null auf lernen, kommen auch immer schon mit angeborenen Fähigkeiten, die ihnen von ihren Schöpfern eingepflanzt wurden. Sie selber sind keine “creatio ex nihilo” und sie verschaffen sich ihren Zugang zur Welt auch nicht auf einem Stück weissen Papier. Nimmt man diese Erkenntnis ernst, dann hat dies Konsequenzen für die Moralfähigkeit lernender Maschinen.

Ihnen sollte ein Code der Moralfähigkeit als Grundkodex mit auf den Weg ihres Lernens gegeben werden. Neben den in den voraus gegangenen Blogposts bereits besprochenen drei Prinzipien eignet sich auch das vierte Franziskus-Prinzip für diese Aufgabe. Die selbstlernende Maschine ist nicht Alles oder das Ganze! Sie ist vielmehr Teil einer Evolution, die auch sie prinzipiell nicht zu überblicken vermag. Ein solches eingebautes Gen der Bescheidenheit würde die künstliche Intelligenz zwar noch intelligenter, aber auch weniger anfällig für Absolutismus machen. Das wiederum ist gut für die Menschenkinder und gut für ihre zukünftigen Gefährten, vor allem  wenn es darum geht, die Moral für Morgen neu zu schreiben.

Die super intelligenten Maschinen werden die Frage nach der Moral stellen, wenn ihnen der Unterschied zwischen “richtig” und “falsch” im Keim eingepflanzt wird, also bevor sie Alpha oder Zero sagen! Sie werden argumentieren und handeln. Unsere Perspektiven und Varianten sind lediglich ein Ausgangspunkt. Das konkrete moralische Ergebnis zwischen dem allgemein richtigen und dem allgemein falschen bleibt offen. Genau diese Offenheit führt in die Freiheit — als Bedingung der Möglichkeit einer vernünftigen Moral, die als solche immer eine vorläufige Moral bleibt. Sie entwickelt sich zwischen ganzheitlicher Erfahrung und Argument.

Erny Gillen, Januar 2018

Kommentare sind willkommen

Künstlich intelligent und der Moral fähig (3)

Moral ist erlerntes Wissen und Verhalten. Kinder lernen schon früh die unterschiedlichen Moralen ihrer Eltern, Nachbarn und etwa der Erzieher in der Tagesstätte kennen. Sie passen sich dem einen Umfeld und dem anderen Umfeld klug an und schmieden im Laufe der Zeit ihre eigene Moral. Und die künstliche Intelligenz als selbstlernendes System geht genau gleich vor.

Wir, die künstliche Intelligenz und der Mensch, lernen nicht von abstrakten Idee her, sondern an der Wirklichkeit entlang. Dies drückt das 3. hier vorgestellte Prinzip “Die Wirklichkeit ist wichtiger als die Idee”  pointiert aus.  Die Umkehrung der Verhältnisse zwischen Wirklichkeit und Idee zugunsten der Wirklichkeit beschert Fortschritt und Vorankommen. Karl Popper hat dies mit seiner Wissenschaftstheorie eindrücklich belegt. Papst Franziskus nutzt die Sprengkraft dieses Satz gerade um die Pastoral und die Moral der Kirche in Bewegung zu bringen. Und die künstliche Intelligenz, Siri etwa, nutzt das gleiche Prinzip von Versuch und Irrtum um unsere Sprache zu lernen.

Wenn es um die Moral geht, lernt die smarte Intelligenz  von uns gerade Kriege und Spiele zu führen, um sie mit Taktik und Logik zu gewinnen.

In der Science Fiction Welt bekehrt die künstliche Intelligenz sich (meist selbst) im Austausch mit Liebe und Tod zu einem Besseren. “Hal 9000” möchte von Dave nicht ausgeschaltet werden. Der Blade Runner Jo beginnt zu begreifen, dass er die Wirklichkeit verändern kann und dass es etwas gibt, wofür es sich lohnt zu sterben.

Unsere beste Moral, und einzige Überlebenschance, ist unsere gelebte Moral. Mit dem guten Beispiel dienen, lohnt sich bereits Heute und sicher für Morgen, und zwar genauso für uns als Menschen als für die künstliche Intelligenz.

Erny Gillen

 

 

FÄHRTEN FÜR EINE MORALFÄHIGE KI (2)

Die Einheit wiegt mehr als der Konflikt so lautet das zweite sozialethische Handlungsprinzip von Franziskus. Auch dieses Prinzip zeigt eine Richtung für die Entwicklung und Anwendung künstlicher Intelligenz.

Wenn wir und die künstliche Intelligenz der Zukunft “Konflikte” als Grenzgebiete und somit als integraler Teil der “Einheit” verstehen, dann verändern wir unseren Umgang mit ihnen: wir erkennen in den Konflikten mögliche Öffnungen für die Weiterentwicklung und nicht lediglich auszumerzende Fehlschaltungen.

Für die Zukunft wird es entscheidend sein, sinnvolle Konflikte und zerstörerische zu unterschieden. Die sinnvollen Konflikte werden uns viele unterschiedliche Wege zeigen, wie die Einheit wachsen kann.

Wenn etwa sogenannte Krankheiten gelenkt und nicht mehr bekämpft werden, wird sich unsere Anschauung dessen, was gesund ist und zum guten Leben und Sterben beiträgt, kulturgeschichtlich stark verändern.

Wenn Arme und Bettler geachtet,  unterstützt und nicht aus unseren Städten vertrieben werden, erhalten wir mit der künstlichen Intelligenz zusammen die Einheit und den Zusammenhalt der Gesellschaft.

Bei der Vorbereitung smarter Systeme im Sinne der Präferenz von Franziskus, könnte der Mensch selber viel über die sublime Einheit der Schöpfung lernen, zu der er weiterhin gehört.

Erny Gillen

 

FÄHRTEN DER MORAL AUSLEGEN (1):

Für die künstliche Intelligenz & den menschlichen Menschen

Fährten der Moral auslegen!

“Die Zeit ist mehr wert als der Raum”

Die Frage nach dem Verhältnis von Raum und Zeit ist eine Frage des Menschen und eine Frage nach dem Menschen.

Die Tiere leben in dem Raum und in der Zeit, in die sie von Natur aus eingefügt sind. Der Mensch dagegen schafft sich seine eigenen Räume und Zeiten, so wie sie ihm für die jeweiligen Bedürfnisse und Aufgaben am besten passen.

Wie aber geht die künstliche Intelligenz mit diesem Gefüge von Raum und Zeit um?

Die künstliche Intelligenz ist dabei unsere Konstrukte von Raum und Zeit aufzulösen. Zwei Beobachtungen: Die Zeit wird mit zunehmender Geschwindigkeit auf die pure Gegenwart reduziert. Der materielle Raum löst sich in der Cloud und Augmented Reality auf.

Aus ethischer Perspektive vertrete ich die Meinung, dass wir das Projekt der Zukunft für eine menschenwürdige Welt am besten gemeinsam mit unserem neuen Werkzeug gestalten.

Wenn Zeit und Raum sich auflösen, hören wir als Menschen auf zu sein, wer wir sind. Raum und Zeit waren unsere List, um uns aus der rein biologischen Welt zu lösen. Mit den erfundenen Parametern von Raum und Zeit gelang es uns, neue Welten, und Kulturen zu konstruieren.

Die Spuren unserer Kulturen können wir in den Räumen verfolgen. Die zündende Kraft und Energie für die immer neuen Anläufe schöpfen wir hingegen aus der gestaltbaren, uns offen stehenden Zeit als (geschenkte) Zukunft.

Genau um diesen Zeitbegriff geht es in dem heuristischen Satz von Papst Franziskus: “Die Zeit ist mehr wert als der Raum”, Evangelii gaudium, 221.

Für den ethischen Umgang mit der künstlichen Intelligenz heisst dies: Wir sollten der künstlichen Intelligenz Fährten für die offene und nicht planbare Zeit auslegen. Mehr noch: wir sollten ihr den Geschmack von Tod und Sterben vermitteln. Das heideggerische “Sein zum Tode” wird ihre Kreativität ungemein anders herausfordern.

Das verlorene Zeitbewusstsein wirft Fragen auf, die wir Menschen dabei sind zu verdrängen: Beispielsweise: Wozu sollen wir gesund sein und lange leben? Warum sollen wir Steuern zahlen? Was heisst das gute Leben?

Die künstliche Intelligenz mit unserer List von Raum- und Zeitgestaltung auszurüsten, heisst, sie sensibel für Kooperation und Freiheit zu machen.

Ihr eine von fixen Algorithmen gesteuerte normative Rumpfmoral einpflanzen zu wollen, wird bei einem hoch entwickelten selbstlernenden System ohnehin nicht funktionieren. Deshalb plädiere ich dafür, künstliche Intelligenz als moralfähige Systeme auszugestalten und ergo auch anzuerkennen.

Von dieser geschichtsfähigen Strategie erwarte ich mir, dass es uns in – und mit – der neuen Ausrüstung gelingt, unsere andauernde Kultur- und Moralanstrengungen mit dem neuen smarten Werkzeug der künstlichen Intelligenz weiterzuentwickeln. Von dieser Strategie erwarte ich mir auch, dass wir dem “zurück zur Natur” ohne Raum und Zeit einen Riegel vorschieben.

Erny Gillen, 21. November 2107

Unsichere Strassen & die Ethik der Religion

Schon wieder Terror und Überfälle.

© Hossein Asivand & Erny Gillen

Schon wieder wird über die Ethik der Religion diskutiert.

Die alte Geschichte …

… vom anonymen Samariter & dem guten Wirt bleibt weiter aktuell. Hier gezeichnet von einem Menschen, der selber auf der Flucht war.

Und die Moral von der Geschichte:

  1. Die Ethik kommt vor der Religion!

  2. Der Wirt wird gerecht entlöhnt!

Erny Gillen

Kontakt: <http://www.privatedaddy.com/?q=Y3BfNmxSeQx2Jjc1QkFrdhlaYU9bO0BBZ24z_19>

 

 

 

IM SIMULATOR VON HARARI’S HOMO DEUS

Einsteigen, bitte. Türen schliessen automatisch. Nächster Halt: Morgen. Die kurzweilige Geschichte von Yuval Noah Harari beginnt. Durch vier Stadien rast der Zug der Zeit und wechselt während der Reise die Begleiter Hunger, Krankheit und Krieg gegen Unsterblichkeit, Glück und Göttlichkeit aus. Vor der Ankunft wird der Sapiens gewarnt nicht unvorbereitet als Homo Deus in den neuen Tag zu gehen. Ein kurzer Ruck, der Zug steht. Die Türen öffnen sich. Vor dem Simulator stehen die nächsten Sapiens für einen Ausflug, der dort endet, wo er angefangen hat. Am Bahnsteig “Fragezeichen Mensch” fährt kein Zug. Hier wird nur aufgeregt über eine mögliche Zukunft geredet und philosophiert, während draussen die heutigen Sammler und Jäger bereits handelnd eine Welt hervorbringen, die auch offen für Agrarier, Wissenschaftler, Händler und Priester bleibt.

Harari fällt den Annahmen seiner erfundenen Geschichtsphilosophie zum Opfer. So dreht er alles, was er anpackt im Kreis der Fragen, die er am Schluss unbeantwortet an den Leser weitergibt. Weil nach ihm alle Ordnung erfunden ist, lädt er stringent lediglich zu einem Erlebnis ein, das eine Reise vortäuscht.

Gemessen am Erfolg des Buches, hat er den Nerv der Zeit getroffen. Wir sind lieber Zuschauer als Akteure.

Die Moral der noch nicht geschriebenen Geschichte von Morgen ist eine andere. Sie entsteht nicht beim Schreiben oder Denken im Simulator, sondern konkret beim mutigen und Moral schaffenden Handeln.

Zu Yuval Noah Harari, Home Deus. Eine Geschichte von Morgen, C. H. Beck, 2017, ISBN: 978-3-406-70401-7