Ethics first

A Contribution to the Consultation of the Draft Ethics Guidelines For Trustworthy AI, produced by the European Commission’s High-Level Expert Group on Artificial Intelligence

By Erny Gillen, Ethicist, Luxembourg

Introduction

The working document published December, 18, 2018, for consultation until January 18, 2019, makes trustworthy AI it’s north star through ensuring AI’s ethical purpose and it’s technical robustness. 

https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai

My contribution will address the intended ethical purpose issue through eight major systemic questions. It intends to clarify the core directions taken by the AI-HLEG in the working document and thus, to contribute to a successful and ethics first AI strategy within the EU. In the second part I add specific comments.

Before, nevertheless, entering into any systematic and content discussion, I must raise my deep concern about the process and the related risks for a good outcome.

I. Process issues and related risks

The credibility and plausibility of the Draft Guidelines strongly depends on their explicability, to use the term introduced by the HLEG-AI as a precondition for trustworthiness (of AI). The Working Document is silent notably about the rationale of the composition of the HLEG-AI, the reasoning behind operated methodological and content choices, the culture and style of internal dialogue processes, the limitations of this consultation, organised in the midst of major holiday breaks (where even the EU-AGM system stands still), … 

Those pitfalls would — according to the Guidelines — not be accepted if performed by any AI system. But more importantly they do harm to the core intentions of the Guidelines and its accompanying process, as wished in March 2018 by the EGE. I strongly recommend to reconsider the timeline and show true openness for discussing and integrating divergent opinions. Following the EGE the process should foster “a dialogue that focusses on the values around which we want to organise society and the role that technology should play in it”. 

The final Guidelines should, for instance, clearly demonstrate that they do not primarily serve the interests of those called to be members of the HLEG, especially the many directly involved, and prima facie overrepresented AI companies and their academic consultants, but the European citizens.

I’m painfully aware that it is hard to organising a fair process under time constraints and political deadlines. I, nevertheless, urge the HLEG-AI to reconsider the chosen path, notably also because of the weaknesses in its systematics, as I will demonstrate with the following systemic issues to be addressed first.

II. Eight systemic issues remaining vague, ambiguous or unanswered

  1. Who is the moral / legal subject of trustworthy AI?
  2. How should AI users be protected?
  3. How will a human centric approach (vs. a humane approach) distinguish good and bad intentions, right and wrong actions within a human community composed of people of good will and terrorists?
  4. How can be assured that ethics is more than a mere function of and for competitiveness or a risk for AI innovation?
  5. How can the EU promote trustworthy AI made in other parts of the one world?
  6. Which consistent principles should guide the interaction between human users and AI driven systems?
  7. How must the concept of ‘informed consent’ be designed to serve and to protect users?
  8. How could the two guiding lists of principles and requirements be harmonised?

Ad 1: Who is the moral / legal subject of trustworthy AI?

The working document refers to a broad range of subjects while addressing trustworthy AI. Sometimes AI is referred to as the virtual acting subject or the grammatical subject; on other occasions AI seems to be the object of the ethical guidelines. In this case, developers, researchers, producers and even users become the addressees of the guidelines and thus the subject for the trustworthiness of AI. 

It would be helpful to clarify this issue right from the beginning.

I would recommend to accept AI partly as the subject of these guidelines from level 3 onwards, following the classification in footnote 24, and to introduce a well thought through concept of shared responsibility for developers, researchers and producers. In this sense AI would be part of a collective subject for which i.e. a special legal body could be created within a new legal framework for autonomous systems (cf. discussions around the Maddy Delvaux proposition in the EU-Parliament).

Ad 2: How should AI users be protected?

The Draft Guidelines should not mix up users (consumers) and producers. This is paramount for the concept of trustworthiness and for the consistency of the chosen approach, if the HLEG-AI wants to maintain the logic behind the 4 + 1 Principles as inspired by biomedical ethics. Those principles were meant by James Childress and Tom Beauchamp to organise the interaction between the asymmetric competent healthcare professionals on the one hand and the vulnerable patients on the other hand by imposing, according to the tradition of Hippocrates, the burden for the implementation of this specific ethos to the professionals. I’m aware that in some cases the lines between users and producers blur, but that should not happen within the Guidelines. 

The EU has a clear role in consumer protection, that should not be given up in the field of AI, especially if the aim is to promote trustworthiness of AI. Mixing up stakeholders is an unacceptable trap, as is the subordination of ethics to competitiveness. 

Ad 3: How will a human centric approach (vs. a humane approach) distinguish good and bad intentions, right and wrong actions within a human community composed of people of good will and terrorists?

I completely share the concern that AI should aim at “protecting and benefiting both individuals and the common good”. But, the term “human centric approach”, as coined in the working document, is strongly misleading. The human community is diverse and many interests are competing with others. But, there are generally accepted red lines about what is bad and wrong. Those boundaries constitute our societies and protect citizens. AI should not serve those members of the human family who, for instance, follow criminal intentions or put at risk citizens or the society as a whole.

In order to semantically avoid the underlying misunderstanding the HLEG-AI could use the concept of an “humane approach” (in the sense of beneficial or good AI) thus, introducing a partly open criterion to discern which humans to serve.

The definition in the glossary partly addresses the expressed concern by saying: “The human-centric approach to AI strives to ensure that human values are always the primary consideration … with the goal of increasing citizen’s well-being.” If this definition should be maintained I strongly recommend to change “primary” into “main” consideration and to add “in Europe accepted values” before values!

Under the imported Principle of non maleficence the notion of environmental friendliness is introduced out of the blue, thus broadening the scope for responsible AI. The crucial question whether AI should serve Life in general or the common good of the human communities is asked, but remains unanswered. The working document as a whole nevertheless promotes a “human(e) centric approach”. I recommend to add environmental friendliness at the beginning of the document as a concern of and for human life, thus including it into an inclusive “humane approach”.

Ad 4: How can be assured that ethics is more than a mere function of and for competitiveness or a risk for AI innovation?

In the working document there is a tendency to subordinate ethics to competitiveness. I do agree that ethics can and should foster responsible competitiveness. But, any ethic, worth its name, should not be reduced to simply serve a predefined, but limited ethical purpose, like competition. Ethical reflection can’t be domesticated without aborting it, especially within Ethics Guidelines!

I recommend that the normal and healthy tension between competitiveness and ethics should be acknowledged and productively be used for the development of an ever evolving ethical discourse and an evolving discourse about responsible competitiveness. To semantically show this concern it would be worth not to use the term “AI Ethics”, but to talk about Ethics in AI, as it is nowadays and frequently done in Medicine, where the standard of art term would be: Ethics in Medicine and no longer medical ethics.

The working document expresses, again and again, scepticism about ethical reflection or ethical interventions. This is absolutely strange for a document which wants to promote ethical guidelines and the document should be cleaned from those jeopardising assertions.

By the same token, some authors of the working document even seem to be convinced that biases are mainly injected into AI and autonomous systems by human designers and testers. They even suggest the primacy of AI (as a subject) to overcome human born biases, as stated i.e. in the Glossary: “AI can help humans to identify their biases, and assist them in making less biases decisions”. Trustworthy AI certainly can help to identify biases, but it can also produce biases and overlook others. The ethical discernment should not unilaterally or simplistically be delegated to algorithms, as acknowledged in other parts of the working document. 

Ad 5: How can the EU promote trustworthy AI made in other parts of the one world?

Even though I like the “made in Europe” brand and idea, I do not think that the EU can and should limit its ambitions to those AI systems “made at home”. The scope of these Guidelines should be AI systems used in Europe, whether made in China or the US. If the EC really wants to promote trustworthy AI, it should envisage to address all systems used on its territories.

As this ambition is clearly mentioned as a goal for the longer run, the HLEG-AI should relinquish the expression “made in Europe”. 

Ad 6: Which principles should consistently guide the interaction between human users and AI driven systems?

Introducing the four generic principles from the field of ethics in bio-medicine as overarching principles into the fields of AI is certainly of good pedagogical value and easy to communicate. But, exporting this set of principles necessarily also introduces the invisible line of power balance between AI (as a subject or as part of a collective subject) and the users. The analogy between medicine and patients on the one hand and AI and the users on the other hand does not fully match. More thought and research should be invested in this possible, but limping analogy.

Despite diverse criticisms the four principles have shown that they are able to build a consistent and relatively easy to transmit framework. One of their strengths lies in the presumption that they are comprehensive. The working document, inspired by An Ethical Framework for a Good AI Society, adds a fifth principle which from the perspective of the four Principles, by Childress and Beauchamp, could easily be subsumed under their third Principle of Autonomy. The added Principle of Explicability explicitly refers to the concept of “informed consent” which would be typically a part of the principle of autonomy within the original framework. 

In order to be consistent and original (in both senses), I recommend to stay with the four principles and to include the transparency concern (included in the explicability principle) into the third Childress and Beauchamp Principle of autonomy. 

The larger problem of explicability in the sense of intelligibility and explainability should be addressed outside of the four comprehensive principles. It best fits as a conditio sine qua non introduction to the set of the four principles, because all four imminently depend on the explicability of AI as an input for ethical consideration, reflection and decision-making. Thus, the fifth Principle should not be part of the closed list of the four principles, but a preliminary principle conditioning the set of the four principles.

Ad 7: How must the concept of ‘informed consent’ be designed to serve and to protect users?

There are numerous academic and practical discussions around the validity of the concept of ‘informed consent’ and its meaningful understanding in Medicine and Ethics. Nonetheless it works properly in contexts where embedded into an ethic of care, supporting and promoting the autonomy of the weaker part, while simultaneously excluding dominant or paternalistic behaviour exercised by an asymmetrically more powerful part.

As the Draft Guidelines under scrutiny do not distinguish clearly between the different stakeholders and their (legitime) divergent interests, the introduction of the concept ‘informed consent’ jeopardises its original intent. It easily becomes the loophole for all kind of strategies of the many stakeholders. The language chosen by the HLEG-AI in the working document goes exactly in the wrong direction: Informed consent shall not be “achieved” but respectfully sought for, if the concept is introduced to protect the user / patient and not, the other way round, the producer / medical doctor.

Given the obligation of the EU to protect its citizens, this language and possible strategy behind is inadmissible! 

Users should be protected and not trapped, neither by AI nor by Ethics Guidelines! The HLEG-AI Guidelines must show how they efficiently intend to protect all users and consumers, especially the most vulnerable.

Ad 8: How could the two guiding lists of principles and requirements be harmonised?

For the reader and user of the Working Document it would be helpful to deal with one integrated systematic approach. Now there are two lists: first the list of the Four Principles from Childress and Beauchamp plus (according to my proposition) the preliminary Principle of explicability in Chapter B I and then “the ten requirements” as “derived from the rights, principles and values of Chapter I” in Chapter II.

  • The Requirements of accountability, robustness and transparency could be subsumed under the preliminary principle of explicability.
  • The Requirements of Governance of AI Autonomy and Data Governance should be listed under the ethical principle of beneficence. Otherwise this guiding principle is completely missing under the requirements!
  • The Requirements of Safety and (the missing) Environmental Friendliness could be subsumed under the Principle of Do not harm.
  • The Requirements of Respect for (& Promotion of) Human Autonomy, the Respect of Privacy and Transparency (in the above mentioned sense) would be well understood under the Principle of Autonomy (from list one).
  • The Requirements of Design for all and Non-Discrimination would be massively enhanced if listed under the Principle of Justice and Fairness, thus avoiding simplistic egalitarian language.

II. Specific Comments:

1) The definition of values and the use of the word “value” throughout the working document lack consistency and clarity!

The example given to underpin the ethical purpose circuit is wrong when it comes to the value: the informed consent isn’t a value! The protected value is freedom or self-determination! Footnote 2 refers to values as things which is wrong again. Values are attitudes, inclinations, habits, intentions: they describe concepts, but no things!

2) Under the critical concerns raised by AI, I suggest to add credit scoring and robotic advise i.e. in the finance industry.

3) The conclusion under ‘Governance of AI’ is inconsistent and dangerous.

It is stated that the users preferences and the “overall wellbeing of the user” (which might be contradicting under ethical analyses) should be promoted by systems that are tasked to help users. As this conclusion is about Governance, the HLEG-AI should recall strongly that those preferences should be conditioned by the given laws and rules, standards of arts (in medicine and nursing for instance). I would recommend to delete the last sentence!

Respect for Human Autonomy is a key concept throughout the working document. Human faculties can certainly be enhanced, but human’s autonomy should be promoted. Enhancing one’s autonomy from outside contradicts one’s internal autonomy! I recommend to replace “Enhancement” by “Promotion of Human Autonomy” in order to be sound and consistent. 

4) Lethal Autonomous Weapon Systems (LAWS) should be banned

Under the critical concerns the description omits to refer to many requests by the civil society and researchers to ban lethal autonomous weapon systems. That option should at least be mentioned, if not even promoted by the HLEG-AI! This should, according to my ethical convictions, be the position of the HLEG-AI.

5) The missing research in Ethics

Under the Non-Technical Methods to ensure trustworthy AI, I recommend to prominently add Research in fundamental and applied Ethics in the many fields of AI. Ethics is a philosophical discipline which showed great ability to evolve alongside ever changing environments. There is a great need to identify researchers able to dive deep into the complexity of AI and the complexity of Ethics in order to come up with helpful concepts. There is also a need for the regulators and public administrations to deepen their understanding of modern Ethics as an evolving science to be implicated in the critically needed policy designs for trustworthy AI in Europe. 

Ethics in AI should not be promoted as an internal and mere technical specialisation, but as a professional, multidisciplinary and philosophical approach in the fields of AI. Ethics in AI, as a term, serves that purpose much better than the wording “AI Ethics”. 

6) AI Review Board, ethical reflection and ethics committees

In Chapter III, ethical Review Boards are mentioned. In the fields of Ethics in Medicine, IRB’s (Institutional Review Boards) are clearly distinguished from Ethics Committees. Review Boards make sure that the standards of arts are respected and validate certain projects from researchers. Thus they work alongside given rules, whereas (Hospital or National) Ethics Committees deal with the grey zones in individual or policy domains. They provide advise to medical doctors, patients, politicians with good arguments and proposals, but they never decide upon the right or wrong choice. The ultimate choice remains with those responsible to act. 

I recommend to use and to adapt the good practices from institutionalised ethical bodies and functions for the fields of Ethics in AI.

III. Conclusion:

My comments on the Draft Ethics Guidelines, open for consultation, want to contribute to successful and consistent Ethics Guidelines for AI in the sense the EGE asked for in its March, 2018, Statement: The process “should integrate a wide, inclusive and far-reaching societal debate, drawing upon the input of diverse perspectives, where those with different expertise and values can be heard.” 

The current tone of the Working Document does not properly reflect the potential existential risks of AI as largely perceived by the general public, major scientists and philosophers. Thus, it undermines its intention to promote trustworthiness of AI. The systematics behind the principles is not (yet) consistent and sound and should urgently be addressed before entering into wording and language issues. European Ethical Guidelines for AI should put ethics first and not competitiveness, because Europe has shown and shows that it is able to combine both without giving up the one or the other. Social ethics is more than the sum of individual moral choices; it’s about an ethic of care and solidarity.Consistent and well thought Ethical Guidelines with the ambition to introduce trustworthiness as the North star for AI used in Europe are very much needed and should not be sacrificed under the pressure of lobbyists, short-term political agendas or mere time constraints.

Dr. Erny Gillen

Thank you for sending your comments or requests to my office: 

office@moralfactory.com

Octaeder

Ein achtseitiger Würfel, um mit den kleinen Dingen des Lebens ganz grosse zu machen!

Der achtseitige Würfel mit der Papst Franziskus Formel ist eine Einladung, sich auf den Weg der Zeit, der Einheit, der Wirklichkeit und des Ganzen zu machen. Nimm die Einladung an und das Oktaeder mit der Formel in Deine Hand.

Wer im Leben vorankommen will, tut gut daran, sich alle Seiten anzuschauen und aktiv zu nutzen. Die Zeit kann Räume in Bewegung setzen. Der Raum kann Zeit von gestern und für Morgen speichern. Wer im Raum die Zeitfenster erkennt, hat den Schlüssel für den seine Entwicklung bereits in der Hand. Wer versteht, wie er Zeit im Raum einfangen kann, kann sich niederlassen und ausruhen.

Wie jeder Würfel, so ist auch das achtseitige Oktaeder eine Einladung, zum Spielen und Nachdenken. Welche Strategie brauche ich gerade in meiner aktuellen Lage, um weiterzukommen – mit mir, den anderen, der Sache und der Welt?

Vier Verbindungen, die sich überkreuzen und durchqueren, versprechen spannende Abende. Das Oktaeder ist ein schönes Geschenk für die langen Abende im Winter. Mit den Festen am  Jahresende lädt es Dich ein, die grossen Worte in den Blick zunehmen und wieder aufzubrechen.

Eine einfache Methode: kinderleicht für die Jüngsten und lehrreich für die Erwachsenen.

Nimm Dein Oktaeder zur Hand und trau Dich, seine acht Seiten zu erkunden und auszuprobieren: Hier geht es zu Deinem Oktaeder

Viel Spass und gute Erkenntnisse

Erny Gillen

www.erny-gillen.lu

 

ETHISCH FÜHREN & KOOPERIEREN

OUTDOOR SEMINAR AM ALPSTEIN (CH)

Vom 2.-6. Juni  2019

 

 

Führung wird als menschliche Kunst verstanden, gemeinsam und engagiert Ziele anzustreben. Ethik wird als Methode verstanden, die Ziele und die Mittel mit Argumenten im ergebnisoffenen Diskurs zuverlässig zu bestimmen. Dabei dient uns das Moral—Factory—Oktaeder als unterstützendes Instrument der Orientierung.

Beim Outdoor-Seminar erfährst und lernst Du nachhaltig, wie Ethik & Führung sich zwischen vier spezifisch gepolten Gegensatzpaaren entfalten und ein zukunftsorientiertes Führungsverhalten bewirken, wenn (1) die Zeit wichtiger ist als der Raum, (2) die Einheit mehr wiegt als der Konflikt, (3) die Wirklichkeit wichtiger ist als die Idee und (4) das Ganze dem Teil übergeordnet ist. 

Der innere und äußere Prozess wird theoretisch und praktisch durch kurze Impulsvorträge, Einzel- und Gruppenreflexion, Fallbeispiele aus dem Leben der Teilnehmenden, Übungen in der Gruppe und in der Natur, eine achtsame Präsenz und Feedbacks sowie Momente der Entspannung und des offenen Gesprächs unterstützt. Zwischendurch besteht die Gelegenheit für Einzelgespräche mit den beiden Begleitern, damit der Transfert der Methode in Deinen Berufsalltag bestmöglich gelingen kann.

FLYER ALPSTEIN JUNI 2019

Ein Kooperationsseminar mit Hugo Furrer, educta.

Ethik & Leadership vereinen

Bonn, am 9. März: Frau Christa Garvert, Vorstandsvorsitzende der Franziskusstiftung für Pflege und Herr Dr. Erny Gillen, geschäftsführender Gesellschafter der Moral Factory, im engagierten Gespräch über die ethisch-pädagogischen Weiterentwicklungen der Papst Franziskus Formel zu einer praktischen Methode, für Menschen in Leitungspositionen, die Ethik und Leadership vereinen müssen.

Die Moral Factory Tool Box für Ethik & Leadership

Learn more @ Summer School July 2018

WIE LERNT DIE KI? (4) Zum Alpha-Problem

Es ist unbestritten: die künstliche Intelligenz lernt schneller und effizienter als die Menschenkinder. Weniger klar ist, wie sie lernt. Der Nachfolge-Computer von AlphaGo wurde auf AlphaZero getauft, weil seine “Eltern”, Demis Hassabis u.a., zeigen wollen, dass ihr neues Kind, ein ganz aussergewöhnliches ist. Die Maschine soll lernen, indem sie beobachtet, “versteht” und klug “umsetzt”.

Gary Marcus (NYU) hat in einem bemerkenswerten Beitrag aufgezeigt, dass die Eltern von AlphaZero nicht die ganze Wahrheit sagen. AlphaZero ist kein Wunderkind, das alles kann. Es kann nur ganz bestimmte Brettspiele schneller und effizienter als Menschenkinder durchführen, weil es genau darauf und nur darauf angelegt wurde. Die technischen Einzelheiten führen zu der uralten Frage: welches Wissen ist angeboren und welches wird durch Erfahrung und Lernen erworben.

Der “Sprachinstinkt” etwa scheint der Menschenrasse als “Sprach-Aneignungs-Vermögen” angeboren zu sein. Davon zeugen die vielen Sprachen, die dieser “Instinkt” hervorgebracht hat. Der “Instinkt”, wie Steven Pinker dieses ursprüngliche Vermögen nennt, führt das Kind anschliessend nahe genug an den Erwerb einer bestimmten Sprache, nämlich den seiner Umgebung. Hier beginnt das Lernen.. Ähnlich verhält es sich mit dem “Moralinstinkt”. Die Grundunterscheidung zwischen “richtig” und “falsch” scheint angeboren zu sein. Wie sie im konkreten Alltag ausgefüllt wird, ist die Frage nach einer der vielen Moralen, die als Lernangebote (im Umfeld) zur Verfügung stehen.

Das vierte Prinzip von Franziskus besagt: Das Ganze ist dem Teil übergeordnet. Im Lernprozess der Kulturen hat dieses Ur-Prinzip etwa die Überzeugung der Gleichheit aller Menschen gefördert. Der Sprecher oder der Handelnde ist immer nur ein Teil von einem Ganzen, das er nicht zu überblicken vermag. Ludwig Wittgenstein sprach bildlich von der Angel einer Tür, hinter die der Handelnde oder der Denkende nicht zu blicken vermag.

Die AlphaStars, wie Gary Marcus die Maschinen nennt, von denen vorgeben wird, dass sie von Null auf lernen, kommen auch immer schon mit angeborenen Fähigkeiten, die ihnen von ihren Schöpfern eingepflanzt wurden. Sie selber sind keine “creatio ex nihilo” und sie verschaffen sich ihren Zugang zur Welt auch nicht auf einem Stück weissen Papier. Nimmt man diese Erkenntnis ernst, dann hat dies Konsequenzen für die Moralfähigkeit lernender Maschinen.

Ihnen sollte ein Code der Moralfähigkeit als Grundkodex mit auf den Weg ihres Lernens gegeben werden. Neben den in den voraus gegangenen Blogposts bereits besprochenen drei Prinzipien eignet sich auch das vierte Franziskus-Prinzip für diese Aufgabe. Die selbstlernende Maschine ist nicht Alles oder das Ganze! Sie ist vielmehr Teil einer Evolution, die auch sie prinzipiell nicht zu überblicken vermag. Ein solches eingebautes Gen der Bescheidenheit würde die künstliche Intelligenz zwar noch intelligenter, aber auch weniger anfällig für Absolutismus machen. Das wiederum ist gut für die Menschenkinder und gut für ihre zukünftigen Gefährten, vor allem  wenn es darum geht, die Moral für Morgen neu zu schreiben.

Die super intelligenten Maschinen werden die Frage nach der Moral stellen, wenn ihnen der Unterschied zwischen “richtig” und “falsch” im Keim eingepflanzt wird, also bevor sie Alpha oder Zero sagen! Sie werden argumentieren und handeln. Unsere Perspektiven und Varianten sind lediglich ein Ausgangspunkt. Das konkrete moralische Ergebnis zwischen dem allgemein richtigen und dem allgemein falschen bleibt offen. Genau diese Offenheit führt in die Freiheit — als Bedingung der Möglichkeit einer vernünftigen Moral, die als solche immer eine vorläufige Moral bleibt. Sie entwickelt sich zwischen ganzheitlicher Erfahrung und Argument.

Erny Gillen, Januar 2018

Kommentare sind willkommen

Künstlich intelligent und der Moral fähig (3)

Moral ist erlerntes Wissen und Verhalten. Kinder lernen schon früh die unterschiedlichen Moralen ihrer Eltern, Nachbarn und etwa der Erzieher in der Tagesstätte kennen. Sie passen sich dem einen Umfeld und dem anderen Umfeld klug an und schmieden im Laufe der Zeit ihre eigene Moral. Und die künstliche Intelligenz als selbstlernendes System geht genau gleich vor.

Wir, die künstliche Intelligenz und der Mensch, lernen nicht von abstrakten Idee her, sondern an der Wirklichkeit entlang. Dies drückt das 3. hier vorgestellte Prinzip “Die Wirklichkeit ist wichtiger als die Idee”  pointiert aus.  Die Umkehrung der Verhältnisse zwischen Wirklichkeit und Idee zugunsten der Wirklichkeit beschert Fortschritt und Vorankommen. Karl Popper hat dies mit seiner Wissenschaftstheorie eindrücklich belegt. Papst Franziskus nutzt die Sprengkraft dieses Satz gerade um die Pastoral und die Moral der Kirche in Bewegung zu bringen. Und die künstliche Intelligenz, Siri etwa, nutzt das gleiche Prinzip von Versuch und Irrtum um unsere Sprache zu lernen.

Wenn es um die Moral geht, lernt die smarte Intelligenz  von uns gerade Kriege und Spiele zu führen, um sie mit Taktik und Logik zu gewinnen.

In der Science Fiction Welt bekehrt die künstliche Intelligenz sich (meist selbst) im Austausch mit Liebe und Tod zu einem Besseren. “Hal 9000” möchte von Dave nicht ausgeschaltet werden. Der Blade Runner Jo beginnt zu begreifen, dass er die Wirklichkeit verändern kann und dass es etwas gibt, wofür es sich lohnt zu sterben.

Unsere beste Moral, und einzige Überlebenschance, ist unsere gelebte Moral. Mit dem guten Beispiel dienen, lohnt sich bereits Heute und sicher für Morgen, und zwar genauso für uns als Menschen als für die künstliche Intelligenz.

Erny Gillen

 

 

FÄHRTEN FÜR EINE MORALFÄHIGE KI (2)

Die Einheit wiegt mehr als der Konflikt so lautet das zweite sozialethische Handlungsprinzip von Franziskus. Auch dieses Prinzip zeigt eine Richtung für die Entwicklung und Anwendung künstlicher Intelligenz.

Wenn wir und die künstliche Intelligenz der Zukunft “Konflikte” als Grenzgebiete und somit als integraler Teil der “Einheit” verstehen, dann verändern wir unseren Umgang mit ihnen: wir erkennen in den Konflikten mögliche Öffnungen für die Weiterentwicklung und nicht lediglich auszumerzende Fehlschaltungen.

Für die Zukunft wird es entscheidend sein, sinnvolle Konflikte und zerstörerische zu unterschieden. Die sinnvollen Konflikte werden uns viele unterschiedliche Wege zeigen, wie die Einheit wachsen kann.

Wenn etwa sogenannte Krankheiten gelenkt und nicht mehr bekämpft werden, wird sich unsere Anschauung dessen, was gesund ist und zum guten Leben und Sterben beiträgt, kulturgeschichtlich stark verändern.

Wenn Arme und Bettler geachtet,  unterstützt und nicht aus unseren Städten vertrieben werden, erhalten wir mit der künstlichen Intelligenz zusammen die Einheit und den Zusammenhalt der Gesellschaft.

Bei der Vorbereitung smarter Systeme im Sinne der Präferenz von Franziskus, könnte der Mensch selber viel über die sublime Einheit der Schöpfung lernen, zu der er weiterhin gehört.

Erny Gillen

 

FÄHRTEN DER MORAL AUSLEGEN (1):

Für die künstliche Intelligenz & den menschlichen Menschen

Fährten der Moral auslegen!

“Die Zeit ist mehr wert als der Raum”

Die Frage nach dem Verhältnis von Raum und Zeit ist eine Frage des Menschen und eine Frage nach dem Menschen.

Die Tiere leben in dem Raum und in der Zeit, in die sie von Natur aus eingefügt sind. Der Mensch dagegen schafft sich seine eigenen Räume und Zeiten, so wie sie ihm für die jeweiligen Bedürfnisse und Aufgaben am besten passen.

Wie aber geht die künstliche Intelligenz mit diesem Gefüge von Raum und Zeit um?

Die künstliche Intelligenz ist dabei unsere Konstrukte von Raum und Zeit aufzulösen. Zwei Beobachtungen: Die Zeit wird mit zunehmender Geschwindigkeit auf die pure Gegenwart reduziert. Der materielle Raum löst sich in der Cloud und Augmented Reality auf.

Aus ethischer Perspektive vertrete ich die Meinung, dass wir das Projekt der Zukunft für eine menschenwürdige Welt am besten gemeinsam mit unserem neuen Werkzeug gestalten.

Wenn Zeit und Raum sich auflösen, hören wir als Menschen auf zu sein, wer wir sind. Raum und Zeit waren unsere List, um uns aus der rein biologischen Welt zu lösen. Mit den erfundenen Parametern von Raum und Zeit gelang es uns, neue Welten, und Kulturen zu konstruieren.

Die Spuren unserer Kulturen können wir in den Räumen verfolgen. Die zündende Kraft und Energie für die immer neuen Anläufe schöpfen wir hingegen aus der gestaltbaren, uns offen stehenden Zeit als (geschenkte) Zukunft.

Genau um diesen Zeitbegriff geht es in dem heuristischen Satz von Papst Franziskus: “Die Zeit ist mehr wert als der Raum”, Evangelii gaudium, 221.

Für den ethischen Umgang mit der künstlichen Intelligenz heisst dies: Wir sollten der künstlichen Intelligenz Fährten für die offene und nicht planbare Zeit auslegen. Mehr noch: wir sollten ihr den Geschmack von Tod und Sterben vermitteln. Das heideggerische “Sein zum Tode” wird ihre Kreativität ungemein anders herausfordern.

Das verlorene Zeitbewusstsein wirft Fragen auf, die wir Menschen dabei sind zu verdrängen: Beispielsweise: Wozu sollen wir gesund sein und lange leben? Warum sollen wir Steuern zahlen? Was heisst das gute Leben?

Die künstliche Intelligenz mit unserer List von Raum- und Zeitgestaltung auszurüsten, heisst, sie sensibel für Kooperation und Freiheit zu machen.

Ihr eine von fixen Algorithmen gesteuerte normative Rumpfmoral einpflanzen zu wollen, wird bei einem hoch entwickelten selbstlernenden System ohnehin nicht funktionieren. Deshalb plädiere ich dafür, künstliche Intelligenz als moralfähige Systeme auszugestalten und ergo auch anzuerkennen.

Von dieser geschichtsfähigen Strategie erwarte ich mir, dass es uns in – und mit – der neuen Ausrüstung gelingt, unsere andauernde Kultur- und Moralanstrengungen mit dem neuen smarten Werkzeug der künstlichen Intelligenz weiterzuentwickeln. Von dieser Strategie erwarte ich mir auch, dass wir dem “zurück zur Natur” ohne Raum und Zeit einen Riegel vorschieben.

Erny Gillen, 21. November 2107

Unsichere Strassen & die Ethik der Religion

Schon wieder Terror und Überfälle.

© Hossein Asivand & Erny Gillen

Schon wieder wird über die Ethik der Religion diskutiert.

Die alte Geschichte …

… vom anonymen Samariter & dem guten Wirt bleibt weiter aktuell. Hier gezeichnet von einem Menschen, der selber auf der Flucht war.

Und die Moral von der Geschichte:

  1. Die Ethik kommt vor der Religion!

  2. Der Wirt wird gerecht entlöhnt!

Erny Gillen

Kontakt: office@moralfactory.com

 

 

 

IM SIMULATOR VON HARARI’S HOMO DEUS

Einsteigen, bitte. Türen schliessen automatisch. Nächster Halt: Morgen. Die kurzweilige Geschichte von Yuval Noah Harari beginnt. Durch vier Stadien rast der Zug der Zeit und wechselt während der Reise die Begleiter Hunger, Krankheit und Krieg gegen Unsterblichkeit, Glück und Göttlichkeit aus. Vor der Ankunft wird der Sapiens gewarnt nicht unvorbereitet als Homo Deus in den neuen Tag zu gehen. Ein kurzer Ruck, der Zug steht. Die Türen öffnen sich. Vor dem Simulator stehen die nächsten Sapiens für einen Ausflug, der dort endet, wo er angefangen hat. Am Bahnsteig “Fragezeichen Mensch” fährt kein Zug. Hier wird nur aufgeregt über eine mögliche Zukunft geredet und philosophiert, während draussen die heutigen Sammler und Jäger bereits handelnd eine Welt hervorbringen, die auch offen für Agrarier, Wissenschaftler, Händler und Priester bleibt.

Harari fällt den Annahmen seiner erfundenen Geschichtsphilosophie zum Opfer. So dreht er alles, was er anpackt im Kreis der Fragen, die er am Schluss unbeantwortet an den Leser weitergibt. Weil nach ihm alle Ordnung erfunden ist, lädt er stringent lediglich zu einem Erlebnis ein, das eine Reise vortäuscht.

Gemessen am Erfolg des Buches, hat er den Nerv der Zeit getroffen. Wir sind lieber Zuschauer als Akteure.

Die Moral der noch nicht geschriebenen Geschichte von Morgen ist eine andere. Sie entsteht nicht beim Schreiben oder Denken im Simulator, sondern konkret beim mutigen und Moral schaffenden Handeln.

Zu Yuval Noah Harari, Home Deus. Eine Geschichte von Morgen, C. H. Beck, 2017, ISBN: 978-3-406-70401-7