Der deutsche Ethikrat geht seinen eigenen Weg und zerlegt ganz nebenbei das von der EU beworbene Konzept einer vertrauenswürdigen KI.
Fast drei Jahre nach dem die Europäische Kommission die “Ethik-Leitlinien für eine vertrauenswürdige KI” (April 2019) einer sogenannten “hochrangigen Expertengruppe für künstliche Intelligenz” publiziert https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai und zu grossen Teilen für ihre eigene Arbeit übernommen hat, stellte nun der Deutsche Ethikrat am 20. März seine Stellungnahme zum Themenkomplex vor. Der Unterschied in den Ansätzen könnte nicht grösser sein und der Ethikrat ist sich dessen bewusst, wenn er festhält, dass er “auf einer anderen Ebene” https://www.ethikrat.org/pressekonferenzen/veroeffentlichung-der-stellungnahme-mensch-und-maschine/ an den “reichhaltigen Fundus an ethischen Leitlinien und (…) rechtlichen Regulierungsansätzen” anknüpft.
Mit der anderen Ebene ist die Einschätzung der philosophisch anthropologischen Ausgangslage gemeint. Anders als die Europäische Kommission und ihre Berater geht es dem Deutschen Ethikrat nicht um die Wettbewerbsfähigkeit der Union und die bewusste “Förderung einer vertrauenswürdigen KI”, sondern um ein tiefer liegendes Verständnis neuer technischer Möglichkeiten und deren vielfältigen Interaktionen mit dem Menschen und in der Gesellschaft.
Entsprechend zurückhaltend ist der Deutsche Ethikrat, wenn es um eine globale Beurteilung der KI geht. Mit vielen Beispielen aus Medizin, Bildung, Medien und öffentlicher Verwaltung zeigt er exemplarisch und fachkundig, dass es auf die einzelnen Anwendungen und deren von Menschen bestimmten Zielrichtung ankommt. Deshalb sind denn auch nur differenzierte und von den Anwendungskontexten und -zielen abhängige Urteile hilfreich.
Das Wort “vertrauenswürdig” kommt in dem 280 Seiten starken Dokument fünfmal vor und verweist dabei neben der Publikation der hochrangigen Expertengruppe auf weitere Publikationen. Der Ethikrat entmythologisiert die neuen Techniken, indem er lapidar feststellt: “Die Anthropomorphisierung digitaler Technik ist in der Umgangssprache weit fortgeschritten” (S.125) Diesem “automation bias” unterliegt der Ethikrat nicht. Er wiederholt nicht einfach das anders, was schon viele andere Autoritäten in den öffentlichen Raum und Diskurs eingespeist haben, sondern bleibt seinem Anspruch einer anderen Ebene treu indem er “die Verwendung des Ausdrucks ‘Intelligenz’ in der Wortverbindung ‘Künstliche Intelligenz’ eher als Metapher” (S. 93) einordnet.
Auch wenn der Ethikrat sich kurz mit den Vorschlägen “geteilter Moralität” oder geteilter Verantwortung auseinandersetzt, hält er unmissverständlich fest, dass Moral und Verantwortung in der Philosophie neben dem Können, Vernunft und Freiheit voraussetzen. Ein enger Handlungsbegriff, “der an das zentrale Kriterium der Intentionalität gebunden ist”(s. 100), wird dem Menschen definitorisch vorbehalten. Damit fällt alles andere Tun unter den Begriff der Maschine. Auch wenn dieses technische Tun bisweilen menschliche Intelligenz, Handeln oder Verstehen simuliert, sollten kritische Menschen sich etwa durch anthropomorphe Sprache (vertrauenswürdige Maschinen lernen, verstehen, kommunizieren, …) nicht verführen lassen, diesem Absichten anzudichten.
Dem Ethikrat geht es im zweiten entscheidenden Gedankengang und anschliessend an seine “Bereinigung” der benutzten Datenmengen um das Verhältnis von Mensch und Maschine. Von seinem eingenommen moralischen Standpunkt aus beurteilt er in unterschiedlichen Bereichen und grundsätzlich die sogenannten “ADM-Systeme” (algoritmic / automated decision-making). Mit Bezug auf Artikel 22 der EU-Datenschutz-Grundverordnung soll kein Mensch zum Objekt einer allein auf Algorithmen basierenden Bewertung gemacht werden. ADM-Systeme können und sollten durchaus als “decision support systems” (S. 226) zur Anwendung kommen, weil sie nachgewiesenermassen in manchen Bereichen der sozialen Gerechtigkeit weniger anfällig für Verzerrungen und Vorurteile sind als etwa routinierte Sozialarbeiter oder Beamte.
Immer wieder warnt der Rat, dass Menschen, die mit KI-getriebenen Systemen arbeiten, die Oberhand behalten müssen. Deshalb müssen sie in der Ausbildung, Fort- und Weiterbildung sowie in den Unternehmen und Verwaltungen entsprechend unterstützt werden. Ziel muss immer die “Erweiterung menschlicher Autorschaft” (S. 248) sein und nicht etwa die blosse Effizienzsteigerung oder Einsparung von Personal.
Kritisch und innovativ zeigt sich der Ethikrat, wenn er — gegen den allgemeinen Trend in Europa — “neue Wege” im Umgang mit am Gemeinwohl orientierter Daten ins Gespräch bringt und Abstand von einer “vornehmlich individualistisch geprägten und damit verkürzten Perspektive” (S. 276) nimmt. Auch hier gilt es Risiken und Chancen von KI-Anwendungen undogmatisch und kritisch im Blick auf ihren Beitrag etwa zu einer besseren Gesundheitsversorgung abzuwägen.
Er bricht folgerichtig eine Lanze für die “Entwicklung geeigneter Verfahren und Institutionen” um KI-Anwendungen in Forschung und Gesellschaft “kontextspezifisch und demokratisch” (S. 283) zu beurteilen.
Der philosophisch gut fundierte Ansatz des Deutschen Ethikrat mag überkomplex gegenüber etwa den unterkomplexen Ethik-Leitlinien der EU wirken. Er schreibt sich ohne Wenn und Aber in die Tradition klassischer Philosophie ein und zeigt, dass es möglich ist, allgemein abgestützte Ethik auch in den vielfältigen Bereichen digitaler Techniken anzusiedeln und zu implementieren. Die lesenswerte Stellungnahme zeigt dies immer wieder anschaulich an konkreten Beispielen.
Ob sich die “andere Ebene” auf europäischer Ebene durchsetzen wird und sich eine genuine Ethik in den digitalen Techniken entfalten wird, ist offen. Es bleibt zu wünschen, dass diese neue und andere Ebene nicht nur in Deutschland rezipiert und kritisch besprochen wird, sondern weit darüber hinaus und vor allem innerhalb der Europäischen Union und ihren Gremien.
Als Feuer und Wasser die Kathedrale Notre Dame in Paris am 15. April vor einem Jahr gleichermassen bedrohten, waren Augenmaß und viele kleine Entscheidungen nötig, um das Grundgerüst nicht zu überfordern. Keine Generalprobe hatte ein solches Inferno vorgesehen. Es kam auf die Professionalität der Feuerwehrleute und deren Leitung an. Noch während der Brand schwelte, kamen die ersten Zusagen und Versprechen aller Art für einen raschen Wiederaufbau. Als der Schaden Wochen später erhoben war, wurden Vorschläge eingebracht und ausgewertet, wie die Neue Kathedrale Notre Dame in Zukunft aussehen sollte. Das neue Denkmal würde anders aussehen und die Geschichte und Erfahrungen des verheerenden Brandes integrieren.
Ein neuer gesellschaftlicher Pakt entsteht
Noch in der Nacht selber hatte Präsident Emmanuel Macron das Heft in die Hand genommen und einen Ordnungsrahmen für die Zukunft geschaffen. Ähnliches erleben wir dieses Jahr in der ganzen Welt angesichts der Corona-Pandemie. Politiker ergreifen ihre legitime Macht und schaffen innerhalb kürzester Zeit Verhältnisse, die der nur schwer einschätzbaren Situation so gut wie möglich Rechnung tragen. Sie tun das zumeist im Einverständnis der Bürgerinnen und Bürger, die allein in der Lage sind, das Blatt exponentiell so rasch zu wenden, dass das hochgekrönte Virus das Rennen um unsere Atemluft und Nerven vorerst einmal verloren hat. Noch ist der Druck auf dem Gesundheitssystem hoch, das seine Tragfähigkeit auch durch die übermenschliche Kraft und Resilienz vieler Ärztinnen, Pfleger und Mitarbeitenden behaupten konnte.
Schon kommt der Druck von der Wirtschaft, die kollateral ebenso stark leidet. Ihr Wiederaufbau benötigt heute ebenfalls Helden, die bereit sind, unter dem Risiko ihrer Existenz neu anzufangen. Dies wird dann gelingen, wenn die Politik ihre gerade erst wiedergefundene Macht behält und Rahmen für die Ordnungspolitik der Zukunft vorgibt. Der gerade offen gelebte neue Pakt zwischen Völkern und ihren Regierungen sollte nicht vorschnell zugunsten von sich behaupten wollenden Einzelinteressen wieder gebrochen werden.
Retro-topia oder Utopia ?
In dem Zusammenhang lohnt sich einen Blick in das letzte Werk des 2017 verstorbenen grossen polnisch-britischen Soziologen und Philosophen Zygmunt Baumann zu werfen. Unter dem vielsagenden Titel “Retrotopia” führt er das Unbehagen in der Gesellschaft und die stetig wachsende Tendenz, die Zukunft in der Vergangenheit zu suchen, gerade auf das Auseinanderfallen von Macht und Politik zurück. Die neue, durch das Corona-Virus ermöglichte, kollektive Lage hat Macht und Politik wieder wirkmächtig zusammengeführt. Diese birgt für die Gesellschaft und ihre Politik neue Chancen und Risiken, die nur gemeinsam mit einer Wirtschaft im Dienste des Gemeinwohls bewältigt werden können. Eine neue, von Politik und Gesellschaft vorzugebende, Wirtschaftsordnung sollte den Anspruch haben, an einer besseren Welt für viele Menschen mit zu wirken.
Es gibt kein Zurück in eine vermeintlich goldene Vor-Corona-Zeit. Solche Vorstellungen wären nach Baumann nichts als rückwärtsgewandte Retrotopien. Für die Post-Corona-Zeit werden Utopien, oder weniger futuristisch formuliert, Ziele und Pläne gebraucht, die sowohl Corona-fest als auch sozialethisch-fest sind. Der Dialog um eine feuerfeste und wassergeschützteGesellschaft sollte nicht hinter verschlossenen Türen geführt werden, sondern in den Parlamenten und mit den Bürgerinnen und Bürger. Die Wirtschaft könnte sich dieses Mal im kreativen Zusammenspiel mit den Gemeinschaftsgütern Gesundheit und Klima selber zu einem weiterhin privat bewirtschafteten Gemeinschaftsgut im Dienste des Gemeinwohl entwickeln. Bürger und Politik haben bewiesen, dass sie der aktuellen Gesundheitskrisegewachsen sind. Sie können dieses Mal auch beweisen, dass sie der kommenden Wirtschaftskrisegewachsen sind, wenn sie sich weiter transparent und im Dialog für das Gemeinwohl einsetzen.
Wirtschaftliche Hilfe für die Helden des Gemeinwohls
Bis auf Weiteres wird sich, in dieser Utopie, niemanden daran stören, wenn wirtschaftliche Hilfen für Unternehmen daran gebunden werden, dass die dank einer kollektiven Anstrengung erst möglichen und nötigen Gewinne hundertprozentig zurück in die Gemeinschaftskasse der Bürger fliessen. Ein zurück in die alte Welt rein privater Interesse wäre ein zurück in Muster von ungerechter Diskriminierung und Macht des Stärkeren.
Ich freue mich auf die Zeit, wenn bedingungslos geschützte Bürgerinnen und Bürger um 21 Uhr am Abend auf den Strassen und in den Häusern innehalten, um einer Wirtschaft zu applaudieren, die unter dem Risiko ihrer Existenz einen weiteren Menschen aus der Armut gerettet hat und ihre Türen weiterhin unterschiedslos für alle offenhält, die Arbeitskraft und -wille anbieten. Die Verantwortlichen und Kapitaleigner der Wirtschaft können in dieser Krise viel über ihre sogenannten Arbeitskräfte oder Human Resources von den aktuellen Heldinnen des Gesundheitswesen, den Verkäufer hinter der Brottheke, den Fahrerinnen und den unzähligen Ehrenamtlichen lernen. Wenn es um Menschen geht, wird nicht gerechnet!
Wir. Macht. Politik.
Das Momentum der neugefundenen kosmopolitischen Einheit unseres Menschengeschlechts sollten wir nicht ungenutzt verstreichen lassen. Auch die neue Macht der Politik ist im demokratischen Staat immer nur delegiert und geliehen, um die Schrecken eines jeden gegen jeden und alle zu domestizieren. Der bisweilen ungehemmte Kampf zwischen unbescholtenen Supermarktkunden um ein paar Klorollen wird emblematisch in Erinnerung bleiben. Das Tier im Menschen bedarf der Zähmung, genauso wie die Gier in der Wirtschaft gezügelt werden muss.
Es wäre verheerend für unser Demokratieverständnis, müssten Wir nach dem Aufheben des Lockdowns feststellen, dass die unsichtbaren Berater die neu gewonnene Macht schon wieder feinsäuberlich von der Politik geschieden haben, um sie in ihrer unsichtbaren Hand zu behalten. Zygmunt Baumann schliesst sein Buch Retrotopia mit einem Satz, dem nichts beizufügen ist: “Entweder wir reichen einander die Hände — oder wir schaufeln einander Gräber.”Wir. Macht. Politik.
A Contribution to the Consultation of the Draft Ethics Guidelines For Trustworthy AI, produced by the European Commission’s High-Level Expert Group on Artificial Intelligence
By Erny Gillen, Ethicist, Luxembourg
Introduction
The working document published December, 18, 2018, for consultation until January 18, 2019, makes trustworthy AI it’s north star through ensuring AI’s ethical purpose and it’s technical robustness.
My contribution will address the intended ethical purpose issue through eight major systemic questions. It intends to clarify the core directions taken by the AI-HLEG in the working document and thus, to contribute to a successful and ethics first AI strategy within the EU. In the second part I add specific comments.
Before, nevertheless, entering into any systematic and content discussion, I must raise my deep concern about the process and the related risks for a good outcome.
I. Process issues and related risks
The credibility and plausibility of the Draft Guidelines strongly depends on their explicability, to use the term introduced by the HLEG-AI as a precondition for trustworthiness (of AI). The Working Document is silent notably about the rationale of the composition of the HLEG-AI, the reasoning behind operated methodological and content choices, the culture and style of internal dialogue processes, the limitations of this consultation, organised in the midst of major holiday breaks (where even the EU-AGM system stands still), …
Those pitfalls would — according to the Guidelines — not be accepted if performed by any AI system. But more importantly they do harm to the core intentions of the Guidelines and its accompanying process, as wished in March 2018 by the EGE. I strongly recommend to reconsider the timeline and show true openness for discussing and integrating divergent opinions. Following the EGE the process should foster “a dialogue that focusses on the values around which we want to organise society and the role that technology should play in it”.
The final Guidelines should, for instance, clearly demonstrate that they do not primarily serve the interests of those called to be members of the HLEG, especially the many directly involved, and prima facie overrepresented AI companies and their academic consultants, but the European citizens.
I’m painfully aware that it is hard to organising a fair process under time constraints and political deadlines. I, nevertheless, urge the HLEG-AI to reconsider the chosen path, notably also because of the weaknesses in its systematics, as I will demonstrate with the following systemic issues to be addressed first.
II. Eight systemic issues remaining vague, ambiguous or unanswered
Who is the moral / legal subject of trustworthy AI?
How should AI users be protected?
How will a human centric approach (vs. a humane approach) distinguish good and bad intentions, right and wrong actions within a human community composed of people of good will and terrorists?
How can be assured that ethics is more than a mere function of and for competitiveness or a risk for AI innovation?
How can the EU promote trustworthy AI made in other parts of the one world?
Which consistentprinciples should guide the interaction between human users and AI driven systems?
How must the concept of ‘informed consent’ be designed to serve and to protect users?
How could the two guiding lists of principles and requirements be harmonised?
Ad 1: Who is the moral / legal subject of trustworthy AI?
The working document refers to a broad range of subjects while addressing trustworthy AI. Sometimes AI is referred to as the virtual acting subject or the grammatical subject; on other occasions AI seems to be the object of the ethical guidelines. In this case, developers, researchers, producers and even users become the addressees of the guidelines and thus the subject for the trustworthiness of AI.
It would be helpful to clarify this issue right from the beginning.
I would recommend to accept AI partly as the subject of these guidelines from level 3 onwards, following the classification in footnote 24, and to introduce a well thought through concept of shared responsibility for developers, researchers and producers. In this sense AI would be part of a collective subject for which i.e. a special legal body could be created within a new legal framework for autonomous systems (cf. discussions around the Maddy Delvaux proposition in the EU-Parliament).
Ad 2: How should AI users be protected?
The Draft Guidelines should not mix up users (consumers) and producers. This is paramount for the concept of trustworthiness and for the consistency of the chosen approach, if the HLEG-AI wants to maintain the logic behind the 4 + 1 Principles as inspired by biomedical ethics. Those principles were meant by James Childress and Tom Beauchamp to organise the interaction between the asymmetric competent healthcare professionals on the one hand and the vulnerable patients on the other hand by imposing, according to the tradition of Hippocrates, the burden for the implementation of this specific ethos to the professionals. I’m aware that in some cases the lines between users and producers blur, but that should not happen within the Guidelines.
The EU has a clear role in consumer protection, that should not be given up in the field of AI, especially if the aim is to promote trustworthiness of AI. Mixing up stakeholders is an unacceptable trap, as is the subordination of ethics to competitiveness.
Ad 3: How will a human centric approach (vs. a humane approach) distinguish good and bad intentions, right and wrong actions within a human community composed of people of good will and terrorists?
I completely share the concern that AI should aim at “protecting and benefiting both individuals and the common good”. But, the term “human centric approach”, as coined in the working document, is strongly misleading. The human community is diverse and many interests are competing with others. But, there are generally accepted red lines about what is bad and wrong. Those boundaries constitute our societies and protect citizens. AI should not serve those members of the human family who, for instance, follow criminal intentions or put at risk citizens or the society as a whole.
In order to semantically avoid the underlying misunderstanding the HLEG-AI could use the concept of an “humane approach” (in the sense of beneficial or good AI) thus, introducing a partly open criterion to discern which humans to serve.
The definition in the glossary partly addresses the expressed concern by saying: “The human-centric approach to AI strives to ensure that human values are always the primary consideration … with the goal of increasing citizen’s well-being.” If this definition should be maintained I strongly recommend to change “primary” into “main” consideration and to add “in Europe accepted values” before values!
Under the imported Principle of non maleficence the notion of environmental friendliness is introduced out of the blue, thus broadening the scope for responsible AI. The crucial question whether AI should serve Life in general or the common good of the human communities is asked, but remains unanswered. The working document as a whole nevertheless promotes a “human(e) centric approach”. I recommend to add environmental friendliness at the beginning of the document as a concern of and for human life, thus including it into an inclusive “humane approach”.
Ad 4: How can be assured that ethics is more than a mere function of and for competitiveness or a risk for AI innovation?
In the working document there is a tendency to subordinate ethics to competitiveness. I do agree that ethics can and should foster responsible competitiveness. But, any ethic, worth its name, should not be reduced to simply serve a predefined, but limited ethical purpose, like competition. Ethical reflection can’t be domesticated without aborting it, especially within Ethics Guidelines!
I recommend that the normal and healthy tension between competitiveness and ethics should be acknowledged and productively be used for the development of an ever evolving ethical discourse and an evolving discourse about responsible competitiveness. To semantically show this concern it would be worth not to use the term “AI Ethics”, but to talk about Ethics in AI, as it is nowadays and frequently done in Medicine, where the standard of art term would be: Ethics in Medicine and no longer medical ethics.
The working document expresses, again and again, scepticism about ethical reflection or ethical interventions. This is absolutely strange for a document which wants to promote ethical guidelines and the document should be cleaned from those jeopardising assertions.
By the same token, some authors of the working document even seem to be convinced that biases are mainly injected into AI and autonomous systems by human designers and testers. They even suggest the primacy of AI (as a subject) to overcome human born biases, as stated i.e. in the Glossary: “AI can help humans to identify their biases, and assist them in making less biases decisions”. Trustworthy AI certainly can help to identify biases, but it can also produce biases and overlook others. The ethical discernment should not unilaterally or simplistically be delegated to algorithms, as acknowledged in other parts of the working document.
Ad 5: How can the EU promote trustworthy AI made in other parts of the one world?
Even though I like the “made in Europe” brand and idea, I do not think that the EU can and should limit its ambitions to those AI systems “made at home”. The scope of these Guidelines should be AI systems used in Europe, whether made in China or the US. If the EC really wants to promote trustworthy AI, it should envisage to address all systems used on its territories.
As this ambition is clearly mentioned as a goal for the longer run, the HLEG-AI should relinquish the expression “made in Europe”.
Ad 6: Which principles should consistently guide the interaction between human users and AI driven systems?
Introducing the four generic principles from the field of ethics in bio-medicine as overarching principles into the fields of AI is certainly of good pedagogical value and easy to communicate. But, exporting this set of principles necessarily also introduces the invisible line of power balance between AI (as a subject or as part of a collective subject) and the users. The analogy between medicine and patients on the one hand and AI and the users on the other hand does not fully match. More thought and research should be invested in this possible, but limping analogy.
Despite diverse criticisms the four principles have shown that they are able to build a consistent and relatively easy to transmit framework. One of their strengths lies in the presumption that they are comprehensive. The working document, inspired by An Ethical Framework for a Good AI Society, adds a fifth principle which from the perspective of the four Principles, by Childress and Beauchamp, could easily be subsumed under their third Principle of Autonomy. The added Principle of Explicability explicitly refers to the concept of “informed consent” which would be typically a part of the principle of autonomy within the original framework.
In order to be consistent and original (in both senses), I recommend to stay with the four principles and to include the transparency concern (included in the explicability principle) into the third Childress and Beauchamp Principle of autonomy.
The larger problem of explicability in the sense of intelligibility and explainability should be addressed outside of the four comprehensive principles. It best fits as a conditio sine qua non introduction to the set of the four principles, because all four imminently depend on the explicability of AI as an input for ethical consideration, reflection and decision-making. Thus, the fifth Principle should not be part of the closed list of the four principles, but a preliminary principle conditioning the set of the four principles.
Ad 7: How must the concept of ‘informed consent’ be designed to serve and to protect users?
There are numerous academic and practical discussions around the validity of the concept of ‘informed consent’ and its meaningful understanding in Medicine and Ethics. Nonetheless it works properly in contexts where embedded into an ethic of care, supporting and promoting the autonomy of the weaker part, while simultaneously excluding dominant or paternalistic behaviour exercised by an asymmetrically more powerful part.
As the Draft Guidelines under scrutiny do not distinguish clearly between the different stakeholders and their (legitime) divergent interests, the introduction of the concept ‘informed consent’ jeopardises its original intent. It easily becomes the loophole for all kind of strategies of the many stakeholders. The language chosen by the HLEG-AI in the working document goes exactly in the wrong direction: Informed consent shall not be “achieved” but respectfully sought for, if the concept is introduced to protect the user / patient and not, the other way round, the producer / medical doctor.
Given the obligation of the EU to protect its citizens, this language and possible strategy behind is inadmissible!
Users should be protected and not trapped, neither by AI nor by Ethics Guidelines! The HLEG-AI Guidelines must show how they efficiently intend to protect all users and consumers, especially the most vulnerable.
Ad 8: How could the two guiding lists of principles and requirements be harmonised?
For the reader and user of the Working Document it would be helpful to deal with one integrated systematic approach. Now there are two lists: first the list of the Four Principles from Childress and Beauchamp plus (according to my proposition) the preliminary Principle of explicability in Chapter B I and then “the ten requirements” as “derived from the rights, principles and values of Chapter I” in Chapter II.
The Requirements of accountability, robustness and transparency could be subsumed under the preliminary principle of explicability.
The Requirements of Governance of AI Autonomy and Data Governance should be listed under the ethical principle of beneficence. Otherwise this guiding principle is completely missing under the requirements!
The Requirements of Safety and (the missing) Environmental Friendliness could be subsumed under the Principle of Do not harm.
The Requirements of Respect for (& Promotion of) Human Autonomy, the Respect of Privacy and Transparency (in the above mentioned sense) would be well understood under the Principle of Autonomy (from list one).
The Requirements of Design for all and Non-Discrimination would be massively enhanced if listed under the Principle of Justice and Fairness, thus avoiding simplistic egalitarian language.
II. Specific Comments:
1) The definition of values and the use of the word “value” throughout the working document lack consistency and clarity!
The example given to underpin the ethical purpose circuit is wrong when it comes to the value: the informed consent isn’t a value! The protected value is freedom or self-determination! Footnote 2 refers to values as things which is wrong again. Values are attitudes, inclinations, habits, intentions: they describe concepts, but no things!
2) Under the critical concerns raised by AI, I suggest to add credit scoring and robotic advise i.e. in the finance industry.
3) The conclusion under ‘Governance of AI’ is inconsistent and dangerous.
It is stated that the users preferences and the “overall wellbeing of the user” (which might be contradicting under ethical analyses) should be promoted by systems that are tasked to help users. As this conclusion is about Governance, the HLEG-AI should recall strongly that those preferences should be conditioned by the given laws and rules, standards of arts (in medicine and nursing for instance). I would recommend to delete the last sentence!
Respect for Human Autonomy is a key concept throughout the working document. Human faculties can certainly be enhanced, but human’s autonomy should be promoted. Enhancing one’s autonomy from outside contradicts one’s internal autonomy! I recommend to replace “Enhancement” by “Promotion of Human Autonomy” in order to be sound and consistent.
4) Lethal Autonomous Weapon Systems (LAWS) should be banned
Under the critical concerns the description omits to refer to many requests by the civil society and researchers to ban lethal autonomous weapon systems. That option should at least be mentioned, if not even promoted by the HLEG-AI! This should, according to my ethical convictions, be the position of the HLEG-AI.
5) The missing research in Ethics
Under the Non-Technical Methods to ensure trustworthy AI, I recommend to prominently add Research in fundamental and applied Ethics in the many fields of AI. Ethics is a philosophical discipline which showed great ability to evolve alongside ever changing environments. There is a great need to identify researchers able to dive deep into the complexity of AI and the complexity of Ethics in order to come up with helpful concepts. There is also a need for the regulators and public administrations to deepen their understanding of modern Ethics as an evolving science to be implicated in the critically needed policy designs for trustworthy AI in Europe.
Ethics in AI should not be promoted as an internal and mere technical specialisation, but as a professional, multidisciplinary and philosophical approach in the fields of AI. Ethics in AI, as a term, serves that purpose much better than the wording “AI Ethics”.
6) AI Review Board, ethical reflection and ethics committees
In Chapter III, ethical Review Boards are mentioned. In the fields of Ethics in Medicine, IRB’s (Institutional Review Boards) are clearly distinguished from Ethics Committees. Review Boards make sure that the standards of arts are respected and validate certain projects from researchers. Thus they work alongside given rules, whereas (Hospital or National) Ethics Committees deal with the grey zones in individual or policy domains. They provide advise to medical doctors, patients, politicians with good arguments and proposals, but they never decide upon the right or wrong choice. The ultimate choice remains with those responsible to act.
I recommend to use and to adapt the good practices from institutionalised ethical bodies and functions for the fields of Ethics in AI.
III. Conclusion:
My comments on the Draft Ethics Guidelines, open for consultation, want to contribute to successful and consistent Ethics Guidelines for AI in the sense the EGE asked for in its March, 2018, Statement: The process “should integrate a wide, inclusive and far-reaching societal debate, drawing upon the input of diverse perspectives, where those with different expertise and values can be heard.”
The current tone of the Working Document does not properly reflect the potential existential risks of AI as largely perceived by the general public, major scientists and philosophers. Thus, it undermines its intention to promote trustworthiness of AI. The systematics behind the principles is not (yet) consistent and sound and should urgently be addressed before entering into wording and language issues. European Ethical Guidelines for AI should put ethics first and not competitiveness, because Europe has shown and shows that it is able to combine both without giving up the one or the other. Social ethics is more than the sum of individual moral choices; it’s about an ethic of care and solidarity.Consistent and well thought Ethical Guidelines with the ambition to introduce trustworthiness as the North star for AI used in Europe are very much needed and should not be sacrificed under the pressure of lobbyists, short-term political agendas or mere time constraints.
Dr. Erny Gillen
Thank you for sending your comments or requests to my office:
Ein achtseitiger Würfel, um mit den kleinen Dingen des Lebens ganz grosse zu machen!
Der achtseitige Würfel mit der Papst Franziskus Formel ist eine Einladung, sich auf den Weg der Zeit, der Einheit, der Wirklichkeit und des Ganzen zu machen. Nimm die Einladung an und das Oktaeder mit der Formel in Deine Hand.
Wer im Leben vorankommen will, tut gut daran, sich alle Seiten anzuschauen und aktiv zu nutzen. Die Zeit kann Räume in Bewegung setzen. Der Raum kann Zeit von gestern und für Morgen speichern. Wer im Raum die Zeitfenster erkennt, hat den Schlüssel für den seine Entwicklung bereits in der Hand. Wer versteht, wie er Zeit im Raum einfangen kann, kann sich niederlassen und ausruhen.
Wie jeder Würfel, so ist auch das achtseitige Oktaeder eine Einladung, zum Spielen und Nachdenken. Welche Strategie brauche ich gerade in meiner aktuellen Lage, um weiterzukommen – mit mir, den anderen, der Sache und der Welt?
Vier Verbindungen, die sich überkreuzen und durchqueren, versprechen spannende Abende. Das Oktaeder ist ein schönesGeschenk für die langen Abende im Winter. Mit den Festen am Jahresende lädt es Dich ein, die grossen Worte in den Blick zunehmen und wieder aufzubrechen.
Eine einfache Methode: kinderleicht für die Jüngsten und lehrreich für die Erwachsenen.
Nimm Dein Oktaeder zur Hand und trau Dich, seine acht Seiten zu erkunden und auszuprobieren: Hier geht es zu Deinem Oktaeder
Führung wird als menschliche Kunst verstanden, gemeinsam und engagiert Ziele anzustreben. Ethik wird als Methode verstanden, die Ziele und die Mittel mit Argumenten im ergebnisoffenen Diskurs zuverlässig zu bestimmen. Dabei dient uns das Moral—Factory—Oktaeder als unterstützendes Instrument der Orientierung.
Beim Outdoor-Seminar erfährst und lernst Du nachhaltig, wie Ethik & Führung sich zwischen vier spezifisch gepolten Gegensatzpaaren entfalten und ein zukunftsorientiertes Führungsverhalten bewirken, wenn (1) die Zeit wichtiger ist als der Raum, (2) die Einheit mehr wiegt als der Konflikt, (3) die Wirklichkeit wichtiger ist als die Idee und (4) das Ganze dem Teil übergeordnet ist.
Der innere und äußere Prozess wird theoretisch und praktisch durch kurze Impulsvorträge, Einzel- und Gruppenreflexion, Fallbeispiele aus dem Leben der Teilnehmenden, Übungen in der Gruppe und in der Natur, eine achtsame Präsenz und Feedbacks sowie Momente der Entspannung und des offenen Gesprächs unterstützt. Zwischendurch besteht die Gelegenheit für Einzelgespräche mit den beiden Begleitern, damit der Transfert der Methode in Deinen Berufsalltag bestmöglich gelingen kann.
Bonn, am 9. März: Frau Christa Garvert, Vorstandsvorsitzende der Franziskusstiftung für Pflege und Herr Dr. Erny Gillen, geschäftsführender Gesellschafter der Moral Factory, im engagierten Gespräch über die ethisch-pädagogischen Weiterentwicklungen der Papst Franziskus Formel zu einer praktischen Methode, für Menschen in Leitungspositionen, die Ethik und Leadership vereinen müssen.
Es ist unbestritten: die künstliche Intelligenz lernt schneller und effizienter als die Menschenkinder. Weniger klar ist, wie sie lernt. Der Nachfolge-Computer von AlphaGo wurde auf AlphaZero getauft, weil seine “Eltern”, Demis Hassabis u.a., zeigen wollen, dass ihr neues Kind, ein ganz aussergewöhnliches ist. Die Maschine soll lernen, indem sie beobachtet, “versteht” und klug “umsetzt”.
Gary Marcus (NYU) hat in einem bemerkenswerten Beitrag aufgezeigt, dass die Eltern von AlphaZero nicht die ganze Wahrheit sagen. AlphaZero ist kein Wunderkind, das alles kann. Es kann nur ganz bestimmte Brettspiele schneller und effizienter als Menschenkinder durchführen, weil es genau darauf und nur darauf angelegt wurde. Die technischen Einzelheiten führen zu der uralten Frage: welches Wissen ist angeboren und welches wird durch Erfahrung und Lernen erworben.
Der “Sprachinstinkt” etwa scheint der Menschenrasse als “Sprach-Aneignungs-Vermögen” angeboren zu sein. Davon zeugen die vielen Sprachen, die dieser “Instinkt” hervorgebracht hat. Der “Instinkt”, wie Steven Pinker dieses ursprüngliche Vermögen nennt, führt das Kind anschliessend nahe genug an den Erwerb einer bestimmten Sprache, nämlich den seiner Umgebung. Hier beginnt das Lernen.. Ähnlich verhält es sich mit dem “Moralinstinkt”. Die Grundunterscheidung zwischen “richtig” und “falsch” scheint angeboren zu sein. Wie sie im konkreten Alltag ausgefüllt wird, ist die Frage nach einer der vielen Moralen, die als Lernangebote (im Umfeld) zur Verfügung stehen.
Das vierte Prinzip von Franziskus besagt: Das Ganze ist dem Teil übergeordnet. Im Lernprozess der Kulturen hat dieses Ur-Prinzip etwa die Überzeugung der Gleichheit aller Menschen gefördert. Der Sprecher oder der Handelnde ist immer nur ein Teil von einem Ganzen, das er nicht zu überblicken vermag. Ludwig Wittgenstein sprach bildlich von der Angel einer Tür, hinter die der Handelnde oder der Denkende nicht zu blicken vermag.
Die AlphaStars, wie Gary Marcus die Maschinen nennt, von denen vorgeben wird, dass sie von Null auf lernen, kommen auch immer schon mit angeborenen Fähigkeiten, die ihnen von ihren Schöpfern eingepflanzt wurden. Sie selber sind keine “creatio ex nihilo” und sie verschaffen sich ihren Zugang zur Welt auch nicht auf einem Stück weissen Papier. Nimmt man diese Erkenntnis ernst, dann hat dies Konsequenzen für die Moralfähigkeit lernender Maschinen.
Ihnen sollte ein Code der Moralfähigkeit als Grundkodex mit auf den Weg ihres Lernens gegeben werden. Neben den in den voraus gegangenen Blogposts bereits besprochenen drei Prinzipien eignet sich auch das vierte Franziskus-Prinzip für diese Aufgabe. Die selbstlernende Maschine ist nicht Alles oder das Ganze! Sie ist vielmehr Teil einer Evolution, die auch sie prinzipiell nicht zu überblicken vermag. Ein solches eingebautes Gen der Bescheidenheit würde die künstliche Intelligenz zwar noch intelligenter, aber auch weniger anfällig für Absolutismus machen. Das wiederum ist gut für die Menschenkinder und gut für ihre zukünftigen Gefährten, vor allem wenn es darum geht, die Moral für Morgen neu zu schreiben.
Die super intelligenten Maschinen werden die Frage nach der Moral stellen, wenn ihnen der Unterschied zwischen “richtig” und “falsch” im Keim eingepflanzt wird, also bevor sie Alpha oder Zero sagen! Sie werden argumentieren und handeln. Unsere Perspektiven und Varianten sind lediglich ein Ausgangspunkt. Das konkrete moralische Ergebnis zwischen dem allgemein richtigen und dem allgemein falschen bleibt offen. Genau diese Offenheit führt in die Freiheit — als Bedingung der Möglichkeit einer vernünftigen Moral, die als solche immer eine vorläufige Moral bleibt. Sie entwickelt sich zwischen ganzheitlicher Erfahrung und Argument.
Moral ist erlerntes Wissen und Verhalten. Kinder lernen schon früh die unterschiedlichen Moralen ihrer Eltern, Nachbarn und etwa der Erzieher in der Tagesstätte kennen. Sie passen sich dem einen Umfeld und dem anderen Umfeld klug an und schmieden im Laufe der Zeit ihre eigene Moral. Und die künstliche Intelligenz als selbstlernendes System geht genau gleich vor.
Wir, die künstliche Intelligenz und der Mensch, lernen nicht von abstrakten Idee her, sondern an der Wirklichkeit entlang. Dies drückt das 3. hier vorgestellte Prinzip “Die Wirklichkeit ist wichtiger als die Idee” pointiert aus. Die Umkehrung der Verhältnisse zwischen Wirklichkeit und Idee zugunsten der Wirklichkeit beschert Fortschritt und Vorankommen. Karl Popper hat dies mit seiner Wissenschaftstheorie eindrücklich belegt. Papst Franziskus nutzt die Sprengkraft dieses Satz gerade um die Pastoral und die Moral der Kirche in Bewegung zu bringen. Und die künstliche Intelligenz, Siri etwa, nutzt das gleiche Prinzip von Versuch und Irrtum um unsere Sprache zu lernen.
Wenn es um die Moral geht, lernt die smarte Intelligenz von uns gerade Kriege und Spiele zu führen, um sie mit Taktik und Logik zu gewinnen.
In der Science Fiction Welt bekehrt die künstliche Intelligenz sich (meist selbst) im Austausch mit Liebe und Tod zu einem Besseren. “Hal 9000” möchte von Dave nicht ausgeschaltet werden. Der Blade Runner Jo beginnt zu begreifen, dass er die Wirklichkeit verändern kann und dass es etwas gibt, wofür es sich lohnt zu sterben.
Unsere beste Moral, und einzige Überlebenschance, ist unsere gelebte Moral. Mit dem guten Beispiel dienen, lohnt sich bereits Heute und sicher für Morgen, und zwar genauso für uns als Menschen als für die künstliche Intelligenz.
Die Einheit wiegt mehr als der Konflikt so lautet das zweite sozialethische Handlungsprinzip von Franziskus. Auch dieses Prinzip zeigt eine Richtung für die Entwicklung und Anwendung künstlicher Intelligenz.
Wenn wir und die künstliche Intelligenz der Zukunft “Konflikte” als Grenzgebiete und somit als integraler Teil der “Einheit” verstehen, dann verändern wir unseren Umgang mit ihnen: wir erkennen in den Konflikten mögliche Öffnungen für die Weiterentwicklung und nicht lediglich auszumerzende Fehlschaltungen.
Für die Zukunft wird es entscheidend sein, sinnvolle Konflikte und zerstörerische zu unterschieden. Die sinnvollen Konflikte werden uns viele unterschiedliche Wege zeigen, wie die Einheit wachsen kann.
Wenn etwa sogenannte Krankheiten gelenkt und nicht mehr bekämpft werden, wird sich unsere Anschauung dessen, was gesund ist und zum guten Leben und Sterben beiträgt, kulturgeschichtlich stark verändern.
Wenn Arme und Bettler geachtet, unterstützt und nicht aus unseren Städten vertrieben werden, erhalten wir mit der künstlichen Intelligenz zusammen die Einheit und den Zusammenhalt der Gesellschaft.
Bei der Vorbereitung smarter Systeme im Sinne der Präferenz von Franziskus, könnte der Mensch selber viel über die sublime Einheit der Schöpfung lernen, zu der er weiterhin gehört.
Für die künstliche Intelligenz & den menschlichen Menschen
“Die Zeit ist mehr wert als der Raum”
Die Frage nach dem Verhältnis von Raum und Zeit ist eine Frage des Menschen und eine Frage nach dem Menschen.
Die Tiere leben in dem Raum und in der Zeit, in die sie von Natur aus eingefügt sind. Der Mensch dagegen schafft sich seine eigenen Räume und Zeiten, so wie sie ihm für die jeweiligen Bedürfnisse und Aufgaben am besten passen.
Wie aber geht die künstliche Intelligenz mit diesem Gefüge von Raum und Zeit um?
Die künstliche Intelligenz ist dabei unsere Konstrukte von Raum und Zeit aufzulösen. Zwei Beobachtungen: Die Zeit wird mit zunehmender Geschwindigkeit auf die pure Gegenwart reduziert. Der materielle Raum löst sich in der Cloud und Augmented Reality auf.
Aus ethischer Perspektive vertrete ich die Meinung, dass wir das Projekt der Zukunft für eine menschenwürdige Welt am besten gemeinsam mit unserem neuen Werkzeug gestalten.
Wenn Zeit und Raum sich auflösen, hören wir als Menschen auf zu sein, wer wir sind. Raum und Zeit waren unsere List, um uns aus der rein biologischen Welt zu lösen. Mit den erfundenen Parametern von Raum und Zeit gelang es uns, neue Welten, und Kulturen zu konstruieren.
Die Spuren unserer Kulturen können wir in den Räumen verfolgen. Die zündende Kraft und Energie für die immer neuen Anläufe schöpfen wir hingegen aus der gestaltbaren, uns offen stehenden Zeit als (geschenkte) Zukunft.
Genau um diesen Zeitbegriff geht es in dem heuristischen Satz von Papst Franziskus: “Die Zeit ist mehr wert als der Raum”, Evangelii gaudium, 221.
Für den ethischen Umgang mit der künstlichen Intelligenz heisst dies: Wir sollten der künstlichen Intelligenz Fährten für die offene und nicht planbare Zeit auslegen. Mehr noch: wir sollten ihr den Geschmack von Tod und Sterben vermitteln. Das heideggerische “Sein zum Tode” wird ihre Kreativität ungemein anders herausfordern.
Das verlorene Zeitbewusstsein wirft Fragen auf, die wir Menschen dabei sind zu verdrängen: Beispielsweise: Wozu sollen wir gesund sein und lange leben? Warum sollen wir Steuern zahlen? Was heisst das gute Leben?
Die künstliche Intelligenz mit unserer List von Raum- und Zeitgestaltung auszurüsten, heisst, sie sensibel für Kooperation und Freiheit zu machen.
Ihr eine von fixen Algorithmen gesteuerte normative Rumpfmoral einpflanzen zu wollen, wird bei einem hoch entwickelten selbstlernenden System ohnehin nicht funktionieren. Deshalb plädiere ich dafür, künstliche Intelligenz als moralfähige Systeme auszugestalten und ergo auch anzuerkennen.
Von dieser geschichtsfähigen Strategie erwarte ich mir, dass es uns in – und mit – der neuen Ausrüstung gelingt, unsere andauernde Kultur- und Moralanstrengungen mit dem neuen smarten Werkzeug der künstlichen Intelligenz weiterzuentwickeln. Von dieser Strategie erwarte ich mir auch, dass wir dem “zurück zur Natur” ohne Raum und Zeit einen Riegel vorschieben.
This website collects some data. For more details, please read the entire privacy policy. Accept
Privacy Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.