Wissenschaftsblog

„Der böse Computer“ oder: sind autonome Systeme moralfähig?

Dieser Frage ging Prof. Dr. Johannes Bruhn in seiner Antrittsvorlesung nach, die er im November an der Hochschule Fresenius in München hielt. Im Interview mit adhibeo erklärt der Wirtschaftsethiker, inwiefern Künstliche Intelligenz (KI) heute moralfähig ist und welche ethischen Fragen der technologische Fortschritt im Bereich der KI aufwirft.

Was bedeutet „Moralfähigkeit“ überhaupt?

Moralfähigkeit ist die Fähigkeit von Menschen, auf der Grundlage erworbener ethischer Haltungen und moralischer Grundsätze zu entscheiden und zu handeln. Sie ist abhängig von einer ganzen Reihe an Voraussetzungen, etwa Vernunft, Freiwilligkeit, dem Vorhandensein mehrerer Handlungsoptionen, aber auch Empathie und der Fähigkeit, Glück und Leid zu empfinden.

Ist heutige KI denn tatsächlich zu Moral fähig?

Um diese Frage zu klären, muss man sich zunächst vor Augen führen, welche Fähigkeiten und Grenzen heutige KI-Systeme haben. KI leistet heute vor allem bei sehr begrenzten Spezialaufgaben Erstaunliches, etwa bei der Bilderkennung oder -klassifizierung, der Spracherkennung und -produktion, der Generierung von Videos oder der Filterung von E-Mails. In eng umgrenzten Inhaltsbereichen sind KI-Systeme bereits jetzt Menschen deutlich überlegen, etwa wenn es um Strategiespiele oder die Diagnose von Krankheiten auf der Grundlage bildgebender Verfahren geht. Dies ist vor allem zurückzuführen auf die wesentlich größere Verfügbarkeit von Rechenleistung und Trainingsdaten, kombiniert mit neueren Ansätzen maschinellen Lernens wie etwa dem Deep Learning.

Wir dürfen aber trotz dieser beeindruckenden Entwicklungen nicht darüber hinwegsehen, dass Computer noch sehr weit entfernt sind vom Status moralisch handelnder Akteure. Hierzu fehlt ihnen unter anderem die Fähigkeit, Neben- und Fernwirkungen ihres Handelns abzuschätzen, denn sie verfügen nicht wie wir über ein komplexes Weltmodell. Sie können sich auch nicht in lebende Organismen einfühlen, haben keinerlei Verständnis unserer Werte und moralischen Grundprinzipien, und schließlich sind sie ganz sicher nicht mit Bewusstsein und Selbstwahrnehmung ausgestattet.

Aber auch wenn sie selbst nicht moralfähig sind, werfen Künstliche Intelligenzen ethische Fragestellungen von enormer Tragweite auf. So können Maschinen heute mithilfe KI-gestützter psychometrischer Methoden menschliche Prädispositionen wie z. B.  die sexuelle Orientierung oder das Persönlichkeitsprofil teilweise wesentlich zielsicherer klassifizieren als Menschen, und dies nur auf der Basis von Fotos oder Blickbewegungs-Messungen. Ein weiteres Beispiel sind Kampfroboter: In der globalen Diskussion über Legitimität und Einsatz autonomer Waffensysteme steht die Frage im Raum, ob wir Maschinen die Entscheidung überlassen sollten, wer auf dem Schlachtfeld getötet wird.

In welche Richtung entwickelt sich die Technologie? Besteht überhaupt eine Notwendigkeit, dass KI-Systeme eine Moral entwickeln?

Hierzu lohnt es, zu fragen, wie die KI-Forschergemeinde selbst die zukünftige Entwicklung einschätzt. In einer 2017 erschienenen Studie, die 350 der namhaftesten KI-Forscher über die Zukunft der KI befragte, zeigte sich, dass die Mehrheit davon ausgeht, dass Maschinen noch in diesem Jahrhundert so weit sein werden, dass sie alle Aufgaben und Tätigkeiten auf menschlichem Kompetenzniveau ausführen können. Und es ist zumindest nicht ausgeschlossen, dass Systeme, die auf rekursiver Selbstverbesserung aufgebaut sind, die sich also selbst programmieren, das menschliche Intelligenzniveau hinter sich lassen und zu regelrechten Superintelligenzen heranreifen werden. Solche Superintelligenzen, so sie denn tatsächlich kämen, würden Menschen auf allen Feldern haushoch überlegen sein. Sie wären in der Lage, uns über ihre Absichten im Unklaren zu lassen und uns meisterhaft zu manipulieren. Spätestens dann würde die Beantwortung der Frage, wie KI-Systemen unsere Werte und Haltungen zu vermitteln sind, für die Menschheit als Ganzes eine überlebenswichtige Bedeutung annehmen.

Welche ethischen Aspekte gibt es dabei zu berücksichtigen? Wer beispielsweise entscheidet, welche Moralvorstellungen zur Anwendung kommen sollen?

Das ist eine sehr heikle Frage. Wenn Sie sich in der Moralphilosophie umsehen, die die zu diesem Thema einschlägige Wissenschaftsdisziplin ist, werden Sie zu jedem ethischen Problem unzählige Lösungsvorschläge erhalten, je nachdem, welcher philosophischen Schule Sie sich gerade zuwenden. Welche Entscheidungs- und Handlungsoptionen in welcher Situation gut, gerecht und legitim sind, ist von der Menschheit nicht abschließend definiert. Zudem unterscheiden sich Wert- und Moralvorstellungen nicht nur zwischen Einzelpersonen oder gesellschaftlichen Gruppen, sondern auch zwischen Nationen und Kulturen. Um also universelle Regeln für die Programmierung von intelligenten Maschinen bereitzustellen, müssten wir übereinkommen, welche Maßstäbe und Werte höher gewichtet sein sollten als andere. Diese Übereinkunft kann man einerseits Experten überlassen, wie es die Bundesregierung getan hat, als sie 2016 eine Ethikkommission beauftragte, Leitlinien für die Gesetzgebung zum autonomen Fahren zu entwickeln. Oder man folgt dem Vorgehen eines internationalen Forscherteams unter Führung des MIT Media Lab, das auf dem Mehrheitsprinzip aufbaut. Hier ging es um die Untersuchung der Frage, wie autonome Fahrzeuge „entscheiden“ sollen, wenn sie in Dilemma-Situationen mit sicherer Todesfolge für einen der Beteiligten geraten. Das Team stellte hierzu eine Website ins Netz, die ebensolche Dilemma-Situationen simulierte. Die Nutzer (am Ende waren das fast 40 Millionen) waren dann aufgefordert zu entscheiden, wer sterben solle, die alte Dame oder das Kind, der Mann oder die Frau, der Sportler oder der Unsportliche, die Gruppe oder der Einzelne etc.

Beide Ansätze, die Delegation an Experten oder das Einholen des Mehrheitsvotums, könnten gangbare Wege sein, zu definieren, welchen Wertmaßstäben Maschinen folgen sollen – vielleicht auch in Kombination miteinander. In keinem Fall aber dürfen Programmierer, Herstellerfirmen oder gar Besitzer autonomer Fahrzeuge darüber entscheiden, wen das Auto opfern soll. Aus meiner Sicht brauchen wir in Zukunft eine intensivere gesellschaftliche Diskussion über das Thema KI-Ethik, so wie überhaupt generell über den Einsatz Künstlicher Intelligenz. KI durchdringt bereits jetzt viele Lebensbereiche, und mein Eindruck ist, dass wir uns ihr auch heute schon allzu sorglos anvertrauen.

Kommentar schreiben




Kommentar

Kommentare

Print Friendly, PDF & Email
rss fb twitter xing yt gplus