Nach Janina Sombetzki (2016) sieht sich die Roboterethik immer wieder mit zwei Vorwürfen konfrontiert, die ihren Status als Bereichsethik in Frage stellen: Zum einen habe sie keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. Doch selbst wenn artifizielle Systeme zu Recht in den Fokus der ethischen Reflexion geraten würden, ließen sich – so der zweite Einwand – mit ihnen im Blick keine neuen, sondern in anderen ethischen Arenen längst formulierte und ausgetragene Fragen stellen. Zum ersten Einwand: falls sich herausstellen sollte, dass Roboter selbst keine moralischen Handlungssubjekte sind, könnten sie dennoch ihren gerechtfertigten Platz im moralischen Universum einnehmen. Schließlich existieren eine ganze Reihe von (teil-)unbelebten Entitäten, denen wir einen Wert zuzusprechen gewillt sind – Landschaften, Ökosystemen, dem Planeten Erde, aber auch Häusern, Autos, Smartphones und der Schnuffeldecke frühester Kindertage. Um was für eine Art von Wert es sich im Falle artifizieller Systeme handelt, bleibt freilich zu diskutieren, doch wo, wenn nicht in der Ethik, sollte eine solche Diskussion geführt werden?
Dem zweiten Einwand ist nicht viel entgegenzusetzen, jedoch handelt es sich dabei nicht um eine spezifisch die Roboterethik treffende Kritik, sondern ließe sich letztlich auf alle Bereichsethiken beziehen, solange man den Menschen als Ausgangs-, Drehund Angelpunkt ethischen Nachdenkens begreift und dieser in allen Sphären der ethischen Überlegung anzutreffen ist. Darüber hinaus kann man diesen Vorwurf eines „epistemischen Anthropozentrismus“ in der Tat positiv wenden, indem man die Tatsache einer generellen (Familien-)Ähnlichkeit ethischer Fragen in allen Bereichsethiken als Aktualität und Flexibilität der philosophischen Reflexion insgesamt deutet: Tradierte ethische Fragen sind immer noch zeitgemäß und relevant. Darüber hinaus ist die Philosophie in der Lage, längst bekannte Probleme an aktuelle Gegenstände anzupassen, ihre z.T. antiken Fragen also mit einer Welt abzugleichen, die mittlerweile über künstliche Intelligenz und moralisches Lernen in artifiziellen Systemen diskutiert.
Janina Sombetzki (2016) schlägt eine Einteilung der Roboterethik in zwei Arbeitsfelder vor: Roboter als moral patients und als moral agents. So ist ein ganz grundlegender Vergleich zur Tierethik möglich, in der ebenfalls beide Felder eine Rolle spielen, insbesondere, wenn man auf die Möglichkeiten artifizieller moralischer Akteursfähigkeit fokussiert. Nichtsdestotrotz betreffen die Fragen, mit denen man aktuell konfrontiert ist, fast ausnahmslos den Bereich der Roboterethik, der sich mit artifiziellen Systemen als WertträgerInnen befasst. Zudem scheint das Thema von Empathie und Emotionalität selbst dann für Roboter als moral patients von Belang zu sein, wenn auf dem Feld zu artifiziellen Systemen als moral agents angenommen wird, Moralzuschreibung bedürfe der Empathie nicht.
Vor dem Hintergrund des Ansatz einer funktionalen Äquivalenz graduell vorliegender Kompetenzen und Vermögen, die Sombietzki als eine Version der schwachen KI-These interpretiert, lässt sich kombiniert mit meiner Skizze eines algorithmischen Strukturschemas den Positionen eines Anthro-, Patho-, Biound Physiozentrismus eine weitere Sicht zur Lokalisierung von Phänomenen im moralischen Universum hinzufügen, die all die Wesen mit einem Eigenwert bemisst, die lernfähig sind. Lernfähigkeit bedeutet mindestens eine Programmierung durch nicht-determinierte/nicht-deterministische Algorithmen. Solche Wesen befänden sich im oberen Bereich einer funktionalen Moralzuschreibung und hätten unter dieser Perspektive einen Eigenwert. Weiterhin wäre es möglich, Robotern, die insbesondere auf der Grundlage determinierter /nichtdeterministischer Sets an Algorithmen arbeiten und sich eher im Bereich operationaler Moralzuschreibung bewegen, unter dieser Perspektive immerhin einen hohen instrumentellen Wert zuzuschreiben.
Die Roboterethik als Bereichsethik weist damit zahlreiche Chancen und Perspektiven auf – nicht zuletzt die ernsthafte Ausarbeitung eines Ansatzes, der lernfähigen Wesen einen Eigenwert beimisst sowie der Diskurs um Herausforderungen im Bereich der Roboter als moral patients und das parallele Ringen um die Erschaffung einer starken oder schwachen KI im Bereich der Roboter als moral agents.
Literatur
Sombetzki, Janina (2016). Roboterethik (S. 355-379). In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken – Herausforderungen durch die Ökonomisierung der Welt. Karlsruher Institut für Technologie: KIT Scientific Publishing.
Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::