Roboterethik

Die Roboterethik sieht sich immer wieder mit zwei Vorwürfen konfrontiert, die ihren Status als Bereichsethik in Frage stellen: Zum einen habe sie keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. Doch selbst wenn artifizielle Systeme zu Recht in den Fokus der ethischen Reflexion geraten würden, ließen sich – so der zweite Einwand – mit ihnen im Blick keine neuen, sondern in anderen ethischen Arenen längst formulierte und ausgetragene Fragen stellen.

Die Roboterethik stellt durchaus traditionelle Fragen, gibt einigen Herausforderungen, vor die sich die Tierethik bereits gestellt sah, ein neues Gewand und wirft den Menschen letztlich auf sich selbst zurück. Welche Kompetenzen erachten wir etwa dafür grundlegend, um als Handlungssubjekte gelten zu können? Was ist darüber hinaus Bedingung für moralische Akteursfähigkeit? Mit welchen moralischen Prinzipien und Werten sollten wir artifizielle Systeme ausrüsten? Auf was für ein moralisches Selbstverständnis lässt es schließen, wenn wir Roboter ‚schlecht‘ behandeln? In welchem Nahbereich des Menschen – Industrie-, Miltär-, Medizin-, Altenpflege- und Servicerobotik, um nur einige zu nennen – wollen wir uns auch weiterhin nur oder zumindest in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen?

Als Uncanny Valley oder Akzeptanzlücke bezeichnet man den hypothetischen und paradox erscheinenden psychologischen Effekt in der Akzeptanz künstlicher Figuren auf den Menschen, insbesondere von Robotern. Dabei lösen solche Maschinen bzw. Roboter, die Menschen in Verhalten und Aussehen zu stark ähneln, Unbehagen aus. Die Quelle dieses Uncanny Valley-Phänomens liegt nach neuesten Forschungen im Gehirn, wobei zwei Regionen im mittleren präfrontalen Cortex (ventromedialer präfrontaler und dorsomedialer präfrontaler Cortex) und auch die Amygdala eine wesentliche Rolle für diesen Effekt spielen, letztere im Zusammenhang mit dernegativen emotionalen Bewertung der Handlungen von Roboter (Stangl, 2020).

Wallach & Allen (2009) verwerfen die ontologische und auch die epistemische Frage, ob artifizielle Systeme tatsächlich über die fraglichen Fähigkeiten verfügen und was wir darüber wissen und sicher ausmachen können, zugunsten der praktischen Frage, welche Relevanz ihr Verhalten für den Menschen hat. Einige artifizielle Systeme werden irgendwann einmal der Grenze zwischen funktionaler und menschlicher Moralzuschreibung wohl recht nahe kommen, wenn auch voraussichtlich nie überschreiten

Literatur

Sombetzki, J. (2016). Roboterethik. In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken. Herausforderungen durch die Ökonomisierung der Welt (S. 355-379). Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie.
Stangl, W. (2020). Stichwort: ‘Uncanny Valley’. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/25923/uncanny-valley/ (2020-10-06)
Wallach, W. & Allen, C. (2009). Moral Machines. Teaching Robots Right from Wrong. New York, Oxford.