Die Roboterethik sieht sich immer wieder mit zwei Vorwürfen konfrontiert, die ihren Status als Bereichsethik in Frage stellen: Zum einen habe sie keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. Doch selbst wenn artifizielle Systeme zu Recht in den Fokus der ethischen Reflexion geraten würden, ließen sich – so der zweite Einwand – mit ihnen im Blick keine neuen, sondern in anderen ethischen Arenen längst formulierte und ausgetragene Fragen stellen.
Die Roboterethik stellt durchaus traditionelle Fragen, gibt einigen Herausforderungen, vor die sich die Tierethik bereits gestellt sah, ein neues Gewand und wirft den Menschen letztlich auf sich selbst zurück. Welche Kompetenzen erachten wir etwa dafür grundlegend, um als Handlungssubjekte gelten zu können? Was ist darüber hinaus Bedingung für moralische Akteursfähigkeit? Mit welchen moralischen Prinzipien und Werten sollten wir artifizielle Systeme ausrüsten? Auf was für ein moralisches Selbstverständnis lässt es schließen, wenn wir Roboter ‚schlecht‘ behandeln? In welchem Nahbereich des Menschen – Industrie-, Miltär-, Medizin-, Altenpflege- und Servicerobotik, um nur einige zu nennen – wollen wir uns auch weiterhin nur oder zumindest in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen?
Literatur
Sombetzki, J. (2016). Roboterethik. In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken. Herausforderungen durch die Ökonomisierung der Welt (S. 355-379). Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie.
Stangl, W. (2020). Stichwort: ‚Uncanny Valley‘. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/25923/uncanny-valley/ (2020-10-06)
Wallach, W. & Allen, C. (2009). Moral Machines. Teaching Robots Right from Wrong. New York, Oxford.
Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::