Ein Film über Androiden: Robolove

In der Dokumentation von Maria Arlamovsky begleitet sie Menschen, die Roboter bauen. Die Bezeichnung „Maschine“ würden sich die Protagonisten der österreichischen Doku „Robolove“ wohl verbitten, denn sie bevorzugen den Begriff „Android“, weil er Menschenähnlichkeit impliziert. Diese Ähnlichkeit kann man auf zwei Arten herstellen: Indem man Organismen aus Metall und Silikon fertigt, die KI-bedingt lernfähig sind und uns, wenn man eineinhalb Augen zudrückt, zum Verwechseln ähnlich sehen, oder indem man den Menschen als Maschine deutet, das Hirn als Prozessor, unser Gedächtnis als Festplatte. In Maria Arlamovskys kurzweiligem Streifzug durch globale Androidenschmieden passiert beides. Wir sind eh nur Tiere, aber dank Werkzeug auch Cyborgs, meint etwa der japanische Robotiker Hiroshi Ishiguro, dessen schwarze Tolle an Andy Warhol erinnert.

Link: https://www.robolove.at/

Woher kommt der Begriff „Roboter“?

Der Begriff „Roboter“ geht auf das tschechische Wort „robota“ zurück, was so viel bedeutet, wie Arbeit, Frondienst und Zwangsarbeit. 1920 wurde der Begriff „robot“ von dem Künstler Josef Čapek geprägt, und sein Bruder Karel Čapek gebrauchte den Begriff „labori“ in seinem Theaterstück R.U.R. (Rossum’s Universal Robots, 1921) für humanoide Apparaturen, die Serviceleistungen und Arbeit an des Menschen Stelle übernehmen.

Literatur

Sombetzki, J. (2016). Roboterethik. In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken. Herausforderungen durch die Ökonomisierung der Welt (S. 355-379). Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie.

Roboterethik

Die Roboterethik sieht sich immer wieder mit zwei Vorwürfen konfrontiert, die ihren Status als Bereichsethik in Frage stellen: Zum einen habe sie keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. Doch selbst wenn artifizielle Systeme zu Recht in den Fokus der ethischen Reflexion geraten würden, ließen sich – so der zweite Einwand – mit ihnen im Blick keine neuen, sondern in anderen ethischen Arenen längst formulierte und ausgetragene Fragen stellen.

Die Roboterethik stellt durchaus traditionelle Fragen, gibt einigen Herausforderungen, vor die sich die Tierethik bereits gestellt sah, ein neues Gewand und wirft den Menschen letztlich auf sich selbst zurück. Welche Kompetenzen erachten wir etwa dafür grundlegend, um als Handlungssubjekte gelten zu können? Was ist darüber hinaus Bedingung für moralische Akteursfähigkeit? Mit welchen moralischen Prinzipien und Werten sollten wir artifizielle Systeme ausrüsten? Auf was für ein moralisches Selbstverständnis lässt es schließen, wenn wir Roboter ‚schlecht‘ behandeln? In welchem Nahbereich des Menschen – Industrie-, Miltär-, Medizin-, Altenpflege- und Servicerobotik, um nur einige zu nennen – wollen wir uns auch weiterhin nur oder zumindest in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen?

Als Uncanny Valley oder Akzeptanzlücke bezeichnet man den hypothetischen und paradox erscheinenden psychologischen Effekt in der Akzeptanz künstlicher Figuren auf den Menschen, insbesondere von Robotern. Dabei lösen solche Maschinen bzw. Roboter, die Menschen in Verhalten und Aussehen zu stark ähneln, Unbehagen aus. Die Quelle dieses Uncanny Valley-Phänomens liegt nach neuesten Forschungen im Gehirn, wobei zwei Regionen im mittleren präfrontalen Cortex (ventromedialer präfrontaler und dorsomedialer präfrontaler Cortex) und auch die Amygdala eine wesentliche Rolle für diesen Effekt spielen, letztere im Zusammenhang mit dernegativen emotionalen Bewertung der Handlungen von Roboter (Stangl, 2020).

Wallach & Allen (2009) verwerfen die ontologische und auch die epistemische Frage, ob artifizielle Systeme tatsächlich über die fraglichen Fähigkeiten verfügen und was wir darüber wissen und sicher ausmachen können, zugunsten der praktischen Frage, welche Relevanz ihr Verhalten für den Menschen hat. Einige artifizielle Systeme werden irgendwann einmal der Grenze zwischen funktionaler und menschlicher Moralzuschreibung wohl recht nahe kommen, wenn auch voraussichtlich nie überschreiten

Literatur

Sombetzki, J. (2016). Roboterethik. In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken. Herausforderungen durch die Ökonomisierung der Welt (S. 355-379). Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie.
Stangl, W. (2020). Stichwort: ‘Uncanny Valley’. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/25923/uncanny-valley/ (2020-10-06)
Wallach, W. & Allen, C. (2009). Moral Machines. Teaching Robots Right from Wrong. New York, Oxford.

Auswirkungen von Künstlicher Intelligenz auf Wissensarbeit

Lange galten Automatisierung und Künstliche Intelligenz (KI) als Hilfsmittel und Werkzeug vor allem für einfache Arbeiten: Roboter helfen bei der industriellen Produktion, Software hilft bei der Lagerhaltung, um zwei Beispiele zu nennen. Inzwischen gibt es aber auch Programme, die die sogenannte „Wissensarbeit“, beispielsweise im Personalwesen oder der Medizin, unterstützen. Wie sich KI auf die „Wissensarbeit“ auswirkt, hat ein Team aus der Arbeits- und Organisationspsychologie untersucht. Vergleicht man Bilder aus Fabrikhallen vor 100 Jahren und heute, wird vor allem eines klar: Ein Großteil der Produktion, zum Beispiel im Automobilbau, geht inzwischen vollautomatisch und ohne menschliches Zutun ab. Wo vor 100 Jahren noch viele Arbeiter dicht an dicht arbeiteten, fallen heute einzelne Arbeitskräfte zwischen den Montagebändern und Robotern kaum mehr auf. Die Fachkräfte sind heute meist mit der Überwachung der komplexen Technik betraut, die Produktion selbst läuft oft vollautomatisiert.

Der Einsatz von Künstlicher Intelligenz (KI) soll diesen Trend in Zukunft weiter verstärken. Rechnergestützt sollen Produktionsprozesse immer weiter verbessert und effizienter gestaltet werden. Jobs für Akademiker und andere hochqualifizierte Arbeitskräfte schienen bislang von solchen automatisierten Hilfsmitteln weitestgehend ausgeschlossen – die Aufgaben sind meist zu komplex und zu individuell, um automatisierte Lösungen dafür zu entwickeln. Aber auch dies ändert sich inzwischen zunehmend. KI entwickelt Schichtpläne, unterstützt Mediziner bei Diagnosen, Richter bei Urteilsentscheidungen und Personalverantwortliche bei Entscheidungen in der Auswahl neuer Arbeitskräfte. Bislang wurde dabei vor allem die Effizienz und Performance dieser KI-basierten Systeme untersucht. Wie jedoch die betroffenen Arbeitskräfte damit umgehen, war weitestgehend unerforscht. Das große Spektrum an möglichen Auswirkungen auf die betroffenen Arbeitskräfte haben nun zwei Psychologen und eine Psychologin der Universität des Saarlandes genauer in Augenschein genommen. Hauptautor der Studie, die nun erschienen ist, ist Dr. Markus Langer aus dem Team von Cornelius König, Professor für Arbeits- und Organisationspsychologie an der Universität des Saarlandes. Als Co-Autorin hat auch Vivien Busch an der Studie mitgewirkt.

Um herauszufinden, wie sich KI-Systeme auf die Arbeitszufriedenheit von Personen aus der Wissensarbeit auswirken, haben die Wissenschaftler einen Laborversuch unternommen. Dafür haben sie zwei KI-Systeme für die Personalauswahl simuliert, die menschlichen Entscheidern mehr oder weniger Autonomie in der Entscheidungsfindung lassen. „Konkret heißt dass, dass das eine KI-System eine Bewertung und Empfehlung hinsichtlich der Bewerber abgibt, noch bevor die Entscheidungsträgerinnen die Bewerberinformationen selbst analysieren. Das andere KI-System zeigte die Bewertungen und Empfehlungen hingegen erst an, nachdem die Entscheiderinnen sich die Bewerberinformationen selbst zu Gemüte geführt hatten“, erläutert Markus Langer.

Dabei gibt es einige Vor- und Nachteile zu beachten: Zwar kann eine „Empfehlung davor“ den Entscheidungsprozess beschleunigen. „Aber es kann eventuell zu vorschnellen Entscheidungen führen und potentiell die wahrgenommene Autonomie der Personalverantwortlichen untergraben“, gibt Psychologe Langer zu bedenken. Die „Empfehlung danach“ soll hingegen die Autonomie der Entscheidungsträger unterstützen und den Menschen dazu anregen, sich genau mit den Bewerberinnen und Bewerbern auseinanderzusetzen, um dann noch eine zusätzliche „Meinung“ vom System zu bekommen – potentiell dauern Entscheidungen mit dieser Art von KI-basierter Empfehlung aber länger.

Markus Langer, Cornelius König und Vivien Busch konnten dabei eine eindeutige Feststellung machen: „Es zeigte sich, dass KI-Systeme, die menschlichen Entscheidungsträgern mehr Autonomie in der Bewertung von Bewerbern lassen, zu einer höheren Zufriedenheit mit getroffenen Entscheidungen führen und den Spaß an der Arbeit erhöhen können. Außerdem war die erfahrene Selbstwirksamkeit der Personalverantwortlichen höher, wenn sie sich selbst zunächst mit den Bewerberinformationen auseinandersetzen und eine erste Auswahl treffen konnten und das KI-System erst danach seine Einschätzung abgegeben hat“, so Markus Langer weiter.

Neben diesen konkreten Ergebnissen zeigt die Studie vor allem eines: „Fragen hinsichtlich der Einflüsse KI-basierter Systeme auf die menschliche Entscheidungsautonomie, Arbeitszufriedenheit, Wohlbefinden und schlussendlich Fragen der menschzentrierten Gestaltung KI-basierter Abläufe werden in Zukunft immer zentraler werden“, so Markus Langer. „Denn es wird auf eine zunehmend enge Zusammenarbeit von Mensch und Maschine für Entscheidungen hinauslaufen, die das Leben anderer Menschen nachhaltig beeinflussen können“, ist sich der Experte sicher.
Wissenschaftliche Ansprechpartner:

Literatur

Langer, M., König, C.J. & Busch, V. (2020): Changing the means of managerial work: effects of automated decision support systems on personnel selection tasks. J Bus Psychol, doi:10.1007/s10869-020-09711-6.

Wie man die Prinzipien maschinellen Lernens erweitern und verbessern kann

Christoph Lampert, Professor am Institute of Science and Technology (IST) Austria in Klosterneuburg: “Wir stellen beispielsweise die Frage: Wie kann maschinelles Lernen davon profitieren, dass mehrere Dinge gleichzeitig trainiert werden? Oder wie kann ein Computer inkrementell – also kontinuierlich über die Zeit – neue Dinge lernen, ohne alte, schon gelernte zu vergessen? Diese Fähigkeiten haben aktuelle Modelle nicht. Wenn ein Computer trainiert wird, Katzenfotos im Internet zu finden, erinnert er sich nicht daran, dass er davor nach Hunden gesucht hat. Er fängt jedes Mal bei null an. Im Vergleich zum menschlichen Lernen wirkt das unnatürlich. Jeder Mensch nutzt beim Lernen das, was er früher gelernt hat, als Grundlage. Dieses Prinzip auf das maschinelle Lernen zu übertragen ist eine unserer Herausforderungen. Wenn meine kleine Tochter im Zoo lernt, was ein Zebra ist, benötigt sie nur ein Bild, um zu wissen, wie dieses Tier aussieht. Der Computer benötigt im Moment tausende Bilder von Zebras. Er hat völlig vergessen, was er sonst schon über Tiere gelernt hat. (…) Bisher braucht der Computer vielleicht 1000 Bilder eines Zebras, um gut zu wissen, wie dieses Tier aussieht. Mit unseren Techniken soll diese Zahl reduziert werden. Er braucht dann vielleicht nur noch 100 oder zehn oder drei. Den Zeitpunkt, zu dem wir sagen “Wir sind fertig” wird es nicht geben. Aber irgendwann wird man sagen: Es ist gut genug für die momentanen Umstände.”

Quelle

https://www.derstandard.at/story/2000120023879/mathematiker-wie-kann-ein-computer-lernen-ohne-zu-vergessen (20-09-22)

Künstliche Neurotransistoren

Wissenschaftlern ist es gelungen, die Strukturen und Leistung des Gehirns, mit Halbleitermaterialien zu kopieren, wobei sie dank der Erfahrung mit chemischen und biologischen elektronischen Sensoren eine Art künstlichen Neurotransistor entwickelt haben. Als vorteilhaft hat sich bei dieser Form der Architektur erwiesen, dass Informationen an einer Stelle erfasst, verarbeitet und gleichzeitig gespeichert werden, denn diese Funktionsweise weist auch das menschliche Gehirn auf. Die bisherige Technik hat all diese Prozesse getrennt voneinander durchgeführt, was jedoch zu einer überhöhten Verarbeitungszeit und zu Abstrichen hinsichtlich der Leistung führt.

Diese theoretische Idee soll nun in die Tat umgesetzt werden, wozu ein Polymer, das an poröses Keramik erinnert, auf einen Siliziumwafer, welcher die Schaltungen beherbergt, aufgetragen wird. Zwischen den Rissen in der Struktur, befinden sich Ionen, und da diese langsamer als Elektronen sind, springen sie nach einem Impuls auch deutlich langsamer auf ihre Ursprungsposition zurück, wodurch eine Art Speichereffekt entsteht. Eine stärkere Anregung des einzelnen Transistors, führt dazu, dass sich dieser eher öffnet und den Strom freigibt. Dieses System kann durch diesen komplexen Vorgang einen ähnlichen Lerneffekt erzielen, wie ein Mensch. So können Roboter, die mit diesem System arbeiten, sich etwa beibringen, empfindliche Gegenstände deutlich sanfter anzufassen.

Literatur
Baek, Eunhye, Das, Nikhil Ranjan, Cannistraci, Carlo Vittorio, Rim, Taiuk, Bermúdez, Gilbert Santiago Cañón, Nych, Khrystyna, Cho, Hyeonsu, Kim, Kihyun, Baek, Chang-Ki, Makarov, Denys, Tetzlaff, Ronald, Chua, Leon, Baraban, Larysa & Cuniberti, Gianaurelio (2020). Intrinsic plasticity of silicon nanowire neurotransistors for dynamic memory and learning functions. Nature Electronics, doi:10.1038/s41928-020-0412-1.

Computer werden nur intelligent, wenn sie wie Kinder lernen

Kleinkinder verarbeiten weniger Daten als die stärksten Computer. Trotzdem sind sie schlauer. Soll künstliche Intelligenz vorankommen, muss sie von ihnen das Lernen lernen.

Der Traum, eine menschenähnliche, künstlich intelligente Maschine zu schaffen, zieht sich durch die Menschheitsgeschichte. Will man bei der künstlichen Intelligenz entscheidende Fortschritte machen, muss man sich viel mehr an der Art orientieren, wie Kinder lernen und sich entwickeln.

Sollen Roboter Fehler zugeben?

Studien der Universität Salzburg zur Mensch-Roboter-Interaktion bekräftigen: Merken Nutzerinnen und Nutzer, dass Irren nicht nur menschlich, sondern auch technisch möglich ist, werden Maschinen im Alltag eher akzeptiert: Wenn Roboter etwa zugeben, dass sie Fehler gemacht haben, steigt das Vertrauen und die Akzeptanz bei den Anwendern. Und auch das ist ja durchwegs menschlich.

Wenn Roboter zugeben, dass sie Fehler gemacht haben, steigt das Vertrauen und die Akzeptanz.

Bioengineered Neuronal Organoids – BENOs

Bioengineered Neuronal Organoids (BENOs) sind aus humanen induzierten pluripotenten Stammzellen hergestellte neuronale Netzwerke mit komplexen Funktionen des menschlichen Gehirns.

Diese Bioengineered Neuronal Organoids eignen sich zur genaueren Erforschung des Verlusts von Lernfähigkeit und Gedächtnis bei neurodegenerativen Erkrankungen. Man setzt dabei gezielte pharmakologische und elektrische Stimulationen ein, um einerseits die Bildung von BENOs zu ermöglichen und andererseits Prozesse der neuronalen Plastizität als erste Hinweise auf eine Lernfähigkeit zu prüfen. Bioengineered Neuronal Organoids weisen zudem Funktionen auf, die für die Ausbildung von Lernen und Gedächtnis von zentraler Bedeutung sind.

Obgleich man natürlich weit davon entfernt ist, das menschliche Gehirn in allen seinen Funktionen nachzubilden, sind die Wissenschaftler von der Beobachtung zellulärer Prozesse, die für Lernen und Gedächtnisausbildung notwendig sind, fasziniert. Erste Hinweise auf komplexe, physiologische Funktionen in den gezüchteten neuronalen Netzwerken machen Hoffnung, künftig degenerative Erkrankungen des zentralen Nervensystems im Labor simulieren zu können. Aufbauend auf dem zu erwartenden Erkenntnisgewinn lassen sich künftig innovative Therapieverfahren für Erkrankungen wie Parkinson, Epilepise, Schlaganfall und Demenz entwickeln.

Erste Anwendungen finden Bioengineered Neuronal Organoids bereits in der Simulation von Erkrankungen des zentralen Nervensystems, etwa von Epilepsie Syndromen, und in der Testung von Arzneistoffen. Von besonderer Bedeutung ist zudem, dass sich Bioengineered Neuronal Organoids durch die breite Verfügbarkeit von induzierten pluripotenten Stammzellen aus prinzipiell jedem Menschen, mit oder ohne Erkrankung, herstellen lassen. Dadurch öffnet sich nicht nur die Tür für eine Entwicklung und präklinische Testung individualisierter Verfahren direkt am menschlichen Modell, sondern auch die Züchtung von Ersatzgewebe für die Behandlung von Patienten mit neurodegenerativen Erkrankungen wird prinzipiell möglich.

Literatur

Zafeiriou MP, Bao G , Hudson J, Halder R, Blenkle A, Schreiber MK, Fischer A, Schild A, Zimmermann WH Developmental (2020) GABA polarity switch and neuronal plasticity in Bioengineered Neuronal Organoids, Nat Commun, 11, 3791. DOI:10.1038/s41467-020-17521-w.

Mensch gegen Maschine

Es ging um Schach, als im Jahr 1996 der Mensch Kasparow von der IBM-Maschine DeepBlue besiegt wurde. Im chinesische Spiel Go wurde im Jahr 2016 der beste menschliche Go-Spieler Lee Sedol besiegt: Von AlphaGo – einem Modell aus künstlichen neuronalen Netzen der Google-Firma DeepMind. In den Atari-Spielen der Echtzeitstrategie Spiel StarCraft 2 und Poker wurden Menschen von Maschinen geschlagen. Im Kriegsspiel: Dogfight, der Luftkampf zwischen zwei Flugzeugen, besiegte am 20.08.2020 das KI-Modell der Firma Heron Systems den menschlichen Piloten Banger haushoch 5:0. Selbstverständlich im Simulator statt, doch trotzdem lief der Kampf wie im Krieg: Wer getroffen wurde, hat verloren. Gegen ein gut trainiertes KI-Modell hat der Mensch im Simulator keine Chance. Sicher würde der Roboter bei einem realen Luftkampf viel schlechter abschneiden. Allerdings: mit ungewöhnlichen Situationen ist die Maschine schnell überfordert. Vorläufig.