Roboter als Hilfswissenschaftler

Warum Psychologen überhaupt Roboter erforschen? Dafür gibt es mindestens zwei Gründe: Stellen Sie sich erstens ein Experiment zur sozialen Interaktion vor. Man möchte mehr über die Prozesse erfahren, die dem menschlichen Sozialverhalten zu Grunde liegen. In der Vergangenheit haben viele Studien der sozialen Neurowissenschaften ihren Versuchspersonen Bilder und Videos von Personen gezeigt. Die Wissenschaftler erhielten so ein hohes Maß an experimenteller Kontrolle über die Stimuli und alle Versuchspersonen wurden genau den gleichen Experimentalbedingungen ausgesetzt. Aber woher wissen wir, dass die Beobachtung einer Interaktion zu der gleichen Reaktion führt, wie ein echter zwischenmenschlicher Austausch?

Hier kommt die ökologische Validität ins Spiel. Anders gesagt, Wissenschaftler möchten eben diese realen Phänomene erfassen, und machen sich Gedanken darüber ob die Resultate ihrer Experimente auch in einen alltäglichen Kontext übersetzt werden können. Oft muss man Kompromisse eingehen zwischen experimenteller Kontrolle und ökologischer Validität. Roboter bieten einen Ausweg aus diesem Dilemma: Als Hilfswissenschaftler, der sein Verhalten jedes Mal genau wiederholen wird, wie beim ersten Mal – und der niemals müde wird (es sei denn die Motoren überhitzen). Mit anderen Worten: Man kann nun Experimente planen die ökologisch valide sind und zugleich sehr genau kontrolliert werden können.

Der zweite Grund der für Roboter in psychologischen Experimenten spricht: Sie erlauben uns, Fragen zu der Flexibilität unseres „sozialen Gehirns“ zu beantworten. In den vergangenen Jahren sind immer mehr Roboter aus den Fabriken in die Häuser der Menschen gezogen. Ob in Form von Amazons Alexa, als Spielzeug im Kinderzimmer oder bei Begegnungen wie etwa mit humanoiden Robotern am Münchner Flughafen. Das Potenzial ist enorm – fast jeder Lebensbereich und -phase könnte von einer helfenden Roboterhand profitieren. Ein Problem besteht jedoch weiterhin: die meisten kommerziell erwerblichen Roboter haben nur sehr begrenzte „social skills“.

Quelle

https://uofgpgrblog.com/pgrblog/2019/3/12/my-robotic-research-assistant (19-12-05)

Unterschied Mensch und Computer

Der Mensch neigt dazu, technischen Gegenständen oder damit verbundenen Algorithmen mehr Kapazitäten, ja menschliche Fähigkeiten wie Intelligenz zuzuschreiben, doch hinter Computern oder Big Data steht keine Intelligenz, das alles sind nur Statistiken, die auch ein Mensch mit extrem viel Zeit errechnen könnte, da Computer eben sehr gut darin sind, große Datenmengen zu verarbeiten.

Doch diese Fähigkeiten kann ein Computer nur in gut definierten oder simulierten Umwelten einsetzen, hinter denen natürlich immer ein menschliches Gehirn steht, sodass letztlich ein Computer völlig anders funktioniert als ein menschliches Gehirn. Das liegt vor allem daran, dass das menschliche Gehirn sowohl analog als auch digital ist, denn der Mensch lernt bekanntlich dadurch, dass neue Verbindungen zwischen Nervenzellen entstehen, und das unterscheidet das Gehirn jedoch fundamental von allen derzeit gängigen AI-Netzwerken, in denen Informationen mehr oder minder nur weitergereicht werden.

Das menschliche Gehirn ist darüber hinaus auch multipolar, d. h., dass jede Nervenzelle jede andere beeinflussen kann. Für AI-Netzwerke wäre z. B. komplexes Weltwissen notwendig, um dann überhaupt Entscheidungen treffen zu können, doch das ist extrem schwer zu automatisieren, sodass Kreativität und Problemlösung noch immer jene menschliche Stärke sind, die ein Computer wohl nie erreichen wird.

Roboter mit Haut

Sensible künstliche Haut erlaubt Robotern, ihren Körper und ihre Umgebung zu fühlen. Für den engen Kontakt mit Menschen ist das entscheidend. Ein Team der Technischen Universität München hat ein von biologischen Vorbildern inspiriertes System aus künstlicher Haut und Steuerungsalgorithmen entwickelt. Dadurch konnte erstmals ein menschengroßer autonomer Roboter großflächig mit künstlicher Haut versehen werden.

Forscher der Universität München haben dabei eine künstliche Haut aus Sensoren für Roboter entwickelt, sodass der Roboter speziell auf bestimmte Berührungen reagiert, was den Einsatz in der Pflege erleichtern sollte. Denn wie fest soll ein Roboter zudrücken bei einer Umarmung? Wie fest darf er anpacken, wenn einer bettlägrigen oder gestürzten Person aufgeholfen werden soll? Wenn Roboter immer öfter mit Menschen interagieren und zunehmend auch in der Pflege eingesetzt werden, müssen diese ein Gefühl für den Umgang mit der gebrechlichen Spezies Mensch erlangen. Forscher der Universität München entwickelten einen dem menschlichen Körper nachempfundenen Roboter, dessen Oberfläche mit mehr als 13.000 Sensoren bestückt ist, d. h., vom Scheitel bis zur Sohle kann er dadurch Temperatur, Beschleunigung, Anstand und Druck messen. Dadurch kann er entscheiden, welche Reize es zu beachten gilt, denn wenn man Socken oder Handschuhe anzieht, spürt man das im ersten Moment auf Zehen und Fingern, doch irgendwann ignoriert das Gehirn die schwachen Signale, damit es zu keiner Reizüberflutung kommt. H-1, so der Name des Roboters, reagiert ebenfalls nur auf akute Reize – weshalb es weniger Rechenpower benötigt. Allerdings sind die Sensoren für den Praxiseinsatz noch zu zerbrechlich.

Quelle: https://www.derstandard.at/story/2000111628889/kuenstliche-haut-aus-sensoren-laesst-roboter-fuehlen (19-11-29)

Reinforcement learning

Reinforcement learning bzw. bestärkendes oder verstärkendes Lernen ist ein Oberbegriff für eine Reihe von Methoden des maschinellen Lernens, bei denen ein System, etwa ein Roboter, den Nutzen von Aktionsabfolgen bestimmt. Reinforcement Learning ist somit ein Bereich des maschinellen Lernens, in dem Algorithmen intuitiv und durch Experimentieren lernen sollen, wie ihre Umgebung beschaffen ist und welche Regeln gelten, ähnlich wie auch ein Kind die Welt entdeckt und merkt, was funktioniert und was nicht. Derzeit wird vor allem untersucht, wo und weshalb existierende Reinforcement Learning-Algorithmen an ihre Grenzen stoßen, um robuste Algorithmen, die zuverlässig leistungsfähig sind, zu entwickeln. In Anwendungsbereichen der Künstlichen Intelligenz wie hochautomatisierten Fahrzeugen, automatisierten Finanzhandelssystemen oder intelligenten Stromnetzen sind Zuverlässigkeit und stabile Leistungsfähigkeit unerlässlich. Daher ist es wichtig, Algorithmen unter möglichst realistischen Bedingungen zu entwickeln, sodass man etwa die Maschinen immer wieder neuen Umgebungen und unbekannten Situationen aussetzt, sie vor zahllose Entscheidungen stellt, um dann die Faktoren, die zum Erfolg oder Misserfolg geführt haben, herauszufinden. Eine zentrale Aufgabe ist dabei, die grundlegenden Logiken und Funktionen im Reinforcement Learning zu verstehen, um den Weg zu robust generalisierenden Methoden zu ebnen, wobei die Lösung dieser Aufgabe schließlich auch alle anderen Anwendungsfelder weiterbringen kann.

Literatur

Stangl, W. (2019). Stichwort: ‘Reinforcement learning’. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/16761/reinforcement-learning/ (2019-11-28)

Therapie-Roboter

An der ETHZürich wurde vor einigen Jahren ein Therapie-Roboter entwickelt, um die Hand- und Armbewegungen von Patienten mit Lähmungserscheinungen nach einem Schlaganfall zu trainieren. Solche Reha-Roboter sind aber keineswegs als Ersatz für konventionelle Therapien gedacht, sondern vielmehr als sinnvolle Ergänzung.

Beim Training mit dem Therapie-Roboter ist der beeinträchtigte Arm des Patienten an das Exoskelett des beweglichen Roboterarms geschnallt und folgt den durch den Roboter vorgegebenen Bewegungen. Auf diese Weise können virtuell vor dem Bildschirm gezeigte Alltagssituationen wie das Einschenken von Wasser in ein Glas immer wieder geübt werden.

Man verbessert dadurch die Bewegungs­fähigkeit, indem man die Fehler verstärkt, denn wenn ein Schlaganfall-Patient beispielsweise nach etwas greifen will, es aber nicht präzis macht, verstärkt der Reha-Roboter diese Ungenauigkeit, indem er einen leichten Widerstand erzeugt. Auf diese Weise muss sich der Patient noch mehr anstrengen. Ein von dafür entwickelter, lernfähiger Algorithmus entscheidet jeweils selbstständig, welchen Patienten er die Aufgabe erschwert und welchen er sie eher erleichtert.

Quelle

https://www.tagesanzeiger.ch/contentstationimport/die-ingenieurin-die-reharoboter-trainiert/story/30228031 (19-11-10)

Bee-Bot – mit dem Roboter spielerisch lernen

Eine Kooperation des Wiener Bildungsservers mit den Büchereien der Stadt Wien bringt programmierbare Lernroboter in Wiener Kindergärten und Schulklassen. Bee-Bot, ein kleiner, programmierbarer Lernroboter, hält Einzug in Schulklassen und Kindergärten. Die Digibox enthält je einen Bee-Bot-Roboter, informative Booklets mit vielen Praxisideen und umfangreiches pädagogisches Begleitmaterial. Die Themenboxen wurden bisher hauptsächlich zur Sprach- und Leseförderung eingesetzt .

Zwei beiliegende Booklets bieten den PädagogInnen umfangreiche didaktische und technische Informationen sowie Tipps und Praxisideen zum Einsatz des Bee-Bots im Unterricht bzw. im Kindergarten.  Ab sofort stehen insgesamt 25 Digiboxen zur Verfügung und können von Pädagoginnen und Pädagogen über das Bibliothekspädagogische Zentrum der Büchereien der Stadt Wien kostenlos ausgeliehen werden.

Mithilfe des in der Digibox enthaltenen Lernroboters Bee-Bot können einfach und spielerisch erste Programmiererfahrungen gemacht werden.  Der Bee-Bot wird über Pfeiltasten auf seinem Rücken programmiert und kann sich vorwärts und rückwärts bewegen und sich drehen. Auf diese Weise können bis zu 40 aufeinanderfolgende Befehle eingegeben werden. Durch das Eingeben schrittweiser Bewegungsabfolgen werden nicht nur erste Grundkonzepte des Programmierens vermittelt, sondern auch das räumliche und das analytische Denken sowie die Problemlösekompetenz geschult. Das Grundprinzip des Programmierens wird dabei in einfacher Form vom Abstrakten ins Konkrete übersetzt. Durch die vielfältigen Einsatzmöglichkeiten des Bee-Bots bietet er sich für viele verschiedene Aktivitäten in der Schule oder im Kindergarten an.

Der Verleih der Digiboxen erfolgt über das Bibliothekspädagogische Zentrum (BPZ) der Büchereien der Stadt Wien, die Digiboxen können bestellt und bei allen Zweigstellen der Büchereien der Stadt Wien abgeholt werden. Die Verleihdauer beträgt jeweils 4 Wochen, der Verleih ist kostenlos.

Links

Weitere Infos zur Digibox: www.bildungsserver.wien/digibox
Büchereien Wien: https://buechereien.wien.gv.at/
Wiener Bildungsserver: www.bildungsserver.wien

Pepper nicht mehr freundlich genug?

Metallisch, kalt und als unpersönlich werden Roboter allgemein angesehen, sodass Hersteller seit jeher ihre Maschinen menschlicher zu gestalten versuchen, d. h., große Augen, kleiner Mund, angedeutete Stupsnasen sollen Barrieren abbauen. Bei dem Assistenzroboter Pepper funktioniert das gut, doch Pepper scheint nicht mehr freundlich genug zu sein, denn das britische Unternehmen Geomiq sucht für einen ungenannten Hersteller ein Gesichtsmodell, das einem Roboter spendiert werden soll, wobei Bewerber liebenswürdig und freundlich sein sollten. Dieses Unternehmen arbeitet an einem hochmodernen humanoiden Roboter, der in Altersheimen zum Einsatz kommen soll, wobei das Gesicht des Freiwilligen tausende Male reproduziert werden soll. Der Spender wird mit umgerechnet 115.000 Euro entlohnt.

Link: https://geomiq.com/

Roboter für das Hochbeet

Ein Hochbeet 2.0 mit einem Farmbot, der als Bausatz aus den USA kommt und von einer bunten Gruppe Enthusiasten im Makerspace des Digitalen Gründerzentrums brigk aufgebaut und programmiert wurde. Der Farmbot soll ist ein Instrument für jeden, der gärtnern will.
Im Rohzustand kann der Farmbot gar nichts, sondern er muss programmiert werden, was auch für Laien möglich ist, wenn man das System einmal verstanden hat. Man gibt ihm die Koordinaten des Beets und sagt ihm, wo er welches Gewächs einpflanzen soll und wie oft er gießen muss. Bis zur Ernte ist das Hochbeet autark, denn der Farmbot kann pflanzen, die Feuchtigkeit und die Temperatur messen und punktgenau gießen. Das Wasser kommt nur dahin, wo man es wirklich braucht, was vor allem für regenarme Gebiete wichtig ist. Auf einem Programm ist hinterlegt, wie viel Wasser und Platz welche Pflanze braucht. Das Gerät kann sogar Unkraut vernichten, denn mittels einer Kamera erkennt er, wenn irgendwo eine Pflanze sprießt, die dort nicht hingehört, und dann macht er sie platt. Der Farmbot kann sich mittels einer Schleppkette und an einem Querträger selber an jeden Punkt des Beets bewegen, man kann die Geschwindigkeit einstellen und auch den Weg, den er nimmt, also die Effizienz definieren. Mit einer Kamera kann der Hobbygärtner sogar ein Tagebuch des Wachstums seiner Pflanzen erstellen. Allerdings kann der Farmbot nicht ernten, das muss und darf immer noch der Mensch machen. Ein Beet von ein paar Quadratmetern und der Farmbot kann zur Versorgung von zwei Menschen ausreichen. Mittlerweile läuft das System ziemlich stabil, nachdem manche Kinderkrankheiten beseitigt wurden, meist Kleinigkeiten wie etwa mechanische Begrenzer.

Quelle

https://www.donaukurier.de/lokales/ingolstadt/LGS-Ingolstadt-2020-Nur-ernten-muss-der-Hobbygaertner-noch-selber;art599,4353650

Wie Roboter natürliche Kognition erreichen können

Menschen und Tiere unterscheiden sich stark in ihren Fähigkeiten wahrzunehmen, zu planen oder sich zu erinnern. Gemeinsam ist ihnen, dass sie sich flexibel auf immer wieder neue Herausforderungen einstellen können – was selbst den intelligentesten Maschinen derzeit nur sehr eingeschränkt möglich ist. Wie diese Flexibilität zustande kommt, ist eine der großen offenen Fragen in Psychologie und Neurowissenschaft. Sie steht im Mittelpunkt der neuen Forschungsgruppe „Situationsmodelle: Neue Perspektiven auf das kognitive Verhalten von Menschen, Tieren und Maschinen“ am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Aktuelle Fortschritte der Kognitiven Neurowissenschaften (KN, der Kombination von Psychologie und Hirnforschung) zeichnen uns zunehmend deutliche Umrisse wichtiger Kernkomponenten von kognitivem Verhalten und deren Rolle beim Zustandekommen der beim Menschen und vielen Spezies des Tierreichs (z.B. Nagetiere, Affen) beeindruckenden Flexibilität und Kontextsensitivität. Gleichzeitig sehen wir wichtige Durchbrüche im Bereich Künstlicher Intelligenz (KI) und Robotik: dort eröffnen Verbindungen von deep learning mit weiteren maschinellen Lernverfahren – zusammen mit der Verfügbarkeit hochentwickelter Roboterplattformen, neuen Interaktionsszenarien und sehr großen Datensätzen – neue Wege, um intelligentes Verhalten durch Lernen vorwiegend aus Daten und Interaktion zu synthetisieren. Dieses Zusammentreffen faszinierender Fortschritte in parallelen Gebieten stellt uns vor eine konvergente und disziplinüberschreitende Herausforderung: was verbindet die emergenten Teilfunktionalitäten zum beobachteten, flexiblen und kontext-sensitivem Verhalten? Diese Frage stellt sich in verbundener Weise in jeder der beiden Disziplinen – für natürliche kognitive Agenten als auch für Roboter, deren Verhalten natürliche Kognition erreichen soll.

Die interdisziplinäre ZiF-Forschungsgruppe – eine Denkfabrik für KI und KN – führt Experten und Expertinnen aus einschlägigen Forschungsrichtungen zusammen, um diese Herausforderung anzugehen. Unser konzeptioneller Ausgangspunkt sind dabei sog. Situationsmodelle: Situationsmodelle spezifizieren die erforderlichen Prozesse zusammen mit dem benötigten computationalen Raum, um Wahrnehmung und Gedächtnis gemäß der aktuellen Verhaltensanforderung (Aufgabe, Exploration) zu verbinden. Ein wichtiger Schlüssel liegt dabei in der Verknüpfung von Prädiktion, interner Simulation und weiteren Formen der gesteuerten Zusammenführung perzeptiver und erinnerter Information, um flexible und kontext-sensitive Handlungsentscheidungen, Handlungsplanung und Lernen zu ermöglichen.

Mit internationalen Kolleginnen und Kollegen aus Neuro- und Computerwissenschaften, Biologie, Psychologie und Robotik wollen die Forschenden in den nächsten Monaten am ZiF prüfen, ob sich aus diesen Fortschritten in den unterschiedlichen Disziplinen Erkenntnisse darüber gewinnen lassen, wie intelligentes Verhalten funktioniert: bei Menschen, Tieren und bei Maschinen, die einmal ebenso flexibel und kontextsensitiv werden sollen wie ihre natürlichen Vorbilder.

„Der Ausgangspunkt unserer Arbeit sind sogenannte Situationsmodelle, die festlegen, welche kognitiven Prozesse in einer Situation vermutlich nötig sind“, sagt Ritter. Diese Modelle sollen helfen, zu verstehen, wie Wahrnehmung, Gedächtnis und Handeln verknüpft sind und welche Prozesse es intelligenten Wesen ermöglicht, ihre Handlungen an die Situation angepasst zu planen. Dabei geht es den Forscherinnen und Forschern sowohl darum, Computermodelle und Experimente zu entwickeln, um ihre Annahmen zu prüfen, als auch um die Implikationen dieser Forschung für Medizin, Technologie und Philosophie.

Um einen produktiven Dialog zwischen Forschungsfeldern und Disziplinen voranzutreiben, werden wir uns auf basale nicht sprachlich vermittelte Formen des Verhaltens (z.B. manuelle Manipulation, Navigation, Suche) konzentrieren. Die Agenda der ZiF-Forschungsgruppe richtet sich dabei auf die folgenden Forschungsziele: die Konkretisierung und Spezifikation (Repräsentationen und Operationen) empirisch und computational adäquater Architekturen von Situationsmodellen; die Rolle von Situationsmodellen für die Steuerung und Balance von aufgabengerichtetem und explorationsgerichtetem Verhalten; die innovative Fortentwicklung hoch kontrollierbarer experimenteller Paradigmen zur Untersuchung von Situationsmodellen sowie die Herausarbeitung wissenschaftlicher und gesellschaftlicher Implikationen für Medizin, Philosophie und Technologie.

Vier Fokus-Perspektiven liefern die Roadmap für die avisierten Ziele: (1) Arbeitsgedächtnis als zentrales Portal für kognitives Verhalten (2) Situationsmodelle und effizientes kontext-sensitives Lernen (3) Zwei-System Theorien zur Kontrolle kognitiven Verhaltens (4) Reales und imaginiertes flexibles kontext-sensitives Verhalten mit kognitiven Karten. Jede einzelne Fokus-Perspektive markiert dabei spezifische Teilfragen; zum anderen richtet sie den Blick auf alternative Herangehensrichtungen zum Lösen der gestellten Fragen. Durch die disziplinübergreifende Verbindung der Erkenntnisse und Sichtweisen der KN und der KI erwarten wir eine starke wechselseitige Stimulation von Ideen und insgesamt einen hohen Erkenntnisgewinn der disziplinär so nicht zu erreichen wäre. Organisatorisch sind, neben der Präsenz von Fellows und assoziierten Mitgliedern am ZiF, zwei Konferenzen und vier Workshops geplant.

Quelle

https://www.uni-bielefeld.de/(de)/ZiF/FG/2019Behavior/index.html (19-10-02)

Avatar als Vertreter für kranke Schulkinder

Die OÖN vom 14. Juni 2019 berichten unter dem Titel “Mini-Roboter vertritt kranke Kinder im Klassenzimmer”, dass ein Kind über einen kleinen Robotermit seinen Kollegen Kontakt aufnehmen und am Unterricht teilhaben kann, was derzeit in einer Wiener Volksschule getestet wird. Viele Kinder, die wegen schwerer Erkrankungen nicht regelmäßig zur Schule gehen können, verpassen nicht nur viel Unterricht, sondern soziale Isolation erzeugt Stress, das schlecht für die Heilung ist. AV1 ist ein rund 30 Zentimeter große Avatar der norwegischen Firma No Isolation und seit April verfolgt das Testkind Dominik, der die dritte Klasse besucht und wegen seiner Krebserkrankung bereits ein Schuljahr verloren hat, durch den Avatar nicht nur daheim dem Unterricht, sondern kann schon von zu Hause eine Verbindung zu seinen Klassenkollegen aufbauen. Der Avatar, den Dominik über ein Tablet steuern kann, sitzt dabei als sein Stellvertreter im Klassenzimmer, wobei Dominik über ein Emoticon anzeigen kann, ob er glücklich, verwirrt oder traurig ist. Er kann den Kopf des Roboters drehen und über die eingebaute Kamera in der Klasse herumschauen oder im Flüstermodus mit dem Sitznachbar tratschen. Ein blinkendes Lämpchen bedeutet, dass Dominik aufzeigt und der Klasse etwas sagen möchte, ein blaues Licht zeigt an, wenn er erschöpft ist und deshalb nicht aktiv am Unterricht teilnimmt. Von den Mitschülern wurde der Avatar bereits gut als Dominiks Stellvertreter angenommen, und es ist ganz normal geworden, dass die Kinder Dominik beim Einstieg in den Unterricht begrüßen, dass dem Avatar bei Experimenten ein Platz mit guter Sicht organisiert wird und die Mitschüler der Lehrerin Bescheid geben, wenn Dominik “aufzeigt”.

Quelle

https://www.nachrichten.at/panorama/chronik/mini-roboter-vertritt-kranke-kinder-im-klassenzimmer;art58,3138505 (19-06-14)