Avatar als Vertreter für kranke Schulkinder

Die OÖN vom 14. Juni 2019 berichten unter dem Titel “Mini-Roboter vertritt kranke Kinder im Klassenzimmer”, dass ein Kind über einen kleinen Robotermit seinen Kollegen Kontakt aufnehmen und am Unterricht teilhaben kann, was derzeit in einer Wiener Volksschule getestet wird. Viele Kinder, die wegen schwerer Erkrankungen nicht regelmäßig zur Schule gehen können, verpassen nicht nur viel Unterricht, sondern soziale Isolation erzeugt Stress, das schlecht für die Heilung ist. AV1 ist ein rund 30 Zentimeter große Avatar der norwegischen Firma No Isolation und seit April verfolgt das Testkind Dominik, der die dritte Klasse besucht und wegen seiner Krebserkrankung bereits ein Schuljahr verloren hat, durch den Avatar nicht nur daheim dem Unterricht, sondern kann schon von zu Hause eine Verbindung zu seinen Klassenkollegen aufbauen. Der Avatar, den Dominik über ein Tablet steuern kann, sitzt dabei als sein Stellvertreter im Klassenzimmer, wobei Dominik über ein Emoticon anzeigen kann, ob er glücklich, verwirrt oder traurig ist. Er kann den Kopf des Roboters drehen und über die eingebaute Kamera in der Klasse herumschauen oder im Flüstermodus mit dem Sitznachbar tratschen. Ein blinkendes Lämpchen bedeutet, dass Dominik aufzeigt und der Klasse etwas sagen möchte, ein blaues Licht zeigt an, wenn er erschöpft ist und deshalb nicht aktiv am Unterricht teilnimmt. Von den Mitschülern wurde der Avatar bereits gut als Dominiks Stellvertreter angenommen, und es ist ganz normal geworden, dass die Kinder Dominik beim Einstieg in den Unterricht begrüßen, dass dem Avatar bei Experimenten ein Platz mit guter Sicht organisiert wird und die Mitschüler der Lehrerin Bescheid geben, wenn Dominik “aufzeigt”.

Quelle

https://www.nachrichten.at/panorama/chronik/mini-roboter-vertritt-kranke-kinder-im-klassenzimmer;art58,3138505 (19-06-14)

Künstliche Intelligenz – KI

Kaum ein Teilgebiet der Informatik erfährt derzeit so viel Aufmerksamkeit wie künstliche Intelligenz, wobei Computersysteme, die menschliche Intelligenz nachahmen, und Maschinen, die das Lernen lernen, als nächste Stufe der digitalen Transformation gelten. Für Unternehmen ergeben sich damit riesige Chancen, denn laut McKinsey kann Künstliche Intelligenz zum Wachstumsmotor für die Industrie werden mit einem großen jährlichen Umsatzpotenzial. Als einer der Vorreiter gilt das Technologie-und Dienstleistungsunternehmen Bosch. Dabei ist Künstliche Intelligenz die Schlüsseltechnologie, um Produkte in intelligente Assistenten zu verwandeln, d. h., immer mehr Produkte werden in Zukunft entweder selbst über Künstliche Intelligenz verfügen oder mithilfe von KI produziert werden.Dabei geht es um eine Künstliche Intelligenz, die sicher, robust und nachvollziehbar ist. Autos werden ihre Umwelt künftig dank Künstliche Intelligenz selbstständig verstehen und richtig reagieren, sie erfassen die Umgebung mit Kameras und Sensoren und leiten aus den Daten Handlungen ab. Rollt etwa ein Ball zwischen parkenden Autos auf die Straße, könnte ein Kind hinterherlaufen, das Auto bremst vorsorglich ab. Für solche Funktionen müssen riesige Datenmengen permanent gesammelt und blitzschnell verarbeitet werden. Eine wesentliche Methode der Künstlichen Intelligenz sind dabei Netze aus künstlichen Neuronen, die nichts weiter als mathematische Funktionen sind. Bei einem Training werden diese Netze mithilfe von Daten so eingestellt, dass sie bestimmte Aufgaben lösen können (Deep Learning).

Deep Learning ist eine Technologie im Rahmen der künstlichen Intelligenz-Forschung, die versucht, große Mengen an Textdaten durch Algorithmen zu verarbeiten, um eine automatische Repräsentationen von ähnlichen Wörtern abzuleiten. Bekanntlich kommen einem Text ähnliche Wörter auch in ähnlichen Zusammenhängen vor, was Deep Learning benutzt, um die Bedeutung eines Wortes abzuleiten. Deep Learning sichtet eine hohe Menge an Daten und produziert Repräsentationen, die ähnliche Wörter gruppieren, sodass mit der Zeit neue Erkenntnisse aus rohen Datensätzen abgeleitet werden können (Stangl, 2016).

Literatur

Stangl, W. (2016). Deep Learning. Werner Stangls Texte zum Lernen.
WWW: https://lernen.lerntipp.at/1191/deep-learning (2016-06-13)
https://t3n.de/news/ki-maschinen-lernen-bosch-it-karriere-1166938/ (19-06-13)

Verzerrte Diskussion über künstliche Intelligenz

KI-Forscher Kristian Kersting kritisiert in einem Interview mit dem Handelsblatt die völlig verzerrte Diskussion über künstliche Intelligenz, weil nur eine Handvoll Menschen darüber kompetent reden kann und der Rest nur die Nachrichten konsumieren darf. “In Nachrichtenartikeln wird immer gerne der Roboter als Bebilderung für einen Artikel über KI genommen, weil das eine schöne Verdeutlichung dessen ist, was wir unter Künstlicher Intelligenz verstehen. Allerdings transportiert man damit ungewollte Botschaften: Man vergleicht KI dann immer gleich mit dem Menschen. Deswegen sage ich meinen Kollegen in der wissenschaftlichen Community, dass wir vielleicht mehr populärwissenschaftliche Bücher schreiben und viel früher in der Schule darüber reden müssen. Über das Thema Künstliche Intelligenz und Daten sollte zum Beispiel im Sozial- oder Religionsunterricht gesprochen werden.”

Quelle

https://www.handelsblatt.com/technik/digitale-revolution/digitale-revolution-wir-werden-irgendwann-alle-ablaeufe-im-menschlichen-gehirn-algorithmisch-fassen-koennen/24440082.html (19-06-11)

Captology – Computers As Persuasive Technologies

Der Begriff Captology ist ein Kunstwort bzw. eine Erweiterung des Acronyms für „Computers As Persuasive Technologies“ (CAPT) und bezeichnet die Erforschung, Entwicklung und Analyse von Computing-Produkten, die Menschen in ihren Einstellungen oder ihrem Verhalten beeinflussen können. Captology umfasst dabei die Erforschung der Gestaltung von interaktiven computer- oder computerähnlichen Produkten wie etwa Mobiltelefonen, Computern, Internetseiten, Applikationen und Videospielen, die einen Einfluss auf die Meinung und das Verhalten der NutzerInnen entwickeln können.
Der Begriff wurde zuerst von B. J. Fogg (2003) für einen eigenen Forschungsbereich geprägt, um mittels einer AI-gesteuerten Technologie Meinungen und Verhalten von Menschen zu verändern, indem man etwa mit grafischen Elementen emotionale Reaktionen wie Wut, Freude oder Abscheu bei Rezipienten auszulösen versucht.

Literatur
Stangl, W. (2019). Stichwort: ‘Captology’. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/21910/captology/ (2019-06-06)

“Ich weiß, dass ich nichts weiß” für Roboter

Forscher rund um Markus Vincze vom Institut für Automatisierungs- und Regelungstechnik der TU Wien wollen Maschinen beibringen zu erkennen, was sie nicht wissen, um sich daraufhin aktiv auf die Informationssuche zu begeben. Die Gruppe arbeitet an Ansätzen, die Systeme befähigen, ihren Horizont von sich aus zu erweitern. Der erste Schritt dorthin ist für das System, überhaupt erst zu erkennen, dass etwas tatsächlich ein Objekt ist. Das Wiener Forschungsteam interessiert sich besonders dafür, was passiert, wenn eine Sache gar nicht erkannt wird. Dazu muss die Maschine aber wissen, was sie nicht weiß. Wenn dies der Fall ist, soll der Roboter ein Bild davon machen und sich im Internet auf die Suche begeben.
Mittels Analysen von Fotos und den dazugehörigen Bildtexten, die u. a. die Google-Bildersuche ausspuckt, optimierte das Team nun nach und nach die Suchalgorithmen. Der mobile Pflegeroboter Hobbit absolvierte bereits einen Praxistest. Er wurde mit zehn typischen Büroutensilien konfrontiert. Die Wissenschaftler löschten dann eines dieser Objekte aus der Datenbank, und der Roboter sollte sich selbst auf die Suche nach Information dazu machen. Besonders erfolgreich war er dabei, wenn sich in der Umgebung des gesuchten Objekts thematisch dazupassende andere Dinge befanden.

Affective Computing

Computer haben bekanntlich keine eigenen Gefühle und werden diese auch nicht in absehbarer Zeit entwickeln, doch daran, dass Systeme mithilfe von künstlicher Intelligenz menschliche Emotionen erkennen und deuten lernen kann, wird derzeit im Bereich des Affective Computing geforscht. In einem neuen Forschungszweig werden Erkenntnisse aus der Neurowissenschaft mit Informatik, Psychologie, Soziologie und Kognitionswissenschaft kombiniert. Dabei werden optische, audio-visuelle und physiologische Daten analysiert, um Absichten eines Menschen deuten und ableiten zu können. So sollen damit Smartphones, Wearables und Roboter in die Lage versetzt werden, Emotionen und Gefühle wie Angst, Wut, Freude, oder Trauer zu erfassen, zu analysieren und darauf zu reagieren.

Damit ein Mensch Informationen aufnehmen, verarbeiten und entsprechend Handlungen ableiten kann, greift sein Gehirn auf rund hundert Millionen Neuronen zurück, die in einem komplexen Geflecht miteinander interagieren. Um diesen Prozess auf Systeme künstlicher Intelligenz zu übertragen, arbeitet man mit künstlichen neuronalen Netzen. Diese künstlichen Neuronen dienen als Recheneinheiten, indem sie in Schaltkreisen miteinander verbunden werden, wobei es damm zum Signal kommt, wenn der Input innerhalb eines Schaltkreises einen kritischen Schwellenwert überschreitet. In einem weiteren Schritt kommen spezielle Machine-Learning-Algorithmen zum Einsatz, die die Daten verarbeiten und daraus verwertbare Informationen ableiten. Durch die Identifizierung von Mustern, etwa bei der Analyse von Stimmen oder Gesichtern, innerhalb der gesammelten Daten lassen sich Unterschiede in der Tonlage oder bei Gesichtsausdrücken feststellen. Gleicht man diese mit den zuvor definierten Parametern für verschiedene Emotionen ab, kann die Künstliche Intelligenz Signale zu einer Emotion zusammenfügen und diese deuten. Dadurch kann man bei einer Kombination mit Robotik einen empathischen Assistenten schaffen, der Menschen in unterschiedlichen Lebenslagen unterstützen kann, etwa im Alter, bei Verletzungen oder Krankheit. Roboter und Maschinen werden durch Affective Computing menschlicher, auch weil es den Menschen ein Bedürfnis ist, ihnen auf einer vertrauteren Ebene zu begegnen.

Quelle: https://t3n.de/news/emotion-ai-maschinen-lernen-1149606/ (19-03-24)

 

Sensorik Mensch und Maschine

Die Forschung arbeitet an der sensorischen Kommunikation zwischen Mensch und Maschine, wie etwa bei der flauschigen und lernfähigen Roboter-Robbe Paro. Der in Japan entwickelte Therapie-Roboter verfügt über Tastsensoren und reagiert auf Berührung. In der Altenpflege wird Paro bereits zur Behandlung von Demenzpatienten eingesetzt. Elisabeth André, Professorin für Multimodale Mensch-Technik in Augsburg, sagt dazu: „Wenn es den Leuten guttut, und es tut ihnen nachweislich gut, dann denke ich, ist das ein sehr gutes Mittel. Niemand regt sich auf, wenn ich zum Beispiel jemandem ein Stofftier in den Arm lege und derjenige sich drüber freut. Der einzige Unterschied zu dieser Robbe ist, dass die Robbe auf Berührung reagiert, also sie ist interaktiv. Sie hat bessere Kommunikationsfähigkeiten als ein normales Plüschtier.“ Jedoch ist der Weg zur authentischen sensorischen Interaktion zwischen Mensch und Maschine noch sehr weit, denn Untersuchungen zeigen, dass ein Roboter bisher nicht in der Lage ist, von biosensorischen Parametern wie Herzschlag, Leitfähigkeit der Haut, Temperatur und Vibrationen auf die Gefühlslage eines Menschen zurückzuschließen, d. h., das Spektrum der menschlichen Sensorik können Maschinen bisher nicht imitieren.

Literatur

https://www.deutschlandfunk.de/forschung-aktuell.675.de.html (19-02-27)

Emotionalität von Robotern

Der menschliche Sinn für soziale Interaktionen ist unglaublich entwickelt. Bereits als Baby lernt man, um Aufmerksamkeit zu bitten. So ist es wohl richtig, KI als künstliche Sozialagenten zu bilden. Das macht den Umgang einfacher: Statt Befehle einzutippen, spricht man sie aus. Doch: Was ist zu sozial in einem Roboter? Menschen wollen nicht von Robotern manipuliert werden. Sie wollen sicher sein, dass sie sich von Menschen unterscheiden, dass sie keine Gefühle haben, dass sie nicht meine Gefühle haben. Zumindest im Moment hat KI kein Bewusstsein. Das ist wichtig. Ein neues Paper: Ein Roboter interagiert mit Menschen in einem Arbeitsszenario – und zeigt ein paar Emotionen. Macht jemand einen Fehler, motiviert der Roboter: «Schade, aber es ist okay. Du kannst es erneut probieren.» (Singt fast) Er reagiert also nicht mit: «Wie konntest du das tun!» (Herablassend) Man untersucht auch Tonlagen, männliche und weibliche Stimmen. Was es bedeutet, wenn Roboter ein Geschlecht haben? Menschen projizieren oft ihre Gefühle, Einstellungen und Vorurteile auf Roboter. Von einem Roboter mit weiblicher Stimme erwarten sie mehr emotionale Intelligenz als von einem Roboter mit männlicher Stimme,obwohl beide identisch sind und gleiche Fähigkeiten haben. Im Vergleich zu anderen Arten haben Menschen wahrscheinlich das höchstentwickelte Gefühlsleben. Und deren Gefühle treiben mehr Entscheidungen voran, als sie zugeben. Deshalb wollen sie Maschinen, die psychologische Prozesse verstehen.

Quelle: Meia Chita-Tegmark, Psychologin und Philosophin,  am Worldwebforum 2019 in Zürich

Assistenzsysteme von Robotern und Künstlicher Intelligenz

Mögliche Rollen eines Assistenzsystem nach Onken & Schulte (2010):

Alerting assistance: Das Assistenzsystem erkennt unangemessenes menschliches Verhalten und lenkt die Aufmerksamkeit des Menschen auf die entsprechende Aufgabe, falls dieser kein Situationsbewusstsein über diese Tatsache hat. Außerdem darf es dem Menschen wichtige Informationen mitteilen, die es au s der Situationsüberwachung gewonnen hat .

Associative assistance: Das Assistenzsystem präsentiert kontinuierlich Vorschläge, aber lenkt nicht aktiv die Aufmerksamkeit des Operateurs. Der Operateur kann das Assistenzsystem anweisen, die entsprechende Aufgabe automatisch durchzuführen. –

Substituting assistance: Das Assistenzsystem kann entweder temporär oder permanent die Aufgabenz uständigkeiten des Menschen übernehmen. Temporäre substituting assistance kann durch den Menschen autorisiert werden oder intervenieren, ohne auf eine Autorisierung zu warten. Permanente substituting assistance kann zu Beginn des Arbeitsprozesses oder schon im Designprozess autorisiert werden.

Literatur

Onken, R. & Schulte, A.(2010). Systemergonomic Design of Cognitive Automation – Dual-Mode Cognitive Design of Vehicle Guidance and Control Work Systems. Springer.

Maschinelles Lernen

Maschinelles Lernen ermöglicht es Computern, aus Daten und Erfahrungen zu lernen, wodurch in jüngster Zeit große Fortschritte bei der Lösung lang bestehender Probleme wie maschinellem Sehen, Spracherkennung und automatischer Übersetzung gemacht wurden. Maschinelles Lernen wird eine zentrale Technologie auch für selbstfahrende Fahrzeuge und Fortschritte in der Medizin sein.