Roboter für das Hochbeet

Ein Hochbeet 2.0 mit einem Farmbot, der als Bausatz aus den USA kommt und von einer bunten Gruppe Enthusiasten im Makerspace des Digitalen Gründerzentrums brigk aufgebaut und programmiert wurde. Der Farmbot soll ist ein Instrument für jeden, der gärtnern will.
Im Rohzustand kann der Farmbot gar nichts, sondern er muss programmiert werden, was auch für Laien möglich ist, wenn man das System einmal verstanden hat. Man gibt ihm die Koordinaten des Beets und sagt ihm, wo er welches Gewächs einpflanzen soll und wie oft er gießen muss. Bis zur Ernte ist das Hochbeet autark, denn der Farmbot kann pflanzen, die Feuchtigkeit und die Temperatur messen und punktgenau gießen. Das Wasser kommt nur dahin, wo man es wirklich braucht, was vor allem für regenarme Gebiete wichtig ist. Auf einem Programm ist hinterlegt, wie viel Wasser und Platz welche Pflanze braucht. Das Gerät kann sogar Unkraut vernichten, denn mittels einer Kamera erkennt er, wenn irgendwo eine Pflanze sprießt, die dort nicht hingehört, und dann macht er sie platt. Der Farmbot kann sich mittels einer Schleppkette und an einem Querträger selber an jeden Punkt des Beets bewegen, man kann die Geschwindigkeit einstellen und auch den Weg, den er nimmt, also die Effizienz definieren. Mit einer Kamera kann der Hobbygärtner sogar ein Tagebuch des Wachstums seiner Pflanzen erstellen. Allerdings kann der Farmbot nicht ernten, das muss und darf immer noch der Mensch machen. Ein Beet von ein paar Quadratmetern und der Farmbot kann zur Versorgung von zwei Menschen ausreichen. Mittlerweile läuft das System ziemlich stabil, nachdem manche Kinderkrankheiten beseitigt wurden, meist Kleinigkeiten wie etwa mechanische Begrenzer.

Quelle

https://www.donaukurier.de/lokales/ingolstadt/LGS-Ingolstadt-2020-Nur-ernten-muss-der-Hobbygaertner-noch-selber;art599,4353650

Wie Roboter natürliche Kognition erreichen können

Menschen und Tiere unterscheiden sich stark in ihren Fähigkeiten wahrzunehmen, zu planen oder sich zu erinnern. Gemeinsam ist ihnen, dass sie sich flexibel auf immer wieder neue Herausforderungen einstellen können – was selbst den intelligentesten Maschinen derzeit nur sehr eingeschränkt möglich ist. Wie diese Flexibilität zustande kommt, ist eine der großen offenen Fragen in Psychologie und Neurowissenschaft. Sie steht im Mittelpunkt der neuen Forschungsgruppe „Situationsmodelle: Neue Perspektiven auf das kognitive Verhalten von Menschen, Tieren und Maschinen“ am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Aktuelle Fortschritte der Kognitiven Neurowissenschaften (KN, der Kombination von Psychologie und Hirnforschung) zeichnen uns zunehmend deutliche Umrisse wichtiger Kernkomponenten von kognitivem Verhalten und deren Rolle beim Zustandekommen der beim Menschen und vielen Spezies des Tierreichs (z.B. Nagetiere, Affen) beeindruckenden Flexibilität und Kontextsensitivität. Gleichzeitig sehen wir wichtige Durchbrüche im Bereich Künstlicher Intelligenz (KI) und Robotik: dort eröffnen Verbindungen von deep learning mit weiteren maschinellen Lernverfahren – zusammen mit der Verfügbarkeit hochentwickelter Roboterplattformen, neuen Interaktionsszenarien und sehr großen Datensätzen – neue Wege, um intelligentes Verhalten durch Lernen vorwiegend aus Daten und Interaktion zu synthetisieren. Dieses Zusammentreffen faszinierender Fortschritte in parallelen Gebieten stellt uns vor eine konvergente und disziplinüberschreitende Herausforderung: was verbindet die emergenten Teilfunktionalitäten zum beobachteten, flexiblen und kontext-sensitivem Verhalten? Diese Frage stellt sich in verbundener Weise in jeder der beiden Disziplinen – für natürliche kognitive Agenten als auch für Roboter, deren Verhalten natürliche Kognition erreichen soll.

Die interdisziplinäre ZiF-Forschungsgruppe – eine Denkfabrik für KI und KN – führt Experten und Expertinnen aus einschlägigen Forschungsrichtungen zusammen, um diese Herausforderung anzugehen. Unser konzeptioneller Ausgangspunkt sind dabei sog. Situationsmodelle: Situationsmodelle spezifizieren die erforderlichen Prozesse zusammen mit dem benötigten computationalen Raum, um Wahrnehmung und Gedächtnis gemäß der aktuellen Verhaltensanforderung (Aufgabe, Exploration) zu verbinden. Ein wichtiger Schlüssel liegt dabei in der Verknüpfung von Prädiktion, interner Simulation und weiteren Formen der gesteuerten Zusammenführung perzeptiver und erinnerter Information, um flexible und kontext-sensitive Handlungsentscheidungen, Handlungsplanung und Lernen zu ermöglichen.

Mit internationalen Kolleginnen und Kollegen aus Neuro- und Computerwissenschaften, Biologie, Psychologie und Robotik wollen die Forschenden in den nächsten Monaten am ZiF prüfen, ob sich aus diesen Fortschritten in den unterschiedlichen Disziplinen Erkenntnisse darüber gewinnen lassen, wie intelligentes Verhalten funktioniert: bei Menschen, Tieren und bei Maschinen, die einmal ebenso flexibel und kontextsensitiv werden sollen wie ihre natürlichen Vorbilder.

„Der Ausgangspunkt unserer Arbeit sind sogenannte Situationsmodelle, die festlegen, welche kognitiven Prozesse in einer Situation vermutlich nötig sind“, sagt Ritter. Diese Modelle sollen helfen, zu verstehen, wie Wahrnehmung, Gedächtnis und Handeln verknüpft sind und welche Prozesse es intelligenten Wesen ermöglicht, ihre Handlungen an die Situation angepasst zu planen. Dabei geht es den Forscherinnen und Forschern sowohl darum, Computermodelle und Experimente zu entwickeln, um ihre Annahmen zu prüfen, als auch um die Implikationen dieser Forschung für Medizin, Technologie und Philosophie.

Um einen produktiven Dialog zwischen Forschungsfeldern und Disziplinen voranzutreiben, werden wir uns auf basale nicht sprachlich vermittelte Formen des Verhaltens (z.B. manuelle Manipulation, Navigation, Suche) konzentrieren. Die Agenda der ZiF-Forschungsgruppe richtet sich dabei auf die folgenden Forschungsziele: die Konkretisierung und Spezifikation (Repräsentationen und Operationen) empirisch und computational adäquater Architekturen von Situationsmodellen; die Rolle von Situationsmodellen für die Steuerung und Balance von aufgabengerichtetem und explorationsgerichtetem Verhalten; die innovative Fortentwicklung hoch kontrollierbarer experimenteller Paradigmen zur Untersuchung von Situationsmodellen sowie die Herausarbeitung wissenschaftlicher und gesellschaftlicher Implikationen für Medizin, Philosophie und Technologie.

Vier Fokus-Perspektiven liefern die Roadmap für die avisierten Ziele: (1) Arbeitsgedächtnis als zentrales Portal für kognitives Verhalten (2) Situationsmodelle und effizientes kontext-sensitives Lernen (3) Zwei-System Theorien zur Kontrolle kognitiven Verhaltens (4) Reales und imaginiertes flexibles kontext-sensitives Verhalten mit kognitiven Karten. Jede einzelne Fokus-Perspektive markiert dabei spezifische Teilfragen; zum anderen richtet sie den Blick auf alternative Herangehensrichtungen zum Lösen der gestellten Fragen. Durch die disziplinübergreifende Verbindung der Erkenntnisse und Sichtweisen der KN und der KI erwarten wir eine starke wechselseitige Stimulation von Ideen und insgesamt einen hohen Erkenntnisgewinn der disziplinär so nicht zu erreichen wäre. Organisatorisch sind, neben der Präsenz von Fellows und assoziierten Mitgliedern am ZiF, zwei Konferenzen und vier Workshops geplant.

Quelle

https://www.uni-bielefeld.de/(de)/ZiF/FG/2019Behavior/index.html (19-10-02)

Avatar als Vertreter für kranke Schulkinder

Die OÖN vom 14. Juni 2019 berichten unter dem Titel “Mini-Roboter vertritt kranke Kinder im Klassenzimmer”, dass ein Kind über einen kleinen Robotermit seinen Kollegen Kontakt aufnehmen und am Unterricht teilhaben kann, was derzeit in einer Wiener Volksschule getestet wird. Viele Kinder, die wegen schwerer Erkrankungen nicht regelmäßig zur Schule gehen können, verpassen nicht nur viel Unterricht, sondern soziale Isolation erzeugt Stress, das schlecht für die Heilung ist. AV1 ist ein rund 30 Zentimeter große Avatar der norwegischen Firma No Isolation und seit April verfolgt das Testkind Dominik, der die dritte Klasse besucht und wegen seiner Krebserkrankung bereits ein Schuljahr verloren hat, durch den Avatar nicht nur daheim dem Unterricht, sondern kann schon von zu Hause eine Verbindung zu seinen Klassenkollegen aufbauen. Der Avatar, den Dominik über ein Tablet steuern kann, sitzt dabei als sein Stellvertreter im Klassenzimmer, wobei Dominik über ein Emoticon anzeigen kann, ob er glücklich, verwirrt oder traurig ist. Er kann den Kopf des Roboters drehen und über die eingebaute Kamera in der Klasse herumschauen oder im Flüstermodus mit dem Sitznachbar tratschen. Ein blinkendes Lämpchen bedeutet, dass Dominik aufzeigt und der Klasse etwas sagen möchte, ein blaues Licht zeigt an, wenn er erschöpft ist und deshalb nicht aktiv am Unterricht teilnimmt. Von den Mitschülern wurde der Avatar bereits gut als Dominiks Stellvertreter angenommen, und es ist ganz normal geworden, dass die Kinder Dominik beim Einstieg in den Unterricht begrüßen, dass dem Avatar bei Experimenten ein Platz mit guter Sicht organisiert wird und die Mitschüler der Lehrerin Bescheid geben, wenn Dominik “aufzeigt”.

Quelle

https://www.nachrichten.at/panorama/chronik/mini-roboter-vertritt-kranke-kinder-im-klassenzimmer;art58,3138505 (19-06-14)

Künstliche Intelligenz – KI

Kaum ein Teilgebiet der Informatik erfährt derzeit so viel Aufmerksamkeit wie künstliche Intelligenz, wobei Computersysteme, die menschliche Intelligenz nachahmen, und Maschinen, die das Lernen lernen, als nächste Stufe der digitalen Transformation gelten. Für Unternehmen ergeben sich damit riesige Chancen, denn laut McKinsey kann Künstliche Intelligenz zum Wachstumsmotor für die Industrie werden mit einem großen jährlichen Umsatzpotenzial. Als einer der Vorreiter gilt das Technologie-und Dienstleistungsunternehmen Bosch. Dabei ist Künstliche Intelligenz die Schlüsseltechnologie, um Produkte in intelligente Assistenten zu verwandeln, d. h., immer mehr Produkte werden in Zukunft entweder selbst über Künstliche Intelligenz verfügen oder mithilfe von KI produziert werden.Dabei geht es um eine Künstliche Intelligenz, die sicher, robust und nachvollziehbar ist. Autos werden ihre Umwelt künftig dank Künstliche Intelligenz selbstständig verstehen und richtig reagieren, sie erfassen die Umgebung mit Kameras und Sensoren und leiten aus den Daten Handlungen ab. Rollt etwa ein Ball zwischen parkenden Autos auf die Straße, könnte ein Kind hinterherlaufen, das Auto bremst vorsorglich ab. Für solche Funktionen müssen riesige Datenmengen permanent gesammelt und blitzschnell verarbeitet werden. Eine wesentliche Methode der Künstlichen Intelligenz sind dabei Netze aus künstlichen Neuronen, die nichts weiter als mathematische Funktionen sind. Bei einem Training werden diese Netze mithilfe von Daten so eingestellt, dass sie bestimmte Aufgaben lösen können (Deep Learning).

Deep Learning ist eine Technologie im Rahmen der künstlichen Intelligenz-Forschung, die versucht, große Mengen an Textdaten durch Algorithmen zu verarbeiten, um eine automatische Repräsentationen von ähnlichen Wörtern abzuleiten. Bekanntlich kommen einem Text ähnliche Wörter auch in ähnlichen Zusammenhängen vor, was Deep Learning benutzt, um die Bedeutung eines Wortes abzuleiten. Deep Learning sichtet eine hohe Menge an Daten und produziert Repräsentationen, die ähnliche Wörter gruppieren, sodass mit der Zeit neue Erkenntnisse aus rohen Datensätzen abgeleitet werden können (Stangl, 2016).

Literatur

Stangl, W. (2016). Deep Learning. Werner Stangls Texte zum Lernen.
WWW: https://lernen.lerntipp.at/1191/deep-learning (2016-06-13)
https://t3n.de/news/ki-maschinen-lernen-bosch-it-karriere-1166938/ (19-06-13)

Verzerrte Diskussion über künstliche Intelligenz

KI-Forscher Kristian Kersting kritisiert in einem Interview mit dem Handelsblatt die völlig verzerrte Diskussion über künstliche Intelligenz, weil nur eine Handvoll Menschen darüber kompetent reden kann und der Rest nur die Nachrichten konsumieren darf. “In Nachrichtenartikeln wird immer gerne der Roboter als Bebilderung für einen Artikel über KI genommen, weil das eine schöne Verdeutlichung dessen ist, was wir unter Künstlicher Intelligenz verstehen. Allerdings transportiert man damit ungewollte Botschaften: Man vergleicht KI dann immer gleich mit dem Menschen. Deswegen sage ich meinen Kollegen in der wissenschaftlichen Community, dass wir vielleicht mehr populärwissenschaftliche Bücher schreiben und viel früher in der Schule darüber reden müssen. Über das Thema Künstliche Intelligenz und Daten sollte zum Beispiel im Sozial- oder Religionsunterricht gesprochen werden.”

Quelle

https://www.handelsblatt.com/technik/digitale-revolution/digitale-revolution-wir-werden-irgendwann-alle-ablaeufe-im-menschlichen-gehirn-algorithmisch-fassen-koennen/24440082.html (19-06-11)

Captology – Computers As Persuasive Technologies

Der Begriff Captology ist ein Kunstwort bzw. eine Erweiterung des Acronyms für „Computers As Persuasive Technologies“ (CAPT) und bezeichnet die Erforschung, Entwicklung und Analyse von Computing-Produkten, die Menschen in ihren Einstellungen oder ihrem Verhalten beeinflussen können. Captology umfasst dabei die Erforschung der Gestaltung von interaktiven computer- oder computerähnlichen Produkten wie etwa Mobiltelefonen, Computern, Internetseiten, Applikationen und Videospielen, die einen Einfluss auf die Meinung und das Verhalten der NutzerInnen entwickeln können.
Der Begriff wurde zuerst von B. J. Fogg (2003) für einen eigenen Forschungsbereich geprägt, um mittels einer AI-gesteuerten Technologie Meinungen und Verhalten von Menschen zu verändern, indem man etwa mit grafischen Elementen emotionale Reaktionen wie Wut, Freude oder Abscheu bei Rezipienten auszulösen versucht.

Literatur
Stangl, W. (2019). Stichwort: ‘Captology’. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/21910/captology/ (2019-06-06)

“Ich weiß, dass ich nichts weiß” für Roboter

Forscher rund um Markus Vincze vom Institut für Automatisierungs- und Regelungstechnik der TU Wien wollen Maschinen beibringen zu erkennen, was sie nicht wissen, um sich daraufhin aktiv auf die Informationssuche zu begeben. Die Gruppe arbeitet an Ansätzen, die Systeme befähigen, ihren Horizont von sich aus zu erweitern. Der erste Schritt dorthin ist für das System, überhaupt erst zu erkennen, dass etwas tatsächlich ein Objekt ist. Das Wiener Forschungsteam interessiert sich besonders dafür, was passiert, wenn eine Sache gar nicht erkannt wird. Dazu muss die Maschine aber wissen, was sie nicht weiß. Wenn dies der Fall ist, soll der Roboter ein Bild davon machen und sich im Internet auf die Suche begeben.
Mittels Analysen von Fotos und den dazugehörigen Bildtexten, die u. a. die Google-Bildersuche ausspuckt, optimierte das Team nun nach und nach die Suchalgorithmen. Der mobile Pflegeroboter Hobbit absolvierte bereits einen Praxistest. Er wurde mit zehn typischen Büroutensilien konfrontiert. Die Wissenschaftler löschten dann eines dieser Objekte aus der Datenbank, und der Roboter sollte sich selbst auf die Suche nach Information dazu machen. Besonders erfolgreich war er dabei, wenn sich in der Umgebung des gesuchten Objekts thematisch dazupassende andere Dinge befanden.

Affective Computing

Computer haben bekanntlich keine eigenen Gefühle und werden diese auch nicht in absehbarer Zeit entwickeln, doch daran, dass Systeme mithilfe von künstlicher Intelligenz menschliche Emotionen erkennen und deuten lernen kann, wird derzeit im Bereich des Affective Computing geforscht. In einem neuen Forschungszweig werden Erkenntnisse aus der Neurowissenschaft mit Informatik, Psychologie, Soziologie und Kognitionswissenschaft kombiniert. Dabei werden optische, audio-visuelle und physiologische Daten analysiert, um Absichten eines Menschen deuten und ableiten zu können. So sollen damit Smartphones, Wearables und Roboter in die Lage versetzt werden, Emotionen und Gefühle wie Angst, Wut, Freude, oder Trauer zu erfassen, zu analysieren und darauf zu reagieren.

Damit ein Mensch Informationen aufnehmen, verarbeiten und entsprechend Handlungen ableiten kann, greift sein Gehirn auf rund hundert Millionen Neuronen zurück, die in einem komplexen Geflecht miteinander interagieren. Um diesen Prozess auf Systeme künstlicher Intelligenz zu übertragen, arbeitet man mit künstlichen neuronalen Netzen. Diese künstlichen Neuronen dienen als Recheneinheiten, indem sie in Schaltkreisen miteinander verbunden werden, wobei es damm zum Signal kommt, wenn der Input innerhalb eines Schaltkreises einen kritischen Schwellenwert überschreitet. In einem weiteren Schritt kommen spezielle Machine-Learning-Algorithmen zum Einsatz, die die Daten verarbeiten und daraus verwertbare Informationen ableiten. Durch die Identifizierung von Mustern, etwa bei der Analyse von Stimmen oder Gesichtern, innerhalb der gesammelten Daten lassen sich Unterschiede in der Tonlage oder bei Gesichtsausdrücken feststellen. Gleicht man diese mit den zuvor definierten Parametern für verschiedene Emotionen ab, kann die Künstliche Intelligenz Signale zu einer Emotion zusammenfügen und diese deuten. Dadurch kann man bei einer Kombination mit Robotik einen empathischen Assistenten schaffen, der Menschen in unterschiedlichen Lebenslagen unterstützen kann, etwa im Alter, bei Verletzungen oder Krankheit. Roboter und Maschinen werden durch Affective Computing menschlicher, auch weil es den Menschen ein Bedürfnis ist, ihnen auf einer vertrauteren Ebene zu begegnen.

Quelle: https://t3n.de/news/emotion-ai-maschinen-lernen-1149606/ (19-03-24)

 

Sensorik Mensch und Maschine

Die Forschung arbeitet an der sensorischen Kommunikation zwischen Mensch und Maschine, wie etwa bei der flauschigen und lernfähigen Roboter-Robbe Paro. Der in Japan entwickelte Therapie-Roboter verfügt über Tastsensoren und reagiert auf Berührung. In der Altenpflege wird Paro bereits zur Behandlung von Demenzpatienten eingesetzt. Elisabeth André, Professorin für Multimodale Mensch-Technik in Augsburg, sagt dazu: „Wenn es den Leuten guttut, und es tut ihnen nachweislich gut, dann denke ich, ist das ein sehr gutes Mittel. Niemand regt sich auf, wenn ich zum Beispiel jemandem ein Stofftier in den Arm lege und derjenige sich drüber freut. Der einzige Unterschied zu dieser Robbe ist, dass die Robbe auf Berührung reagiert, also sie ist interaktiv. Sie hat bessere Kommunikationsfähigkeiten als ein normales Plüschtier.“ Jedoch ist der Weg zur authentischen sensorischen Interaktion zwischen Mensch und Maschine noch sehr weit, denn Untersuchungen zeigen, dass ein Roboter bisher nicht in der Lage ist, von biosensorischen Parametern wie Herzschlag, Leitfähigkeit der Haut, Temperatur und Vibrationen auf die Gefühlslage eines Menschen zurückzuschließen, d. h., das Spektrum der menschlichen Sensorik können Maschinen bisher nicht imitieren.

Literatur

https://www.deutschlandfunk.de/forschung-aktuell.675.de.html (19-02-27)

Emotionalität von Robotern

Der menschliche Sinn für soziale Interaktionen ist unglaublich entwickelt. Bereits als Baby lernt man, um Aufmerksamkeit zu bitten. So ist es wohl richtig, KI als künstliche Sozialagenten zu bilden. Das macht den Umgang einfacher: Statt Befehle einzutippen, spricht man sie aus. Doch: Was ist zu sozial in einem Roboter? Menschen wollen nicht von Robotern manipuliert werden. Sie wollen sicher sein, dass sie sich von Menschen unterscheiden, dass sie keine Gefühle haben, dass sie nicht meine Gefühle haben. Zumindest im Moment hat KI kein Bewusstsein. Das ist wichtig. Ein neues Paper: Ein Roboter interagiert mit Menschen in einem Arbeitsszenario – und zeigt ein paar Emotionen. Macht jemand einen Fehler, motiviert der Roboter: «Schade, aber es ist okay. Du kannst es erneut probieren.» (Singt fast) Er reagiert also nicht mit: «Wie konntest du das tun!» (Herablassend) Man untersucht auch Tonlagen, männliche und weibliche Stimmen. Was es bedeutet, wenn Roboter ein Geschlecht haben? Menschen projizieren oft ihre Gefühle, Einstellungen und Vorurteile auf Roboter. Von einem Roboter mit weiblicher Stimme erwarten sie mehr emotionale Intelligenz als von einem Roboter mit männlicher Stimme,obwohl beide identisch sind und gleiche Fähigkeiten haben. Im Vergleich zu anderen Arten haben Menschen wahrscheinlich das höchstentwickelte Gefühlsleben. Und deren Gefühle treiben mehr Entscheidungen voran, als sie zugeben. Deshalb wollen sie Maschinen, die psychologische Prozesse verstehen.

Quelle: Meia Chita-Tegmark, Psychologin und Philosophin,  am Worldwebforum 2019 in Zürich