Computer haben bekanntlich keine eigenen Gefühle und werden diese auch nicht in absehbarer Zeit entwickeln, doch daran, dass Systeme mithilfe von künstlicher Intelligenz menschliche Emotionen erkennen und deuten lernen kann, wird derzeit im Bereich des Affective Computing geforscht. In einem neuen Forschungszweig werden Erkenntnisse aus der Neurowissenschaft mit Informatik, Psychologie, Soziologie und Kognitionswissenschaft kombiniert. Dabei werden optische, audio-visuelle und physiologische Daten analysiert, um Absichten eines Menschen deuten und ableiten zu können. So sollen damit Smartphones, Wearables und Roboter in die Lage versetzt werden, Emotionen und Gefühle wie Angst, Wut, Freude, oder Trauer zu erfassen, zu analysieren und darauf zu reagieren.
Damit ein Mensch Informationen aufnehmen, verarbeiten und entsprechend Handlungen ableiten kann, greift sein Gehirn auf rund hundert Millionen Neuronen zurück, die in einem komplexen Geflecht miteinander interagieren. Um diesen Prozess auf Systeme künstlicher Intelligenz zu übertragen, arbeitet man mit künstlichen neuronalen Netzen. Diese künstlichen Neuronen dienen als Recheneinheiten, indem sie in Schaltkreisen miteinander verbunden werden, wobei es damm zum Signal kommt, wenn der Input innerhalb eines Schaltkreises einen kritischen Schwellenwert überschreitet. In einem weiteren Schritt kommen spezielle Machine-Learning-Algorithmen zum Einsatz, die die Daten verarbeiten und daraus verwertbare Informationen ableiten. Durch die Identifizierung von Mustern, etwa bei der Analyse von Stimmen oder Gesichtern, innerhalb der gesammelten Daten lassen sich Unterschiede in der Tonlage oder bei Gesichtsausdrücken feststellen. Gleicht man diese mit den zuvor definierten Parametern für verschiedene Emotionen ab, kann die Künstliche Intelligenz Signale zu einer Emotion zusammenfügen und diese deuten. Dadurch kann man bei einer Kombination mit Robotik einen empathischen Assistenten schaffen, der Menschen in unterschiedlichen Lebenslagen unterstützen kann, etwa im Alter, bei Verletzungen oder Krankheit. Roboter und Maschinen werden durch Affective Computing menschlicher, auch weil es den Menschen ein Bedürfnis ist, ihnen auf einer vertrauteren Ebene zu begegnen.
Quelle: https://t3n.de/news/emotion-ai-maschinen-lernen-1149606/ (19-03-24)
Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::