Ein Überblick über den Prozess des Web Crawling

Web-Crawler durchsuchen systematisch das Internet, um Websites zu finden. Aber wie finden sie alle verschiedenen Websites? Und wie finden sie alle Seiten auf einer Website?

Crawling von Links: Web-Crawler folgen Hyperlinks, ähnlich wie wir Menschen es tun, wenn wir selbst im Internet surfen, um von Seite zu Seite zu gelangen – oder von einer Website zur anderen. Dabei kann es sich um interne Links handeln, die von Seite zu Seite auf einer Website führen, oder um Backlinks, die von Website A zu Website B führen.
Crawling von Sitemaps: Web-Crawler werfen auch einen Blick auf die Sitemap einer Website, um alle Seiten zu verstehen, die sie besuchen und indizieren müssen.
Manuelle Anmeldung: Man kann eine Website und eine Liste ihrer Seiten mit Hilfe von Tools wie Google Search Console, Bing Webmaster Tools usw. manuell bei Suchmaschinen anmelden.

Dann kopieren Web-Crawler die Informationen auf den gefundenen Webseiten (Text, HTML, Hyperlinks, Metadaten usw.) und senden sie an ihr Suchmaschinen-Mutterschiff (die Firmenserver der Web-Crawler), die die Webseiten in ihre riesigen Datenbanken herunterladen und die Informationen so organisieren/indizieren, dass sie sehr schnell durchsucht und referenziert werden können. Web-Crawler senden Informationen so in die Datenbank von Google, dass sie für Suchende sehr schnell zugänglich sind.

Wenn Crawler eine Webseite finden, rendern die Systeme der Suchmaschine den Inhalt der Seite und beachten dabei Schlüsselelemente wie Schlüsselwörter und halten alles im Suchindex fest.

Verbessertes Web Crawling, verbesserte Indexierung

Nun aber entwickelt sich Google weiter und ist in der Lage, ein differenzierteres und komplexeres Verständnis von Informationen zu schaffen. Anstatt Informationen auf Webseiten einfach nach Schlüsselwörtern zu ordnen, ist es nun in der Lage, Entitäten zu verstehen – so wie wir Menschen es tun. Zum Beispiel war die Keyword-Phrase “Werner Stangl” einfach eine Folge von 12 Buchstaben, die durch ein Leerzeichen getrennt waren. Jetzt versteht Google mehr über dieses Schlüsselwort, die Gründe, warum Menschen danach suchen, und dass Werner Stangl eine Entität ist – speziell eine Personenentität. Wenn man also nach Nicholas Cage suchen, erhält man mehr Informationen über ihn, als Person.

Wenn Menschen Roboter helfen sollen

Kühnlenz et al. (2018) habe mit Hilfe des NAO, der dem menschlichen Aussehen nachempfunden ist, untersucht, wie sich Menschen gegenüber einem Roboter verhalten. Der Roboter arbeitete dabei als Aushilfe in einem Supermarkt und bat die KundInnen des Geschäfts um Hilfe. Sie sollen ihm die Namen von verschiedenen Produkten nennen, die er zum Üben brauche. Dabei wurden vom Roboter NAO zwei unterschiedliche Verhaltensweisen gezeigt: einmal passte sich der Roboter dem Menschen emotional an, beim anderen Mal verhielt er sich neutral. Emotional angepasst bedeutete in diesem Fall, dass er den ProbandInnen vermittelte, er könne ihre Gefühle verstehen, indem er etwa danach fragte, wie sich der Mensch momentan fühle, um dann mit angepasster Wortwahl zu antworten, etwa dass es ihm derzeit genauso gehe.

Es zeigte sich, dass wenn sich der Roboter den Menschen emotional anpasste, dieser auch eher bereit war, ihm zu helfen. Außerdem sprachen die ProbandInnen dem Roboter dann eher menschliche Eigenschaften zu und empfanden ihm gegenüber sogar Empathie. Obwohl NAO seine Bitte nicht durch menschliche Mimik unterstreichen konnte, kamen die ProbandInnen dem Roboter zur Hilfe, jedoch spielte es eine Rolle, ob sie vorher bereits Kontakt zu Robotern gehabt hatten, denn wer mit Robotern vorher nichts zu tun gehabt hatte, verhielt sich deutlich reservierter, und auch die Bildung der ProbandInnen wirkte sich dabei auf ihr Verhalten dem Roboter gegenüber aus.

Literatur

Kühnlenz, Barbara, Busse, Fabian, Förtsch, Pascal, Wolf, Maximilian & Kühnlenz, Koloa (2018). Effect of Explicit Emotional Adaptation on Prosocial Behavior of Humans towards Robots Depends on Prior Robot Experience. Proc. of the Int. Conf. on Robot and Human Interactive Communication.

Post-Editing von maschinellen Übersetzungen

Maschinelle Übersetzungen spielen im Alltag eine immer größere Rolle, wobei sich die Qualität maschineller Übersetzungen in den letzten Jahren deutlich verbessert hat. Allerdings ist dabei ein Post-Editing maschineller Übersetzungen unabdingbar, denn das spart Zeit, reduziert Fehler, verändert aber die Art der Interaktion mit dem Text.

Post-Editing kombiniert die Vorteile von Künstlicher Intelligenz und menschlicher Intelligenz, verschiebt aber auch den Fokus von Übersetzungsarbeiten, denn anstatt Text zu erzeugen, korrigieren Übersetzer Fehler in ansonsten hilfreichen Vorschlägen in der Zielsprache, wobei häufig wiederkehrende Fehler der maschinellen Übersetzung zu verbessern ermüdend und kognitiv anspruchsvoll ist. Während die künstliche Intelligenz gut darin ist, schnell Übersetzungsentwürfe vorzuschlagen, kann nur ein Mensch mit fundierten Kenntnissen der Ausgangs- und Zielsprache lexikalische und semantische Nuancen analysieren und sicherstellen, dass die Bedeutung der Übersetzung identisch ist.

Post-Editing verändert die kognitive Dimension des Übersetzens, denn es erfordert nicht nur ein Gespür für den Satz in der Originalsprache, sondern auch für die fehleranfällige Ausgabe der maschinellen Übersetzung, den umgebenden Kontext sowie die Leserschaft und deren kulturellen Hintergrund. Robuste Ansätze zur automatischen Abschätzung dieser veränderten kognitiven Belastung (Cognitive Load) beim Post-Editing ermöglichen ein besseres Verständnis dafür, ob und wann maschinelles Übersetzen den Arbeitsprozess eher unterstützt oder behindert. Bei der maschinellen Übersetzung treten nicht nur tatsächliche Fehler auf, die diese trifft mitunter auch immer wieder dieselben lexikalischen oder stilistischen Entscheidungen, mit denen der Übersetzer möglicherweise nicht einverstanden ist, sodass im gesamten Text dann ähnliche Modifikationen erforderlich sind. Eine Möglichkeit ist dabei die Verwendung von Deep-Learning-Architekturen für das automatische Post-Editing, die die Ausgabe jedes Black-Box-Übersetzungs–Systems an eine bestimmte Domäne oder einen bestimmten Stil anpassen können. Anstatt übersetzen zu lernen, lernen solche Systeme aus wiederkehrenden menschlichen Korrekturen und wenden sie auf Vorschläge der maschinellen Übersetzung für neue Texte an.

Literatur

https://idw-online.de/de/news761197 (21-01-15)

Einige Geheimnisse des Internets

Web Crawler – Web Crawling ist ziemlich faszinierend, aber normalerweise super langweilig. Dieser Artikel ist für Nicht-Entwickler, die die Bedeutung verstehen müssen, weil sie wollen, dass ihre Websites eine bessere Sichtbarkeit erhalten, mehr organischen Traffic bekommen und mehr Geld verdienen.

Was sind Web-Crawler?

Beginnen wir mit der Definition von Web Crawler. Web-Crawler (auch “Spider”, “Bots”, “Spiderbots” usw. genannt) sind Software-Anwendungen, deren primäre Lebensaufgabe es ist, im Internet zu navigieren (zu “crawlen”) und Informationen zu sammeln, meist mit dem Ziel, diese Informationen irgendwo zu indexieren. Sie werden “Web-Crawler” genannt, weil “Crawling” eigentlich der Fachbegriff für den automatischen Zugriff auf eine Website ist, um mithilfe von Software Daten zu erhalten. Im Grunde ist ein Crawler so etwas wie ein virtueller Bibliothekar. Er sucht nach Informationen im Internet und sendet diese dann an eine Datenbank, um sie zu organisieren, zu katalogisieren usw., so dass die gecrawlten Informationen bei Bedarf schnell und einfach von Suchmaschinen abgerufen werden können (z. B. wenn Sie eine Suche durchführen).

Spiderbot! Ihre Mission, sollten Sie sie annehmen, ist es, das außerordentlich große (und ständig wachsende) Internet unaufhörlich zu durchstreifen und alle Informationen zu sammeln und in unseren Index aufzunehmen. Und nun gehen Sie los, erwerben und extrahieren Sie! Das ist so ziemlich das, wie es funktioniert. Nun, wer bei klarem Verstand würde das Internet durchforsten und all diese Informationen katalogisieren wollen? Das hört sich an wie die Strafe, die dem größten aller Sünder von Luzifer selbst auferlegt würde.

Googlebot. Das ist der Googlebot: Er ist ein nicht enden wollender Roboter (ein Stück Software), der im Internet herumläuft und alle Ihre Informationen (die Informationen von Ihrer Website, die Informationen, die Sie auf Social-Media-Websites laden, die Informationen, die Sie in Ihren Gmails senden, die Informationen, die Sie in Ihr Google Home sprechen, usw.) aufnimmt und in den Google-Index schickt. So funktioniert eine Suchmaschine. Google ist allerdings nicht der Einzige – andere Suchmaschinenunternehmen (wie Yahoo, Bing usw.) verdienen ihr Geld damit, dass sie uns Menschen, die an unseren Computern und Telefonen kleben und rund um die Uhr nach Dingen suchen, mit Informationen versorgen – aber sie müssen diese Informationen auf irgendeine Weise beschaffen. Das tun sie mit diesen Web Crawlern.

Wie funktionieren Webcrawler?

Das primäre Ziel eines Webcrawlers ist es, einen Index zu erstellen (mehr dazu später) und zu lernen, worum es auf jeder Webseite im Internet geht, so dass die Informationen von Suchmaschinen abgerufen und Ihnen (dem Suchenden) extrem schnell und mit großer Genauigkeit zur Verfügung gestellt werden können – das heißt, Ihnen Ergebnisse zu liefern, die die Suchabsicht dessen beantworten, was Sie in die Suchmaschine eingegeben (oder gesprochen) haben.

Das Internet ist wie eine ständig wachsende Bibliothek mit Milliarden von Büchern (Websites), aber keinem offiziellen/zentralen Ablagesystem. Daher verwenden Suchmaschinenunternehmen internetbasierte Software, die als Web-Crawler bekannt ist, um öffentlich zugängliche Webseiten – wie Ihre Website – zu entdecken.

Der Prozess des Web Crawling

Web-Crawler durchsuchen systematisch das Internet, um Webseiten zu finden. Aber wie finden sie alle verschiedenen Websites? Und wie finden sie alle Seiten auf Ihrer Website? Crawling von Links: Web-Crawler folgen Hyperlinks, ähnlich wie wir Menschen es tun, wenn wir selbst im Internet surfen, um von Seite zu Seite zu gelangen – oder von einer Website zur anderen. Dabei kann es sich um interne Links handeln, die von Seite zu Seite auf einer Website führen, oder um Backlinks, die von Website A zu Website B führen. Crawling von Sitemaps: Web-Crawler werfen auch einen Blick auf die Sitemap Ihrer Website, um alle Seiten zu verstehen, die sie besuchen und indizieren müssen. Manuelle Anmeldung: Sie können Ihre Website und eine Liste ihrer Seiten mit Hilfe von Tools wie Google Search Console, Bing Webmaster Tools usw. manuell bei Suchmaschinen anmelden.

Dann kopieren sie die Informationen auf den gefundenen Webseiten (Text, HTML, Hyperlinks, Metadaten usw.) und senden sie an ihr Suchmaschinen-Mutterschiff (die Firmenserver der Web-Crawler), die die Webseiten in ihre riesigen Datenbanken herunterladen und die Informationen so organisieren/indizieren, dass sie sehr schnell durchsucht und referenziert werden können. War das wirklich zu 100% technisch korrekt? Ich weiß es nicht. Ich bin kein Webentwickler. Aber es ist nahe genug, damit Sie die allgemeine Idee bekommen, wie es funktioniert, ohne dass Sie die Definition 17 Mal neu lesen müssen und trotzdem verwirrt sind.

Wie auch immer – Web-Crawler senden Informationen in die Datenbank von Google, und zwar so, dass sie für Sie (Suchende) sehr schnell zugänglich sind. Wenn Crawler eine Webseite finden, rendern die Systeme der Suchmaschine den Inhalt der Seite und beachten dabei Schlüsselelemente wie Schlüsselwörter und wir halten alles im Suchindex fest. Diese Technologie wird “Indizierung” genannt. In der Vergangenheit basierte der gesamte Suchmaschinen-Index / Algorithmus von Google auf der Verwendung von Schlüsselwörtern, um Seiten zu verstehen, zu indizieren, zu organisieren und auszuliefern (wenn jemand eine Suche durchgeführt hat). Das ist der Grund, warum Google, wenn Sie nach etwas suchen, in weniger als einer halben Sekunde 4.220.000.000 Ergebnisse liefern kann… Absoluter Wahnsinn.

Beachten Sie: Dieser Prozess des Besuchs von Seiten, des Crawlens aller Links, des Herunterladens der Informationen usw. findet alles auf Ihrer Website statt, was bedeutet, dass Ihr Webserver (auch bekannt als Webhoster) derjenige ist, der die Informationen verarbeiten muss, und dass er Ihre Ressourcen verwendet, für die Ihnen der Webhoster Gebühren berechnet. Google lässt Sie also nicht nur Geld ausgeben, um Ihre Informationen zu “stehlen und zu organisieren”, sondern zwingt Sie auch dazu, für Werbung zu bezahlen, wenn Sie möchten, dass Ihre Website ganz oben auf der Suchseite erscheint. Denken Sie eine Sekunde darüber nach… Das ist der Grund, warum wir hier bei SERP Co, SEO Services mit Stolz anbieten – und es als einen Kampf gegen die Giganten sehen. Ein Weg für uns, den kleinen Jungs zu helfen, das zurückzuerobern, was ihnen gehört – organische Suchmaschinen-Immobilien, bei denen man nicht für Klicks bezahlen muss.

Verbessertes Web Crawling, verbesserte Indexierung

Nun entwickelt sich Google jedoch weiter und ist in der Lage, ein ausgefeilteres und komplexeres Verständnis von Informationen zu schaffen. Anstatt Informationen auf Webseiten einfach nach Schlüsselwörtern zu ordnen, ist es nun in der Lage, Entitäten zu verstehen – so wie wir Menschen es tun. Zum Beispiel war die Keyword-Phrase “nicholas cage” einfach eine Folge von 12 Buchstaben, die durch ein Leerzeichen getrennt waren..Jetzt versteht Google mehr über dieses Schlüsselwort, die Gründe, warum Menschen danach suchen, und dass Nicholas Cage eine Entität ist – speziell eine Personenentität. Wenn Sie also nach Nicholas Cage suchen, erhalten Sie mehr Informationen über ihn, als Person.

Web-Crawler-Richtlinien

Da Web Crawler Software sind, folgen sie Regeln, die als Policies bekannt sind. Auswahlrichtlinien – sagen den Crawlern, welche Seiten sie herunterladen sollen und welche nicht. Re-Visit-Policies – sagen den Crawlern, wann sie zurückkehren sollen, um nach Änderungen zu suchen. Höflichkeitsrichtlinien – sagen den Crawlern, wie sie die Überlastung von Websites vermeiden können. Tipp: Sie haben hier eine gewisse Macht, indem Sie ihnen Anweisungen in Ihrer robots.txt-Datei geben.

Die Bedeutung von Webcrawlern für Suchmaschinenoptimierung

Suchmaschinenoptimierung – die Praxis, Inhalte für die Indizierung durch Suchmaschinen vorzubereiten, damit Ihre Website in den SERP-Ergebnissen weiter oben erscheint und Sie mehr Klicks, Traffic, Verkäufe usw. erhalten. Ohne Web-Crawler würde Ihre Website nie gefunden werden und somit nicht in den Suchmaschinen präsentiert werden können.
Selektivität Die meisten Crawler versuchen nicht, das gesamte Internet zu crawlen, denn seien wir ehrlich – einige Websites sind wichtiger als andere, und das Internet ist einfach viel zu groß. Web-Crawler (denken Sie daran, dass es sich um Software handelt) benötigen Ressourcen (aka Geld), um zu laufen, also wollen Unternehmen sicherstellen, dass sie ihre Ressourcen so effizient wie möglich nutzen, also müssen sie selektiv sein. Diese Bots entscheiden anhand von Faktoren, die sie als wichtig erachten, welche Seiten zuerst gecrawlt werden sollen: Wie beliebt ist die Seite? Sie müssen sie immer wieder crawlen, wenn sie wollen, dass die aktualisierten Informationen, die die Site weiterhin veröffentlicht, von einer Suchmaschine abgerufen werden können. Die Popularität wird durch Hunderte von Ranking-Faktoren bestimmt, aber die wichtigsten sind: Traffic, Anzahl der Links auf die Seite, etc.

Crawl-Budget

Das “Crawl-Budget” eines Web-Crawlers ist im Grunde die Menge an Seiten, die er innerhalb eines bestimmten Zeitraums auf einer bestimmten Website crawlen (und indizieren) wird. Was bedeutet das für Sie? Wenn Ihre Website zu langsam ist, zu schwer zu crawlen, als nicht wichtig genug erachtet wird usw., wird Ihr Budget erschöpft sein und der Crawler wird gehen. Er wird es verpassen, Seiten zu finden, und somit werden Ihre Seiten nicht in Suchmaschinen indiziert werden.

  • Eine gute Sitemap
  • Eine gute Website-Architektur
  • Gute Seitengeschwindigkeit
  • Viele Backlinks
  • Gute interne Verlinkung
  • Eine richtig eingerichtete robots.txt-Datei
  • Sicherstellen, dass Ihre Website nicht viele defekte Seiten hat (404s, etc.)

robots.txt

Ihre robots.txt-Datei ist eine Datei auf Ihrer Website, in der Crawler nach Richtlinien suchen – Sie können die Spider einladen oder sie fernhalten – Sie haben die Wahl. Sie möchten vielleicht nicht, dass Bots bestimmte Seiten besuchen (maximieren Sie Ihr Crawl-Budget auf Ihre wichtigeren Website-Abschnitte) oder vielleicht möchten Sie einfach bestimmte Bots blockieren.

Gute Bots vs. schlechte Bots

Wir möchten also, dass unsere Website von Google, Bing, Yahoo usw. gefunden wird, damit unser Unternehmen von Kunden gefunden werden und wachsen kann. Großartig! Und jetzt wissen wir, dass wir dafür sorgen müssen, dass diese Crawler-Bots unsere Website finden, damit unsere Website gefunden wird. Prima. Aber nicht alle Web-Crawler sind Programme, die von den Suchmaschinenfirmen entwickelt wurden, und nicht alle Bots werden im Internet eingesetzt, um Inhalte zu INDEXieren – einige sind dazu da, Inhalte zu scrapen.

Was sind Scraper-Bots? Haben Sie jemals Spam-Anrufe oder Spam-E-Mails erhalten? Wie sind diese Leute an Ihre Kontaktinformationen gekommen? Nun, ein Weg war, dass sie von Ihrer Website oder einer anderen Website im Internet abgeschöpft wurden. Haben Sie sich jemals gefragt, wie Ihre geschäftlichen/persönlichen Informationen auf Websites landen, von denen Sie sicher wissen, dass Sie sie nicht hinzugefügt haben? Vielleicht wurden sie abgeschöpft.

Bots können alles auslesen, was öffentlich im Internet veröffentlicht wird. Dazu gehören Texte, Bilder, HTML, CSS, usw. Böswillige Bots können alle möglichen Informationen sammeln, die Hacker/Angreifer für eine Vielzahl von Zwecken nutzen: Textbasierte Inhalte können auf einer anderen Website wiederverwendet werden, um die SERP-Rankings der ersten Website zu stehlen. Angreifer könnten den gesamten HTML- und CSS-Code Ihrer Website verwenden, um ein Duplikat Ihrer Website zu erstellen und zu versuchen, Benutzer zur Eingabe ihrer Benutzernamen, Passwörter, Kreditkarteninformationen usw. zu verleiten usw.

Persönliche Informationen können massenhaft abgegriffen werden, um Datenbanken von Personen einer bestimmten Kohorte zu sammeln und für Marketingzwecke zu verwenden. Zugegeben, dies ist nicht annähernd so bösartig wie die vorherigen Beispiele, aber es verdeutlicht dennoch den Punkt – nicht alle Bots sind dazu da, Ihre Inhalte für Suchmaschinen zu indizieren. Das ist nicht nur eine schwindelerregende Menge an Bot-bezogenen Aktivitäten, sondern hat auch echte Auswirkungen auf Sie als Website-Besitzer. Es wirkt sich auf Ihre Analysen, Ihre Server-Ressourcen usw. aus.

Abschließender Gedanken

Bots sind überall. Web-Crawler machen fast die Hälfte des Internets aus. Als verantwortungsbewusster Geschäftsinhaber, Website-Besitzer, SEO-Berater usw. ist es daher von entscheidender Bedeutung, dass wir sie verstehen und weiterhin lernen, was wir tun können, um die guten Bots hereinzulassen und die bösen Bots draußen zu halten.

Roboter als Weihnachtsengel im Linzer Schlossmuseum

Die Schau-Fenster im Innenhof des Linzer Schlossmuseums bieten Einblick in die Gegenstände der aktuellen Ausstellungen und des Depots, und erzählen skurrile und besondere Geschichten, etwa wieso ein Roboter arbeitslos ist.

Der Roboter ist jetzt ein Weihnachtsengel!

[Foto: Gunda Hochfilzer]


Telepräsenzroboter für chronisch kranke Kinder

Für chronisch erkrankten Kinder, die aufgrund ihrer Einschränkungen nicht dauerhaft die Schule besuchen können, bringen Telepräsenzroboter ein Stück Normalität zurück in ihr Leben. Denn neben den Beschwerlichkeiten durch die körperlichen Einschränkungen ist es bei chronisch kranken Kindern auch die Psyche, die leidet. Oftmals können sie für eine längere Zeit die Schule nicht besuchen und verlieren so Stück für Stück den sozialen Anschluss. Das verstärkte Gefühl von Isolation und Ausgrenzung steigert das Risiko für psychische Erkrankungen wie Depressionen. Es ist daher gerade für junge Patienten immens wichtig, zu ihren eigenen Bedingungen am Unterricht und den Schulaktivitäten teilnehmen zu können.

Der Telepräsenzroboter AV1 des norwegischen Start-ups “No Isolation” bieten mit seinen Funktionen Kindern eine Form der Teilhabe, die eine Videokonferenz nicht leisten kann. Denn der AV1 lässt sich mittels einer App steuern. Der Kopf des kleinen Roboters mit der eingebauten Kamera ist um 360 Grad schwenkbar. Ein Lautsprecher in der Brust überträgt die Stimme des Nutzers, bei Bedarf senkt der AV1 über die Flüsterfunktion die Lautstärke, so dass nur der Sitznachbar hören kann, was der Nutzer sagt. Umgekehrt hört dieser was um ihn herum passiert und kann auch nonverbal mittels Emotion-Buttons darauf reagieren. Dann zeigen die LED-Augen des AV1 zum Beispiel an, ob der Nutzer glücklich, nachdenklich oder verwirrt ist. Auch über eine Meldefunktion verfügt der AV1 – leuchtet ein weißes Licht am Kopf des Roboters möchte das Kind einen Wortbeitrag abgeben oder eine Frage stellen.

Um den Bedürfnissen der jungen Patienten noch weiter gerecht zu werden, verfügt der AV1 auch über eine Ruhefunktion. Fühlt sich das Kind nicht fit genug, aktiv am Geschehen teilzunehmen, reicht ein Tap in der App und Lehrer und Mitschüler werden mit einem blauen Lichtsignal darüber informiert. Auf ein Display, mit dem ein Videobild des Nutzers übertragen wird, haben die Entwickler dagegen bewusst verzichtet. In Gesprächen mit den Kindern habe sich gezeigt, dass diese von ihren Mitschülern und Lehrern nicht unbedingt in ihrem kranken Zustand gesehen werden möchten.

Quelle

https://www.focus.de/panorama/welt/schul-stellvertreter-fuer-junge-patienten-wenn-der-roboter-die-schulbank-drueckt_id_12589229.html (20-12-09)

Desinfektionsroboter gegen Covid19

Desinfektionsroboter für Krankenhäuser können gewöhnliche Patientenzimmer mit ultraviolettem Licht in nur 15 Minuten desinfizieren!

Während des Vorgangs werden die Roboter von jemansem gesteuert, der sich außerhalb des Raumes befinde, um dem UV-Licht nicht ausgesetzt zu sein. Desinfektionsroboter können ein wichtiger Schritt zur Eindämmung der Ausbreitung des Coronavirus darstellen.

Diese Desinfektionsroboter sollen voraussichtlich in den kommenden Wochen ausgeliefert werden.

Speicherwiderstände auf Graphenbasis

könnten zu gehirnbasiertem Computing führen, denn Forscher haben eine neue Computerkomponente entwickelt, mit der zwischen 16 möglichen Speicherzuständen umgeschaltet werden kann – die Art von Computer-Vielseitigkeit, die durch Gehirnsynapsen bereitgestellt wird. Die neue Komponente, die als Graphen-Feldeffekttransistor bezeichnet wird, könnte den Weg für Fortschritte im Bereich des vom Gehirn inspirierten Rechnens ebnen. Graphen ist die Bezeichnung für eine Modifikation des Kohlenstoffs mit zweidimensionaler Struktur, in der jedes Kohlenstoffatom im Winkel von 120° von drei weiteren umgeben ist, sodass sich ein bienenwabenförmiges Muster ausbildet. Da Kohlenstoff vierwertig ist, müssen dabei je Wabe zwei Doppelbindungen auftreten, die jedoch nicht lokalisiert sind. Es handelt sich um eine Verkettung von Benzolringen, wie sie in aromatischen Verbindungen oft auftritt. Die Bindungsverhältnisse im Graphen sind in der Graphenstruktur beschrieben. Graphen lässt sich als polycyclischer aromatischer Kohlenwasserstoff beschreiben. Am Rande des Wabengitters müssen andere Atomgruppen angedockt sein, die aber – je nach dessen Größe – die Eigenschaften des Graphens kaum verändern.  Moderne Computer sind ausschließlich digital und weisen zwei Zustände auf: Ein-Aus oder Null und Eins. Ingenieure arbeiten daran, einen Computer zu bauen, der die analoge Natur des Gehirns nachbildet und in der Lage ist, viele verschiedene Zustände zu hosten. Wenn die Informationsverarbeitungskomponenten eines digitalen Computers wie ein Lichtschalter funktionieren und nur zwischen Ein und Aus umschalten, ist ein analoger Computer wie ein Lichtdimmer. Wissenschaftler haben jahrzehntelang das Potenzial des gehirnbasierten Rechnens untersucht, aber analoge Computer wurden von den Fortschritten bei der traditionellen Rechenleistung überschattet. Der Aufstieg von Big Data und intelligenten Geräten wie selbstfahrenden Autos hat jedoch die Notwendigkeit einer höheren Recheneffizienz unterstrichen. Man hat heute leistungsstarke Computer, daran besteht kein Zweifel. Das Problem ist, dass diese den Speicher an einem Ort speichern und an einem anderen Ort rechnen. Alle Bewegungen von Informationen, die für die Aufteilung des Speichers in die Logik in modernen Computern erforderlich sind, belasten die Geschwindigkeit. Es erfordert auch mehr Platz, wobei Graphen-Feldeffekttransistoren dazu beitragen können, diesen Engpass zu beseitigen. Man schafft künstliche neuronale Netze, die die Energie- und Flächeneffizienz des Gehirns nachahmen. Das Gehirn ist dabei so kompakt, dass es auf die menschlichen Schultern passt, während ein moderner Supercomputer einen Platz von der Größe von zwei oder drei Tennisplätzen einnimmt. Gehirnsynapsen können schnell neu konfiguriert werden, um eine Vielzahl von neuronalen Netzwerkmustern zu erzeugen. Ebenso kann der neue Graphen-Feldeffekttransistor, der aus einer ein Atom dicken Schicht von Kohlenstoffatomen besteht, verwendet werden, um 16 mögliche Speicherzustände zu steuern. Man konnte den Transistor neu konfigurieren und effektiv zwischen den Speicherzuständen umschalten, indem man ein kurzes elektrisches Feld an die Graphenschicht anlegte. Man hat also gezeigt, dass man eine große Anzahl von Speicherzuständen mit einfachen Graphen-Feldeffekttransistoren präzise steuern kann.

Interaktion zwischen Mensch und Roboter erfordert Psychologie

Überall da, wo Menschen mit Technik interagieren, spielt auch die Psychologie eine wichtige Rolle. Das bedeutet, bei jeder Analyse zu betrachten, wie man die Interaktion von Mensch und Technik positiv gestalten kann, sei es nun beim autonomen Fahren, in der Virtual Reality, in den Social Media oder bei der Interaktion mit Robotern. Dabei geht es vor allem um die Frage: Was müssen diese Geräte können, damit der Mensch sie gut bedienen kann und sich mit den Geräten wohlfühlt? Welche Rolle spielen psychologische Faktoren bei der Interaktion?

Menschen müssen auch befähigt werden, Diskussionen im Bereich der Digitalisierung mitzuführen, sodass man bei der Entwicklung neuer Technologien nicht nur auf den wissenschaftlichen Aspekt achten sollte, sondern auch immer den Faktor Mensch mitdenken muss. Was bringt für den Menschen diese Technologie? Welche gesellschaftliche Veränderung bringt diese technische Entwicklung mit sich? Ist sie fair oder schließt sie Menschen aus?

Schließlich soll sich jedee bzw. Jeder in dieser digitalen Zukunft wohlfühlen.

Quelle

https://www.zdi-portal.de/heldin-eimler/ (20-10-29)

Roboter soll eigenständig laufen lernen

Deep-Learning-Algorithmen haben den Nachteil, dass sie mit Schätzungen arbeiten, sodass Anwendungen, die einen hohen Grad an Sicherheit brauchen, damit nicht funktionieren können. Ein Forschungsprojekt will das ändern und mit einer neuen Methode einem humanoiden Roboter selbstständig das Laufen beibringen, also selbstständig komplexe Bewegungen lernen – dazu müssen Deep-Learning-Algorithmen mit verlässlichen mathematischen Regeln kombiniert werden. Das Projekt will Steuerungssysteme auf Basis von Künstlicher Intelligenz näher an die Fähigkeiten des Menschen rücken.

Deep Learning, ein Teilbereich des maschinellen Lernens, wird oft als Schlüsseltechnologie für die Künstliche Intelligenz (KI) bezeichnet, poblematisch ist aber, dass durch subsymbolische Verfahren der Deep-Learning-Algorithmus geschätzte Werte aus dem Training in der Simulation zieht. Damit bieten die Schlussfolgerungen der Verfahren keinen hohen Grad an Sicherheit. Viele Bereiche, die einen hohen Grad an Sicherheit erfüllen müssen, können somit nicht mit KI ergänzt werden.

Bremer Forschungsbereiche des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) arbeiten deshalb an einer neuen Methode, um die Vorteile von schnellem, eigenständigem Lernen und verlässlicher Verifikation zu kombinieren. Das Projekt dahinter, „Very Human“, will Steuerungssysteme auf Basis von KI näher an die Fähigkeit des Menschen rücken. Um das direkt zu überprüfen, wird die neue Methode an einem humanoiden Roboter getestet, der aufrecht und stabil gehen soll. Sollte die Methode funktionieren, kann der Roboter auch komplexere Bewegungen durchführen und Rennen oder Springen erlernen können.
Das Risiko selbstlernender Systeme

Um einem humanoiden Roboter mittels Künstlicher Intelligenz das Laufen zu lehren, kann man nicht ausschließlich geschätzte Werte des Deep-Learning-Algorithmus einsetzen. Die Anwendung muss auch mathematische, physikalische und statistische Modelle berücksichtigen, damit kein Fehler passiert.

Das Problem dabei: Die Kombination von subsymbolischen, selbstlernenden Algorithmen und solchen, die auf mathematischen Regeln und Abstraktionen basieren, hat sich als schwierig erwiesen. Die Entscheidungen, die ein Deep-Learning-Programm trifft, basiert nicht auf Berechnungen, somit können sie auch nicht durch logische Regeln erklärt werden. Um eine neue Methode dafür zu finden, arbeiten im Projekt zwei unterschiedliche Forschungsbereiche zusammen: Das Robotics Innovation Center (RIC) unter Leitung von Prof. Frank Kirchner und der Forschungsbereich Cyber-Physical Systems (CPS) von Prof. Rolf Drechsler wollen die Vorteile beider Ansätze kombinieren.

Die Forscher stehen bei diesem Projekt vor drei Herausforderungen:

  • Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich – aufgrund ebenjener physikalischen Eigenschaften – nicht nur auf Trainingsdaten verlassen kann.
  • Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar – das System würde sich wie eine Black Box verhalten.
  • Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen Systems – der Schlüssel zu seiner Verifikation und der erfolgreichen Anwendung von Reinforcement Learning, bei dem das System dafür belohnt wird, das mathematisch korrekte Ergebnis zu erlangen.

Das Projekt ist auf drei Jahre angelegt und wird vom Bundesministerium für Bildung und Forschung mit knapp 1,3 Millionen Euro gefördert.

Quelle

https://idw-online.de/de/news?print=1&id=755696