Roboterethik

Nach Janina Sombetzki (2016) sieht sich die Roboterethik immer wieder mit zwei Vorwürfen konfrontiert, die ihren Status als Bereichsethik in Frage stellen: Zum einen habe sie keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. Doch selbst wenn artifizielle Systeme zu Recht in den Fokus der ethischen Reflexion geraten würden, ließen sich – so der zweite Einwand – mit ihnen im Blick keine neuen, sondern in anderen ethischen Arenen längst formulierte und ausgetragene Fragen stellen. Zum ersten Einwand: falls sich herausstellen sollte, dass Roboter selbst keine moralischen Handlungssubjekte sind, könnten sie dennoch ihren gerechtfertigten Platz im moralischen Universum einnehmen. Schließlich existieren eine ganze Reihe von (teil-)unbelebten Entitäten, denen wir einen Wert zuzusprechen gewillt sind – Landschaften, Ökosystemen, dem Planeten Erde, aber auch Häusern, Autos, Smartphones und der Schnuffeldecke frühester Kindertage. Um was für eine Art von Wert es sich im Falle artifizieller Systeme handelt, bleibt freilich zu diskutieren, doch wo, wenn nicht in der Ethik, sollte eine solche Diskussion geführt werden?
Dem zweiten Einwand ist nicht viel entgegenzusetzen, jedoch handelt es sich dabei nicht um eine spezifisch die Roboterethik treffende Kritik, sondern ließe sich letztlich auf alle Bereichsethiken beziehen, solange man den Menschen als Ausgangs-, Drehund Angelpunkt ethischen Nachdenkens begreift und dieser in allen Sphären der ethischen Überlegung anzutreffen ist. Darüber hinaus kann man diesen Vorwurf eines „epistemischen Anthropozentrismus“ in der Tat positiv wenden, indem man die Tatsache einer generellen (Familien-)Ähnlichkeit ethischer Fragen in allen Bereichsethiken als Aktualität und Flexibilität der philosophischen Reflexion insgesamt deutet: Tradierte ethische Fragen sind immer noch zeitgemäß und relevant. Darüber hinaus ist die Philosophie in der Lage, längst bekannte Probleme an aktuelle Gegenstände anzupassen, ihre z.T. antiken Fragen also mit einer Welt abzugleichen, die mittlerweile über künstliche Intelligenz und moralisches Lernen in artifiziellen Systemen diskutiert.
Janina Sombetzki (2016) schlägt eine Einteilung der Roboterethik in zwei Arbeitsfelder vor: Roboter als moral patients und als moral agents. So ist ein ganz grundlegender Vergleich zur Tierethik möglich, in der ebenfalls beide Felder eine Rolle spielen, insbesondere, wenn man auf die Möglichkeiten artifizieller moralischer Akteursfähigkeit fokussiert. Nichtsdestotrotz betreffen die Fragen, mit denen man aktuell konfrontiert ist, fast ausnahmslos den Bereich der Roboterethik, der sich mit artifiziellen Systemen als WertträgerInnen befasst. Zudem scheint das Thema von Empathie und Emotionalität selbst dann für Roboter als moral patients von Belang zu sein, wenn auf dem Feld zu artifiziellen Systemen als moral agents angenommen wird, Moralzuschreibung bedürfe der Empathie nicht.
Vor dem Hintergrund des Ansatz einer funktionalen Äquivalenz graduell vorliegender Kompetenzen und Vermögen, die Sombietzki als eine Version der schwachen KI-These interpretiert, lässt sich kombiniert mit meiner Skizze eines algorithmischen Strukturschemas den Positionen eines Anthro-, Patho-, Biound Physiozentrismus eine weitere Sicht zur Lokalisierung von Phänomenen im moralischen Universum hinzufügen, die all die Wesen mit einem Eigenwert bemisst, die lernfähig sind. Lernfähigkeit bedeutet mindestens eine Programmierung durch nicht-determinierte/nicht-deterministische Algorithmen. Solche Wesen befänden sich im oberen Bereich einer funktionalen Moralzuschreibung und hätten unter dieser Perspektive einen Eigenwert. Weiterhin wäre es möglich, Robotern, die insbesondere auf der Grundlage determinierter /nichtdeterministischer Sets an Algorithmen arbeiten und sich eher im Bereich operationaler Moralzuschreibung bewegen, unter dieser Perspektive immerhin einen hohen instrumentellen Wert zuzuschreiben.
Die Roboterethik als Bereichsethik weist damit zahlreiche Chancen und Perspektiven auf – nicht zuletzt die ernsthafte Ausarbeitung eines Ansatzes, der lernfähigen Wesen einen Eigenwert beimisst sowie der Diskurs um Herausforderungen im Bereich der Roboter als moral patients und das parallele Ringen um die Erschaffung einer starken oder schwachen KI im Bereich der Roboter als moral agents.

Literatur

Sombetzki, Janina (2016). Roboterethik (S. 355-379). In Matthias Maring (Hrsg.), Zur Zukunft der Bereichsethiken – Herausforderungen durch die Ökonomisierung der Welt. Karlsruher Institut für Technologie: KIT Scientific Publishing.

Digitale Technologien werden die vorherrschenden kognitiven Methoden verändern

Viele Experten befürchten, dass der Einsatz von künstlicher Intelligenz bzw. deren Produkte die Menschen dazu anleitet, immer weniger auf die eigenen kognitiven Fähigkeiten zu vertrauen. Cecutti et al. (2021) haben Forschungsarbeiten untersucht, um herauszufinden, welche langfristigen Auswirkungen der technologische Fortschritt auf die kognitiven Fähigkeiten hat, wobei sie sich kritisch mit den einschlägigen Erkenntnissen auseinander setzen und argumentieren, dass es keine eindeutigen Beweise für schädliche dauerhafte Auswirkungen der digitalen Technologie auf die kognitiven Fähigkeiten gibt. Die meisten Experimente zu den kognitiven Fähigkeiten belegen höchstens einen kurzfristigen Effekt, der sich aber langfristig wieder ausgleichen könnte. Es dürfte eher so sein, dass durch den intensiven Gebrauch künstlicher Intelligenz nicht die kognitiven Fähigkeiten der Menschen Schaden nehmen, sondern eher, dass die Technologie die Motivation reduziert, die kognitiven Prozesse überhaupt erst in Gang setzt. Menschen neigen dazu, die digitale Technologie als eine Art externes Gedächtnis zu betrachten und sich auf sie zu verlassen. Offenbar reduzieren die digitalen Technologien nicht so sehr die Erinnerungsfähigkeit, sondern die Art und Weise, wie sich Menschen an Dinge erinnern. Cecutti et al. (2021) zeigen aber eher auf, dass die digitale Technologie die vorherrschenden kognitiven Methoden verändern werden.

Literatur

Cecutti, Lorenzo, Chemero, Anthony & Lee, Spike W. S. (2021). Technology may change cognition without necessarily harming it. Nature Human Behaviour, 5, 973-975.

Roboter zur Induzierung von Halluzinationen bei Parkinson

Parkinson ist die zweithäufigste neurodegenerative Krankheit nach Alzheimer, ihre Ursache ist unbekannt, ihr Ursprung auch, wobei die Diagnose schwierig ist, da die Symptome lange nicht bemerkt werden. Eine Forschergruppe der ETH Lausanne ruft nun mit einer Art Gehirn-Stress-Test, Halluzinationen hervor, die auch bei Parkinson auftreten. Das Ziel ist, daraus ein Diagnose-Tool zu entwickeln, mit dem Parkinson früher als bisher diagnostiziert werden kann. Symptome sind vor allem der Verlust der Muskelkontrolle, das kann sich in Zittern, verlangsamten Bewegungen oder Steifheit auswirken, aber machen sich die Symptome bemerkbar, sind die Schäden im Gehirn meist schon weit fortgeschritten, sodass Wissenschaft und Forschung seit Jahren nach einem Bio-Marker sucht, der die Erkrankung anzeigt, bevor sie schon wichtige Hirnstrukturen zerstört hat.

So können früh auch Halluzinationen auftreten, also (Schein-)Wahrnehmungen im peripheren Blickfeld, d. h., die Betroffenen haben den Eindruck, seitlich etwas herunterschweben oder vorbeihuschen zu sehen. In einigen Fällen sind die Störungen so stark, dass der Betroffene das Gefühl hat, jemand stünde hinter oder neben ihm, und sich daher umsieht. Forscher macht sich diesen Umstand zunutze und haben einen Weg gefunden, die Schaltkreise im Gehirn, die diese Halluzinationen erzeugen, künstlich zu aktivieren. Das funktioniere ähnlich wie ein Herz-Stress-Test, wobei der Betroffene mit der Hand regelmässige Bewegungen vollführt, die von einem Roboter kontrolliert werden. Ein anderer Roboter antwortet auf diese Bewegungen mit Berührungssignalen auf dem Rücken. Sind die Reize synchron, passiert nichts, doch verzögert oder beschleunigt man hingegen die Response-Signale, treten die Halluzinationen auf, und zwar auch bei gesunden Patienten, Parkinson-Patienten jedoch reagieren aber stärker.

Dieses medizinisches Verfahren basiert auf Methoden der Robotik, mit dem man eine spezifische Halluzination, nämlich die Anwesenheitshalluzination, in einem Labor oder Spital sicher und unter kontrollierten Bedingungen induzieren kann. Gehirn-Scans zeigen dann die Regionen im Gehirn, die aktiv sind, wenn Halluzinationen auftreten, wobei dieses «Anwesenheitshalluzinations-Netzwerk» drei fronto-temporale cortikale Hirnregionen umfasst, Regionen in der Stirn- und Schläfengegend. Gehirn-Scans erlaubten es dann, bei Parkinson-Patienten den Schweregrad der Symptome vorauszusagen, sodass man damit einen Biomarker für schwerere Formen der Krankheit hätte, die mit Halluzinationen und kognitiven Defiziten einhergehen. Damit soll nun ein diagnostisches Verfahren entwickelt werden, das es erlaubt, das Auftreten von Parkinson früher und präziser zu diagnostizieren.

Soziale Robotik

Die soziale Robotik – social robotics –  mit ersten Anfängen in den 1940er- und 1950er-Jahren und einer starken Entwicklung im 21. Jahrhundert beschäftigt sich als Teilgebiet der Robotik mit sensomotorischen Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden und z.T. humanoid oder animaloid gestaltet sind.

Soziale Roboter sind demnach sensomotorische Maschinen, die über fünf Dimensionen bestimmt werden können, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen sowie – im Zentrum – den Nutzen für Lebewesen.

Bei einem weiten Begriff können neben Hardwarerobotern auch Softwareroboter wie gewisse Chatbots, Voicebots (Sprachassistenten oder virtuelle Assistenten) und Social Bots dazu zählen. Die Disziplin, die soziale Roboter – ob als Spielzeugroboter, als Serviceroboter (Pflegeroboter, Therapieroboter, Sexroboter, Sicherheitsroboter etc.) oder als Industrieroboter in der Art von Kooperations- und Kollaborationsrobotern (Co-Robots bzw. Cobots) – erforscht und hervorbringt, ist die soziale Robotik. Das Buch schafft Grundlagen in technikwissenschaftlicher, wirtschaftswissenschaftlicher, philosophischer, psychologischer und soziologischer Hinsicht. Es stellt dar, was soziale Roboter ausmacht, wie sie gebaut und programmiert werden, welche Anwendungsmöglichkeiten existieren und welche Herausforderungen sich ergeben.

Literatur

Bendel, Oliver (2021). Soziale Robotik.
WWW: https://wirtschaftslexikon.gabler.de/definition/soziale-robotik-54078/version-382357 (21-04-09)
https://www.springer.com/de/book/9783658311131 (21-04-09)

Sophia hat ein Selfie gemalt!

Ein von Sophia gemaltes Selbstporträt ist für 700.000 Dollar versteigert worden, gekauft hat es ein Digitalkünstler, der unter dem Pseudonym 888 auftritt. Sophia hat das Bild mit einem Pinsel in ihrer mechanischen Hand gemalt. Übrigens hat für das Selbstporträtprojekt auch den Maler Andrea Bonaceto benötigt, denn Sophia malte ihr Bild auf einem zuvor von Bonaceto erstellten Porträt von ihr.

Vor Kurzem wurde auch eine Collage des Digitalkünstlers Beeple für gut 69,3 Millionen Dollar versteigert, wobei alle Werke ein NFT (non-fungible token) besitzen müssen, also so etwas wie ein digitales Echtheitszertifikat, deren Echtheit mit der Blockchain-Datenkette der Krypto-Währung Ethereum abgesichert wird.

Sophia wurde 2016 von der in Hongkong ansässigen Firma Hanson Robotics vorgestellt und war in den vergangenen Jahren auf diversen Konferenzen zu sehen. Der Roboter ist einem Menschen nachempfunden und versucht unter anderem die Mimik bei Sprechen nachzuahmen.

Quelle

https://orf.at/stories/3206953/

Roboter Nao experimentiert

In Nürnberg stellten die Bionicum-Leiterin Eva Gebauer und Roboter Nao die neue Video-Serie „Roboter Nao experimentiert“ vor. Zwei Schülerinnen haben mit Roboter Nao die Pinguine bei ihren flinken Pirouetten im Becken beobachtet. Anschließend führten die Gymnasiastinnen Strömungsexperimente durch: Kugel, Kegel oder Würfel – welche Form hat den geringsten Wasserwiderstand? Ein kurzes Video zeigt, dass die Kegelform – die auch dem Pinguin am ehesten entspricht – am besten wind- und wasserschlüpfrig ist.

Das Bionicum stellt – zusätzlich zu seinen bisherigen Videos – in seiner neuen Serie „Roboter Nao experimentiert“ vier bis sechs Minuten kurze Filme vor, die auf der Website oder dem You-Tube-Kanal der Einrichtung zu finden sind. Die Videos sind speziell auf die Lehrpläne der fünften bis siebten Jahrgangsstufen weiterführender Schulen abgestimmt.

Die Online-Angebote des Bionicums sind leicht in didaktische Lehrformate zu integrieren und bieten jungen Menschen einen hervorragenden Zugang zu den relevanten Themen der Bionik und somit einer bedeutenden Zukunftstechnologie.

Weitere Informationen gibt es unter https://www.youtube.com/c/bionicumnürnberg

Karel Capeks R. U. R.

Die Bezeichnung Roboter stammt aus dem tschechischen Drama „R. U. R.“, das am 25. Jänner 1921 uraufgeführt wurde, wobei Karel Capeks dystopisches Stück zwei Elemente einführte: den Traum einer Gesellschaft, die durch Technologie arbeitsfrei wird, und die gleichzeitige Angst vor Unterdrückung durch diesen Fortschritt. Der Chemiker Rossum hat in jüngster Vergangenheit eine Möglichkeit gefunden, menschenähnliche, aber als Arbeitskräfte „optimierte“ Maschinen herzustellen. Die Nachfolger Rossums, erfolgsverwöhnte leitende Angestellte der Firma, sind mit der steigenden Nachfrage nach ihren Robotern sichtlich zufrieden. Die Roboter, zu Millionen in der auf einer Insel abgeschotteten Fabrik produziert, lernen problemlos Sprachen, eigenen sich enzyklopädisches Wissen an und dienen den Menschen widerspruchslos als Arbeitskräfte. Sie schaffen damit Wohlstand und sozialen Frieden. Helena, die Tochter eines wichtigen Geschäftspartners, besucht die Produktionsstätte, um mehr über den faszinierenden Fortschritt zu erfahren. Helena allerdings will die Roboter zur Durchsetzung ihrer Rechte motivieren, doch als sie erfährt, dass die Roboter keine Gefühle haben, weder Schmerz noch Freude empfinden können, noch eine Persönlichkeit ausprägen, beginnt sie vor den Robotern gleichzeitig Angst und für diese Mitleid zu empfinden. Sie bleibt auf der Insel und bringt Dr. Gall, den wissenschaftlichen Leiter der Firma im Lauf der Jahre dazu, damit zu experimentieren, den Robotern Gefühle zuzugestehen. Kaum haben die Roboter Persönlichkeit, erheben sie sich zur Revolution. Die Menschheit kann mit der neu gewonnenen Freiheit nicht umgehen, sie setzt die Roboter als Soldaten ein und verliert in ihrem kollektiven Wohlstand selbst die Fähigkeit sich fortzupflanzen. Kaum haben die Roboter durch Galls Experimente eine Persönlichkeit, beginnen sie die Menschen zu verachten und beherrschen zu wollen. Es kommt zur unausweichlichen Revolution. Der Sieg der Roboter führt aber zur Katastrophe: Alle Menschen, mit Ausnahme des Arbeiters Alquist werden getötet, er soll den Robotern dienen. Doch auch für die Roboter – die neue herrschende Klasse – endet ihr Sieg mit einer Katastrophe, denn sie sind für zwanzig Jahre Nutzungsdauer konzipiert. Da ihnen die Aufzeichnungen des Chemikers Rossum – das streng gehütete Betriebsgeheimnis der getöteten leitenden Angestellten – fehlen, können sie keine neuen Roboter mehr produzieren. Auch Alquist, den die Roboter wegen des Geheimnisses beknien, kennt es nicht. Zuletzt entdeckt der lebensmüde letzte Mensch, dass zwei der Roboter nicht nur Gefühle haben, sondern zum heimlichen Paar geworden sind – androide Adam und Eva für eine neue Zivilisation.

Quelle

https://orf.at/stories/3197959/ (21-01-23)

Ein Überblick über den Prozess des Web Crawling

Web-Crawler durchsuchen systematisch das Internet, um Websites zu finden. Aber wie finden sie alle verschiedenen Websites? Und wie finden sie alle Seiten auf einer Website?

Crawling von Links: Web-Crawler folgen Hyperlinks, ähnlich wie wir Menschen es tun, wenn wir selbst im Internet surfen, um von Seite zu Seite zu gelangen – oder von einer Website zur anderen. Dabei kann es sich um interne Links handeln, die von Seite zu Seite auf einer Website führen, oder um Backlinks, die von Website A zu Website B führen.
Crawling von Sitemaps: Web-Crawler werfen auch einen Blick auf die Sitemap einer Website, um alle Seiten zu verstehen, die sie besuchen und indizieren müssen.
Manuelle Anmeldung: Man kann eine Website und eine Liste ihrer Seiten mit Hilfe von Tools wie Google Search Console, Bing Webmaster Tools usw. manuell bei Suchmaschinen anmelden.

Dann kopieren Web-Crawler die Informationen auf den gefundenen Webseiten (Text, HTML, Hyperlinks, Metadaten usw.) und senden sie an ihr Suchmaschinen-Mutterschiff (die Firmenserver der Web-Crawler), die die Webseiten in ihre riesigen Datenbanken herunterladen und die Informationen so organisieren/indizieren, dass sie sehr schnell durchsucht und referenziert werden können. Web-Crawler senden Informationen so in die Datenbank von Google, dass sie für Suchende sehr schnell zugänglich sind.

Wenn Crawler eine Webseite finden, rendern die Systeme der Suchmaschine den Inhalt der Seite und beachten dabei Schlüsselelemente wie Schlüsselwörter und halten alles im Suchindex fest.

Verbessertes Web Crawling, verbesserte Indexierung

Nun aber entwickelt sich Google weiter und ist in der Lage, ein differenzierteres und komplexeres Verständnis von Informationen zu schaffen. Anstatt Informationen auf Webseiten einfach nach Schlüsselwörtern zu ordnen, ist es nun in der Lage, Entitäten zu verstehen – so wie wir Menschen es tun. Zum Beispiel war die Keyword-Phrase „Werner Stangl“ einfach eine Folge von 12 Buchstaben, die durch ein Leerzeichen getrennt waren. Jetzt versteht Google mehr über dieses Schlüsselwort, die Gründe, warum Menschen danach suchen, und dass Werner Stangl eine Entität ist – speziell eine Personenentität. Wenn man also nach Nicholas Cage suchen, erhält man mehr Informationen über ihn, als Person.

Wenn Menschen Roboter helfen sollen

Kühnlenz et al. (2018) habe mit Hilfe des NAO, der dem menschlichen Aussehen nachempfunden ist, untersucht, wie sich Menschen gegenüber einem Roboter verhalten. Der Roboter arbeitete dabei als Aushilfe in einem Supermarkt und bat die KundInnen des Geschäfts um Hilfe. Sie sollen ihm die Namen von verschiedenen Produkten nennen, die er zum Üben brauche. Dabei wurden vom Roboter NAO zwei unterschiedliche Verhaltensweisen gezeigt: einmal passte sich der Roboter dem Menschen emotional an, beim anderen Mal verhielt er sich neutral. Emotional angepasst bedeutete in diesem Fall, dass er den ProbandInnen vermittelte, er könne ihre Gefühle verstehen, indem er etwa danach fragte, wie sich der Mensch momentan fühle, um dann mit angepasster Wortwahl zu antworten, etwa dass es ihm derzeit genauso gehe.

Es zeigte sich, dass wenn sich der Roboter den Menschen emotional anpasste, dieser auch eher bereit war, ihm zu helfen. Außerdem sprachen die ProbandInnen dem Roboter dann eher menschliche Eigenschaften zu und empfanden ihm gegenüber sogar Empathie. Obwohl NAO seine Bitte nicht durch menschliche Mimik unterstreichen konnte, kamen die ProbandInnen dem Roboter zur Hilfe, jedoch spielte es eine Rolle, ob sie vorher bereits Kontakt zu Robotern gehabt hatten, denn wer mit Robotern vorher nichts zu tun gehabt hatte, verhielt sich deutlich reservierter, und auch die Bildung der ProbandInnen wirkte sich dabei auf ihr Verhalten dem Roboter gegenüber aus.

Literatur

Kühnlenz, Barbara, Busse, Fabian, Förtsch, Pascal, Wolf, Maximilian & Kühnlenz, Koloa (2018). Effect of Explicit Emotional Adaptation on Prosocial Behavior of Humans towards Robots Depends on Prior Robot Experience. Proc. of the Int. Conf. on Robot and Human Interactive Communication.

Post-Editing von maschinellen Übersetzungen

Maschinelle Übersetzungen spielen im Alltag eine immer größere Rolle, wobei sich die Qualität maschineller Übersetzungen in den letzten Jahren deutlich verbessert hat. Allerdings ist dabei ein Post-Editing maschineller Übersetzungen unabdingbar, denn das spart Zeit, reduziert Fehler, verändert aber die Art der Interaktion mit dem Text.

Post-Editing kombiniert die Vorteile von Künstlicher Intelligenz und menschlicher Intelligenz, verschiebt aber auch den Fokus von Übersetzungsarbeiten, denn anstatt Text zu erzeugen, korrigieren Übersetzer Fehler in ansonsten hilfreichen Vorschlägen in der Zielsprache, wobei häufig wiederkehrende Fehler der maschinellen Übersetzung zu verbessern ermüdend und kognitiv anspruchsvoll ist. Während die künstliche Intelligenz gut darin ist, schnell Übersetzungsentwürfe vorzuschlagen, kann nur ein Mensch mit fundierten Kenntnissen der Ausgangs- und Zielsprache lexikalische und semantische Nuancen analysieren und sicherstellen, dass die Bedeutung der Übersetzung identisch ist.

Post-Editing verändert die kognitive Dimension des Übersetzens, denn es erfordert nicht nur ein Gespür für den Satz in der Originalsprache, sondern auch für die fehleranfällige Ausgabe der maschinellen Übersetzung, den umgebenden Kontext sowie die Leserschaft und deren kulturellen Hintergrund. Robuste Ansätze zur automatischen Abschätzung dieser veränderten kognitiven Belastung (Cognitive Load) beim Post-Editing ermöglichen ein besseres Verständnis dafür, ob und wann maschinelles Übersetzen den Arbeitsprozess eher unterstützt oder behindert. Bei der maschinellen Übersetzung treten nicht nur tatsächliche Fehler auf, die diese trifft mitunter auch immer wieder dieselben lexikalischen oder stilistischen Entscheidungen, mit denen der Übersetzer möglicherweise nicht einverstanden ist, sodass im gesamten Text dann ähnliche Modifikationen erforderlich sind. Eine Möglichkeit ist dabei die Verwendung von Deep-Learning-Architekturen für das automatische Post-Editing, die die Ausgabe jedes Black-Box-Übersetzungs–Systems an eine bestimmte Domäne oder einen bestimmten Stil anpassen können. Anstatt übersetzen zu lernen, lernen solche Systeme aus wiederkehrenden menschlichen Korrekturen und wenden sie auf Vorschläge der maschinellen Übersetzung für neue Texte an.

Literatur

https://idw-online.de/de/news761197 (21-01-15)