Zum Inhalt springen

Kann man Social Bots erkennen?

  • von

Programme, die sich auf sozialen Netzwerken als Menschen ausgeben, manipulieren politische Debatten und Wahlkämpfe und werden echten Nutzern immer ähnlicher. Social Bots treten mit Menschen in Kontakt, aber sie erkennen sie nicht, denn Roboter in sozialen Netzwerken, täuschen durch ihre Profile und Beiträge vor, Menschen wie du und ich zu sein. Mit dieser Art von künstlicher Intelligenz lassen sich Kampagnen gegen Unternehmen anzetteln, Börsenkurse steuern, politische Stimmungen schüren, Falschmeldungen und Propaganda verbreiten und damit Wahlergebnisse manipulieren.

Social Bots werden meist als vollständig automatisierte Accounts wahrgenommen, doch oft ist nur ein Teil der Aktivität automatisiert – eben alles, was lästig ist. Die andere Seite ist, Inhalte zu produzieren, und Inhalte so zu produzieren, dass hinterher nicht mehr auffällt, kommt im Zweifel wieder einem Menschen zu, was automatische Erkennungsmethoden extrem erschwert. Der Trend gehe in Richtung dieser Hybridform, wobei es nicht besonders schwer ist, denn der Aufwand dafür ist nicht mehr als drei, vier Tage Entwicklungsarbeit. Die Idee, Bots mit komplexen Fragen, auf die keine adäquate Antwort zurückkommt, zu enttarnen, greift daher unter Umständen zu kurz, denn wenn es ein hybrides System ist, kann man das als Bot-Betreiber einfach umgehen, indem man tatsächlich auch selbst antwortet.


Bots können rasend schnell reagieren, weil sie rund um die Uhr das jeweilige soziale Netzwerk nach den vom Programmierer vorgegeben Schlüsselwörtern oder Hashtags durchsuchen. Es gibt Bots, deren Entwickler versuchen, bekannte Erkennungsmerkmale zu vermeiden, denn einige haben echte Profilbilder, setzen absichtlich nicht zu viele und nicht zu wenige Nachrichten ab, folgen nicht beliebig oder simulieren in ihren Posts sogar menschliche Tagesabläufe, Denkpausen oder Nachtruhe, um nicht aufzufallen. Automatisch lassen sich diese Bots oft nicht zuverlässig erkennen, wobei Prüfseiten wie Botometer (Indiana University) oder Debot (University of New Mexico) oft machtlos sind, die per Mustererkennung arbeiten. Die Die Erkennungsraten liegen bei rund 50 Prozent, wobei nur einfach gestrickte Bots diese Prüfseiten relativ leicht identifizierten. Von der technischen Seite ist es wichtig zu bedenken, dass diese Bots im Prinzip beliebig skalierbar sind, denn wer ein Programm hat, mit dem sich ein Bot steuern lässt, kann damit auch eine ganze Armee von Bots lenken.

In sozialen Netzwerken melden sich immer öfter auch Maschinen zu Wort, wobei Programmierer der Social Bots Diskussionen beeinflussen und Meinungen manipulieren wollen. Bei Twitter waren bis zu 15 Prozent der Accounts automatisch von Computer-Software mit Tweets beschickt. Wenn die Bots nicht ganz plump programmiert sind, sehen viele Bot-Profile auf den ersten Blick wie ganz normale Nutzer aus und die Erkennungsprogramme versagen. Um Bots bei Facebook, Twitter und Co zu enttarnen, sollte man prüfen, wer dem angeblichen Account-Inhaber überhaupt folgt, denn Bot und Bot gesellt sich gern. Hilfreich kann es auch sein, Profilbild und -beschreibung genauer unter die Lupe zu nehmen, wobei ein aus dem Netz kopiertes Foto ebenso verdächtig wie eine fehlende oder sinnlose Profilbeschreibung ist.

Indizien für einen Bot-Account können von Thema, Tenor oder Quellenverweis her immer ähnlich lautende Post sein, denn Bots posten zudem oft sehr viele Inhalte, führen aber kaum Dialoge oder stören solche gezielt, etwa mit Beleidigungen oder Provokationen. Verdächtig sind aber auch seltsamer Satzbau oder wiederkehrende Grammatikfehler.
Verteilt ein Account massenhaft Likes, kann das ein weiteres Indiz für eine Bot-Tätigkeit sein, während mgekehrt Bot-Posts oft kaum Likes oder Kommentare ernten.

Ab einer Zahl von fünfzig Postings pro Tag hat man es wahrscheinlich mit einem Bot zu tun, doch es gibt auch Menschen, die so oft posten. Auf der Suche nach Gewissheit könne man etwa auch schauen, ob der Account einen menschlichen Tag-Nacht-Zyklus verfolgt, doch selbst das reicht nicht immer aus.

Quelle

https://www.com-magazin.de/news/sicherheit/social-bots-schliche-kommen-1248390.html?page=1_automatisierte-meinungsmache-enttarnen (17-08-17)


Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::