Diesen Gastbeitrag aus dem Digital Society Report schreibt Felix Walker:

Als ob es in den sozialen Netzwerken nicht schon genug unhöfliche, manipulative und uninformierte Teilnehmer und Teilnehmerinnen gäbe! Nun müssen wir uns also auch noch damit abfinden, dass sogenannte “Social Bots“ unsere sozialen Netzwerke massenweise mit unsozialen Einträgen beliefern. Eine Studiengruppe an der Universität Siegen in Deutschland will dem Phänomen der gefälschten Netzwerker auf den Grund gehen und echte User in die Lage versetzen, gefälschte Einträge zu erkennen.

Was sind Social Bots und weshalb werden  sie eingesetzt? Grundsätzlich geht es darum, Stimmung zu machen, Propaganda zu verbreiten – für oder gegen etwas oder jemanden. Zitat aus der “Welt“:

“Wenn Facebook, Twitter und Co. als Spiegelbild der Gesellschaft gelten, dann besteht diese aus lauter Spinnern und Hetzern. Für die ansteigende Flut an Verschwörungstheorien und Hasskommentaren im Netz kann es aber auch eine ganz andere Erklärung geben: Sie stammen gar nicht von echten Menschen. Soziale Roboter, sogenannte Social Bots, verfassen die Texte automatisch. Gesteuert werden sie von bestimmten Interessengruppen oder Unternehmen, oder auch von der Terrororganisation IS. Das Unheimliche daran: Die Maschinen reagieren mit ihren Kommentaren und Parolen auf aktuelle Ereignisse und greifen aktiv in Debatten ein, indem sie die Texte in Foren und auf den bekanntesten sozialen Plattformen veröffentlichen.“

Den Social Bots das Handwerk legen

Doch wie kann die Internetgemeinde auf die gefälschten Social-Media-Teilnehmer reagieren? Welche Möglichkeiten gibt es, diese zu erkennen? Genau das wollen die Forscher an der Uni Siegen herausfinden, wie sie in einer Beschreibung ihres Projekts festhalten. Es gehe darum, die User von sozialen Netzwerken für die Risiken zu sensibilisieren und sie in die Lage zu versetzen, Manipulationen zu erkennen. Darüber hinaus sollen konkrete Hilfestellungen entwickelt werden, um den Selbstdatenschutz und die “forensische Kompetenz“ dieser Anwenderinnen und Anwender zu stärken.

Ein hehres Ziel! Wenn man allerdings in Betracht zieht, dass die Fälscher immer besser, die Server immer leistungsstärker und die Roboter immer zahlreicher werden, darf durchaus an den Erfolgsaussichten gezweifelt werden:

“Social Bots verhalten sich wie menschliche Nutzer: Sie bekommen mit, wenn ihr Thema bei Twitter gerade hochkocht, und schreiben Texte, die sich darauf beziehen. Die Software kann mit eigenen Kommentaren auch direkt auf Tweets anderer Nutzer antworten, denen sie folgt. Denn auch dazu sind Bots in der Lage: Sie werden automatisch Follower bestimmter Nutzer”, sagt Politikwissenschaftler Hegelich. “Sprachlich sind die Texte von akzeptabler Qualität, sie machen nicht mehr oder weniger Fehler als menschliche Nutzer, die sich in sozialen Netzwerken äussern. Um möglichst seriös zu klingen, kopieren sie zum Teil ganze Sätze aus Lexika oder von Webseiten wissenschaftlicher Institute.”

Wenn Sie also nächstes Mal versucht sind, auf die Tirade eines Internet-Trolls zu reagieren, halten Sie sich an die alte Regel, den Troll nicht zu “füttern“ – umso mehr, als es sich dabei um einen Roboter handeln könnte!


Felix Walker ist Journalist, Autor und Übersetzer. In seiner Arbeit, zu der auch der Digital Society Report gehört, befasst er sich vorwiegend mit der Digitalisierung unserer Gesellschaft. Er lebt in Novia Scotia, Kanada.