Link zur Sendung

Wir im Marketing sind ja in gewisser Weise fixiert auf bestimmte Kennzahlen. Die Reichweite oder das Userengagement zum Beispiel. Eine hohe Reichweite ist gut, man kann seine Botschaften an viele Menschen im Netz bringen. Und umso besser, wenn die sich mit Likes, Shares und Kommentaren „bedanken“. Das zeigt, dass eine Botschaft oder eine Marke wahrgenommen wird, und dass sie den Nutzern nicht egal ist. Oder doch nicht? Fans und Follower kann man kaufen, Likes und Kommentare ebenso, wie uns die Reportage noch einmal vor Augen führt. Dabei muss es sich noch nicht einmal um echte Menschen hinter den aktiven Profilen handeln. Wenn es sich tatsächlich um die Vermittlung von real existierenden Nutzern handelt, die erst über Unternehmen, die sich genau das zum Ziel gesetzt haben, auf für sie interessante und relevante Marken aufmerksam werden, ist dagegen erstmal nichts einzuwenden. Davon können gerade junge und/oder kleine Unternehmen profitieren. Es gibt natürlich auch Schattenseiten.

Das Problem hört auf den Namen „Social Bots“. Dabei handelt es sich um gefälschte Profile, die inzwischen nicht mehr einfach nur da sind, also inaktiv auf die Reichweite einzahlen. Sie sind mittlerweile automatisch aktiv und geben Likes, teilen Inhalte und sorgen so für eine Vernetzung, die keine Entsprechung in der realen Welt aus Fleisch und Blut hat. Wer seit Beginn der verstärkten Einwanderung nach Deutschland durch seine Facebook- und Twitter-Timelines gescrollt hat, dem dürfte etwas aufgefallen sein: Wann und wo immer es um Flüchtlinge ging, schienen in den Kommentaren zu den Posts der Medien die Pegidisten und AfDler in der Überzahl zu sein. Am lautesten (freundlich ausgedrückt) waren sie sowieso (auch wenn sie nur eine klare Minderheit darstellen, wie die Landesanstalt für Medien NRW herausgefunden hat: Es sind nur ein 1% der User, die Hasskommentare veröffentlichen). Rainer Wendt von der Deutschen Polizeigewerkschaft drückt es in der Reportage so aus: „Wenn ich mich nur auf Facebook informiere, muss ich fast zwangsläufig zum Rechtsextremisten werden.“

Dieser Effekt ist als „Filterblase“ bekannt. Die Algoritmen der Sozialen Netzwerke wurden geschaffen, ihren Nutzern möglichst viel Relevantes anzuzeigen. Dabei spielen dann auch die Faktoren Reichweite und Userengagement eine Rolle. Ihre Facebook-Timeline, die Sie jedes Mal sehen, ist kuratiert (freundlich ausgedrückt). Tatsächlich drücken die Algoritmen Sie weiter in Ihre Filterblase. Der Effekt: Sie bekommen nur einen Ausschnitt des ganzen Bildes zu sehen, manche Bilder werden Ihnen gar nicht gezeigt. Das bringen die Statements der Pegidisten eingangs der Reportage sehr treffend zum Ausdruck: Wenn meine eigene Meinung in Social Media bestätigt wird, dann haben die recht. Und ich auch – wie eine Rückkopplung funktioniert das. Das Perfide an den Bots ist, dass sie diesen Effekt verstärken. Durch höhere Engagementraten sehen die Algoritmen einen Beitrag als relevanter an. Genau diese Schwäche nutzen die automatisierten Fakeprofile aus.

Diese „gefühlte Wahrheit“ ist Ausdruck der Anfälligkeit gegenüber der Meinungsmanipulation, die so sehr von Filter Bubbles befördert wird. Bleiben wir einmal bei den klassischen Medien: Wer ausschließlich die linke taz liest, dem werden konservative Themen/Positionen und ihre Argumente weitgehend verborgen bleiben. Oder umgekehrt: Wer die nur konservative FAZ liest, hat das Gleiche unter umgekehrten Vorzeichen. Besser, man liest beide Zeitungen! Nach diesem kleinen Exkurs wieder zurück zu den Bots: Massives Liken und Teilen mancher Inhalte durch Social Bots verzerrt das Gesamtbild ganz erheblich. Im Falle der Diskussionen um Flüchtlinge tragen sie dazu bei die Gesellschaft zu spalten und beschleunigen diese Tendenzen.

Seien es nun Meinungsmacher aus Putins Trollfabriken oder Trump-treue Bots aus den USA oder netzaktive AfD-Fanboys und -girls: Die Reportage deckt auf, dass Meinungsmache automatisiert ablaufen und dabei durchaus effektiv sein kann. Die Präsidentenwahl in den USA wurde auch von Bots beeinflusst. Hier dürfte sich der Effekt dadurch neutralisiert haben, dass beide Kandidaten zu einem ähnlichen Prozentsatz von den Maschinen unterstützt wurden. Das ZDF hat sich bei den deutschen Parteien erkundigt. Die im Bundestag vertretenen (plus FDP) lehnen es strikt ab, ihre Inhalte durch Bots künstlich zu pushen. Die AfD äußert sich dagegen unklar bzw. widersprüchlich. Wenn nur ein Akteur mit manipulativen Mitteln in den Ring steigt, ist die Gefahr eines durch unlautere Mittel herbeigeführten Ungleichgewichts imminent.

Noch eine andere Gefahr entsteht durch den Einsatz von Fakes, Trollen und Bots: die Glaubwürdigkeit wird beschädigt. Zum einen natürlich die Glaubwürdigkeit der Sozialen Netzwerke. User erwarten, dass sie Posts und Reaktionen von Menschen zu sehen bekommen. Wenn ein Teil dessen aber von Maschinen stammt, stellt sich die Frage: „Wem in diesem Netzwerk kann ich eigentlich noch trauen?“ Wenn das Vertrauen zu sehr leidet, dann werden die Nutzer irgendwann abspringen. Allein aus diesem Grund schon sind Facebook, Instagram und Co. daran interessiert, gegen Social Bots vorzugehen und ihren Einsatz nach Möglichkeit zu unterbinden. Diese Gefahr betrifft allerdings auch Unternehmen, die sich auf das fragwürdige Spiel mit gekaufter Reichweite einlassen. Auch sie können Reputationsschäden erleiden, wenn sie ihre Follower derart täuschen.

Heiß auf Insider-Infos?

Immer up to date: Unser Newsletter versorgt dich einmal monatlich mit brandneuen Trends und Innovationen aus der Kommunikationswelt.

Newsletter bestellen