Social Media Technologie

Warum gibt es überhaupt Social Bots, wenn sie so unberechenbar sind?

Roboter, Transformer, Maschine, Transformers, Spielzeug, Social Bots
Lars Stark hat sich ausführlich mit Social Bots auseinandergesetzt. (Foto: Pixabay.com / vinsky2002)
geschrieben von Lars Stark

Sie verteilen großzügig Likes, kommentieren gern und viel – und sie manipulieren Wahlen. Social Bots stehen in der Kritik das Schlechteste aus uns Menschen herauszuholen. Doch warum gibt es sie dann überhaupt?

Eigentlich keine so schlechte Idee: Eine Künstliche Intelligenz übernimmt einen Teil der Kommunikation und sorgt zu jeder Tages- und Nachtzeit dafür, dass sich der User abgeholt fühlt. Kleinere Probleme werden meist schnell und vor allem rund um die Uhr gelöst: Ein Kundenservice, der einen echten Mehrwert schafft.

Doch was im Marketing gut funktioniert, hat sich an anderer Stelle als problematisch erwiesen. In den sozialen Netzwerken steht eine Form der Künstlichen Intelligenz nicht erst seit gestern in der Kritik, Meinungen zu beeinflussen, zu trollen oder ganze Wahlen zu manipulieren.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media Manager (m/w/d)
HomeServe Deutschland Holding GmbH & Co. KG in Frankfurt am Main
Praktikum im Bereich Social Media Governance ab März 2025
Mercedes-Benz AG in Stuttgart

Alle Stellenanzeigen


Ich spreche hier von den sogenannten Social Bots. Sie sorgen dafür, dass es für echte Nutzer des jeweiligen Netzwerks sehr schwer werden kann, zu unterscheiden, hinter welcher Aktion sich eine echte Person oder eine Künstliche Intelligenz verbirgt.

So veranlassten sie beispielsweise Heiko Maas im Jahr 2017 dazu, an die Parteien zu appellieren, auf den Einsatz dieser Bots zu verzichten. Gleichzeitig wurden Nachrichtenportale, Technik-Blogs und Fachzeitschriften nicht müde, über die Gefahren von solchen Bots zu berichten. Doch sind die Ressentiments berechtigt?

Aber Chatbots sind doch ganz harmlos!

Wenn man von Chatbots spricht, meint man in der Regel ein technisches Dialogsystem, das in der Lage ist, ohne Zutun eines Menschen, Fragen zu beantworten oder kleinere Dialoge zu führen.

Gerade im Bereich Service, aber auch im Marketing stellen diese Bots eine willkommene Alternative da, wenn die Ressourcen für die Bearbeitung für Kundenanfragen knapp sind oder innovative Kommunikationsmaßnahmen umgesetzt werden sollen.

Bots werden nie müde und beantworten auch um 2 Uhr nachts die stumpfsinnigste Anfrage, ohne dabei die Fassung zu verlieren.

Die Social Bots werden hingegen eingesetzt, um mit Content zu interagieren, der auf den sozialen Netzwerken gepostet wurde. Das passiert in Form von Kommentaren, Shares in Gruppen, Likes oder anderen Aktionen.

Das Ziel lautet immer: Reichweite generieren. In den meisten Fällen handelt es sich hier um die Kehrseite der KI-Medaille — mit teils verheerenden Auswirkungen.

Und was macht die Social Bots jetzt so unberechenbar?

Social Bots sind gefährlicher Fraud. Und sie sind zunehmend schwerer als solche zu erkennen. Sie suchen in den großen Netzwerken nach bestimmten Keywords und verteilen daraufhin Likes, schreiben Kommentare und teilen Inhalte.

So helfen sie dir zum Beispiel, deine Instagram-Followerschaft gehörig zu erweitern. Oder eben deine (meist fraglichen) Inhalte zu teilen.

Dabei ist es den Bots so ziemlich egal, was für Inhalte sie teilen. Das heißt: Jeder kann sie einsetzen, um seine Meinung und Inhalte in die sozialen Netzwerke zu streuen. Geht man einen Schritt weiter, legt man einfach ein oder mehrere Fake-Profile an und erweckt diese durch einen Social Bot zum Leben.

Zwar braucht es hin und wieder menschliches Zutun, um nicht irgendwann als Fake-Profil aufzufliegen. Doch der Aufwand dürfte sich in Grenzen halten. Eine gut dokumentierte Übersicht lieferte Shahak Shapira zusammen mit der PARTEI, als sie im Jahr 2017 insgesamt 31 AfD-nahe Facebook-Gruppen zuerst infiltrierten und schließlich übernahmen.

Diese 31 Gruppen wurden aller Wahrscheinlichkeit nach von sieben Bots gegründet und aufgebaut. Am Ende waren es 180.000 Anhänger, die hier mit manipulativem Content versorgt wurden und damit die Blase nährten, in der sie lebten.

Ein hoher Impact für wenig Zeitaufwand beim initialen Programmierer aus Fleisch und Blut.

Von Vorteil für den Erfolg dieser Methode ist, dass die meisten Netzwerke die Posts, die häufig geteilt oder kommentiert werden, als besonders relevant einstufen. Inhalte können so künstlich gepusht werden und eine Bedeutung erhalten, die ihnen eigentlich nicht zusteht.

Für andere Nutzer kann es so mitunter schwierig werden, herauszufiltern, wer überhaupt der Urheber des Posts ist und welche Relevanz er wirklich für ihn hat. Im Zweifel ist dann halt genau das relevant, was ich oft zu sehen bekomme.

Das geschah bei der AfD. Das passierte im Jahr 2016 bei der Wahl des US-Präsidenten und veranlasste schließlich auch Heiko Maas bei der Bundestagswahl 2017 zu seiner oben genannten Aussage.

Was kann ein Social Bot und was nicht?

Social Bots sind – zum Glück – noch nicht so intelligent, wie es die Vermutung nahelegt. Sie sind unheimlich gut in der Wiederholung von immer gleichen Aufgaben wie zum Beispiel der Suche nach bestimmten Keywords oder dem Liken und Teilen von Posts sowie dem Beantworten von leichten Fragen.

Werden die Fragen hingegen komplexer, stoßen sie an ihre Grenzen. Zusätzlich sind sie in der Regel thematisch recht beschränkt, verfügen über einen kleinen Wortschatz und mangelnde grammatikalische Fähigkeiten.

Nichtsdestotrotz legt eine neue Studie der Universität Duisburg-Essen nahe, welche Gefahr von nur wenigen Social Bots ausgehen kann und wie sie die Stimmung in den sozialen Netzen lenken und beeinflussen können.

Im Übrigen wird es nur eine Frage der Zeit sein, bis Social Bots kaum oder gar nicht mehr von echten Menschen zu unterscheiden sind.

Es gibt also gar nichts Gutes an diesen Bots?

Ihre oben genannten Fähigkeiten machen sie natürlich zu einem beliebten Werkzeug. Gerade vor wichtigen Wahlen lässt sich so die Meinungsbildung von Nutzern beeinflussen.

Ihr technischer Fortschritt und die damit einhergehende schlechte Unterscheidbarkeit von echten Nutzern, lässt gerade im Bereich des Dark-Social-Marketings einige Fallen in der Zukunft vermuten.

Was wäre, wenn ein Nutzer in einer Eins-zu-Eins-Kommunikation – zum Beispiel im Facebook Messenger – nicht mehr weiß, mit wem er da eigentlich schreibt? Und: Was wäre, wenn es dabei zu einer gezielten Beeinflussung kommt? Und hier muss es nicht mal bei einer Eins-zu-Eins-Kommunikation bleiben.

Die sozialen Netzwerke müssen in Zukunft verstärkt gegen solche Praktiken vorgehen. Nur so können sie dafür sorgen, dass eine solche Verbreitung von Fake News, wie im bisherigen Umfang, nicht mehr möglich ist.

Und wer weiß: Vielleicht steuern wir auf unseren ersten, öffentlich ausgetragenen Konflikt der Maschinen zu. In diesem machen Social Bots andere Social Bots mundtot, sodass wieder neue Social Bots die Mundtöter mundtot machen. Und so weiter. Gruselig, oder?

Ausblick

Ok, letzteres wird – wahrscheinlich – nicht eintreffen. Aber wenn wir jedoch jetzt schon einen Blick auf die technische Entwicklung der Chatbots werfen, zeigt sich, dass maschinelles Lernen mittlerweile dabei hilft, dass nicht mehr alle Antworten eines Gesprächs von Anfang an vorgegeben sein müssen.

In den Bereichen Semantik und Syntax ist noch viel Luft nach oben. Doch auch die wird immer dünner. Auf der einen Seite erschwert dies natürlich noch zusätzlich die Unterscheidung von schädlichen Bots und echten Menschen.

Auf der anderen Seite wird dies gerade im Bereich des Service-Designs neue Meilensteine schaffen. Mehr und mehr Prozesse werden automatisiert ablaufen. Ein menschliches Eingreifen ist nicht mehr notwendig.

Egal ob es das Beantworten von einfachen E-Mails ist, das Buchen von Tickets oder gar das Übernehmen von administrativen Ausgaben: Die Bandbreite der Möglichkeiten scheint schier endlos zu sein.

Schaffen wir es mit den technischen Entwicklungen Schritt zu halten, wird sich uns ein wahrer Abenteuerspielplatz eröffnen. Wir müssen es nur richtig zu nutzen wissen.

Auch interessant:

Über den Autor

Lars Stark

Lars Stark ist Gesellschafter und Geschäftsführer der Buddybrand GmbH. Der 35-Jährige verantwortet dort die Bereiche Content und Campaigning. Buddybrand ist eine digitale Kreativagentur und begleitet internationale Markenunternehmen wie STABILO, Microsoft oder Disney durch den digitalen Wandel.