Auf dem Weg zum Spam-freien Web: In einem Update des Suchalgorithmus hat Google vor zwei Wochen Contentfarmen herabgestuft, was einige der schwarzen Schafe vor echte Probleme stellt. Jetzt hat die soziale Suchmaschine Blekko nicht nur gleichgezogen, sondern noch einen draufgesetzt: 1,1 Millionen Websites werden geblockt und tauchen nicht mehr länger in den Suchergebnissen auf.
Laut Blekko geht es dabei um Websites, die wenig Content und dafür umso mehr Anzeigen haben. Identifiziert hat die Suchmaschine sie darüber, ob sie mehrere Werbefenster auf einer Seite haben, Beiträge zu vielen Themen anbieten und wie lang die einzelnen Beiträge sind. Mit diesen Kriterien will Blekko Contentfarmen etwa von Nachrichtenwebsites unterscheiden. Blekko hat hierzu einen neuen Algorithmus namens AdSpam angewendet, der die Beschwerden der Nutzer mit in die Ergebnisse einfließen lässt. Es dürfte nur noch eine Frage der Zeit sein, bis andere Suchmaschinen nachziehen. Dem Schmutz aus dem Web geht es langsam an den Kragen.
Erste Suchmaschine, die gezielt nach Spam sucht
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Online Marketing Manager | Schwerpunkt Paid Social Media (w/m/d) Otto (GmbH & Co KG) in Hamburg |
||
Social Media Manager (m/w/d) Küchen Aktuell GmbH in Braunschweig |
Blekko nennt den neuen Suchalgorithmus den ersten, der darauf programmiert ist, Spam zu finden statt Ergebnisse nach Wertigkeit zu sortieren. Spam darf hier nicht mit Spam-Mails verwechselt werden. Die Betreiber der alternativen Suchmaschine verstehen darunter Websites, die hoch in Suchergebnissen auftauchen, weil sie tausende bis Millionen von Einträgen haben, dabei aber schlechte bis gar keine Qualität liefern. AdSpam wird dem eigentlichen Suchalgorithmus praktisch vorgeschaltet: Er findet den Spam, zeigt diesen aber natürlich nicht an, sondern wirft ihn raus, bevor er in den Suchergebnissen auftaucht. Erst an diese gefilterten Daten traut sich der eigentliche Suchalgorithmus ran und gibt dem Anwender die sauberen Ergebnisse aus.
Der Input der Blekko-Nutzer fließt in AdSpam mit ein. Negative Bewertungen von Suchergebnissen erkennt der Algorithmus. Kam er gehäuft vor, war das ein Grund, um auf Blekkos schwarzer Liste zu laden. Blekko hat hierzu mit den Nutzern von Stack Exchange kooperiert. Prinzip der Suchmaschine ist es, dass Nutzer ihre Suchen mit Slashtags wie „broccoli /recipe“ versehen können, um ihre Suchergebnisse zu verbessern. Blekko merkt sich diese Slashtags und schlägt sie in neuen Suchanfragen wieder vor.
Kampf dem Spam, mal wieder
Mit eben diesen Slashtags lassen sich auch unerwünschte Websites markieren. Auf diese Weise hat die soziale Suchmaschine kürzlich die 20 größten Spamschleudern öffentlich gebrandmarkt, darunter eHow und 123people. Sucht man speziell nach ihnen auf Blekko, werden sie zwar noch angezeigt, nicht mehr jedoch ihre Ergebnisse, wenn man unabhängig von ihnen auf Blekko nach Themen sucht. Danny Sullivan von SearchEngineLand ist trotzdem nicht zufrieden mit den neuen Blekko-Ergebnissen. Google liefere nach wie vor deutlich bessere Resultate.
Unübersehbar ist jedoch die Qualitätsoffensive der Suchmaschinen. Erst Google, jetzt Blekko. Auch Bing kann laut einem Sprecher Spam herausfiltern, wobei Contentfarmen tricksten, um eine Filterung zu umgehen. Es wird ein Kampf werden zwischen windigen Geschäftemachern auf der einen und Qualitätsanbietern auf der anderen Seite. Aber das wäre ja nichts anderes als das, wofür das Internet seit jeher bekannt ist.
(Jürgen Vielmeier)
Eine interessante die Idee, die Blekko da umsetzt. Aber wenn ein Suchgigant wie Google Seiten einfach blocken würde gäbe es sofort ein Riesengeschrei wegen Zensur, Kulturimperialismus etc. Blekko kann so etwas wegen seiner relativen Unwichtigkeit machen, aber für die wirklich wichtigen Suchmaschinen ist das unmöglich.
Auch die Idee Nutzerfeedback einzuarbeiten ist nur sinnvoll möglich so lange die SEOs sich nicht auf einen einschießen. Google hat z. B. gut daran getan die Ergebnisse der Chrome Extension zum Ausschluss von Suchergebnissen aus der Google Suche nicht direkt in den Index einfließen zu lassen. Sonst hätten wir schon Bots die diese Schnittstelle direkt zumüllen würden.
[…] und außerdem noch Beschwerden der Nutzer mit integriert. Wer weiter lesen möchte kann das bei BasicThinkig machen. Posted in Sonstiges SHARE THIS Twitter Facebook Delicious StumbleUpon E-mail […]
Die Entwicklung muss weiter gehen, ich finde das eine gute Idee von Blekko
Ein kurzer Test präsentiert mir Bleckko als Parasitenspambevorzuger.
Wenn ich dort z.B. einen Domainnamen eingebe, der gleichlautend mit einem viel gesuchten Begriff ist…
…dann finde ich die eigentliche Domain erst unter ferner liefen und an den ersten Positionen sind die ganzen „SEO-Analyseseiten“, die sich den Content der eigentlichen Seite vornehmen, ihn aufbereiten und ausbeuten.
Auch Google und Blekko werden irgendwann noch merken, dass man Daten niemals objektiv mit Algorithmen gestalten kann.
Es hat ja jahrelang ganz gut geklappt, die SERPs durch eine Algorithmus aufzubauen.
Google benutzt Nutzerdaten nur, um die Ergebnisse abzugleichen und seinen Algorithmus zu testen. Und welche Rolle z.B. Facebook-likes oder Twitter spielen, weiß man nicht so richtig.
Super Idee, die frage ist ob man überhaupt ohne Millionen und aber Millionen Budget überhaupt noch gegen google ankommen kann?
Die Idee ist super. Die Frage ist, was ist eine schlechte Seite? Ich denke darüber kann man durch aus diskutieren.
Beispielsweise kopiere sehr viele Onlineshops die Produktbeschreibung der Hersteller. Ist der Shop deswegen gleich schlecht? Ich denke nicht.
Sehr gute Idee… Google sollte jetzt versuchen einen eigenen Algorithmus zu programmieren, der diese Idee aufgreift. Denke, dass da wirklich viel Potential ist.
Ich habe mir aufgrund dieses Beitrags Blekko jetzt zum ersten mal angeschaut und bin der Meinung, dass die Suchergebnisse (zu mindestens für Deutschsprachige Webseiten) im Gegensatz zum Riesen Google einfach Mist sind.
Ich bleibe bei Google. Fertig 🙂