hatte vor einiger Zeit über den Einbruch des Google-Traffics beim Living in World of Warcraft Blog berichte (Link zum WoW-Blog)t. Google hat uns anscheinend in die Sandbox geschmissen, was zu einem vehementen Trafficeinbruch führte. Man konnte uns per Google-Suche so gut wie nicht mehr finden. Jan hatte einige Vermutungen angestellt (Hauptannahme: Double Content) und mit Hilfe seiner Tipps habe ich folgende Maßnahmen vor ca. einer Woche ergriffen:
1. in der robots.txt dem Spider den Zugriff auf das Forum verweigert. Das Forum dient uns als Nebenanlaufstelle (intern für die Autoren und Vorschläge/Tipps seitens Lesern). Eine Besonderheit des Forums hat dazu geführt, daß Google tausende von Sites gespidert hatte: Man kann die Beiträge nach verschiedenen Kriterien anzeigen und das hat dann der Spider auch fleissig getan. Zu jedem Forenbeitrag gab es mehrere Links.
2. die Webseite war per URL sowohl über „www….“ als auch ohne „www“ erreichbar. Das hat ebenfalls dazu geführt, daß Google zwei verschiedene Links zu einigen Beiträgen erspidert hatte. Über diesen Eintrag in der .htaccess biege ich alle Aufrufe ohne „www“ so um, daß alle URLs für Living in WoW Beiträge mit einem „www“ vorangestellt werden:
RewriteCond %{HTTP_HOST} !^www.gamersliving.com [NC]
RewriteRule (.*) http://www.gamersliving.com/wowblog/$1 [R=301,L]
Ich weiss nicht, ob es damit zu tun hat, aber seit gestern stieg die Google-Quote von ca. 20% auf über 40%. Vormals betrug die Google-Quote ca. 70%. Google-Quote? Ja, der Anteil der Besucher, die über Google reinkommen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Praktikum im Bereich interne Kommunikation und Social Media BOS GmbH & Co. KG in Ostfildern bei Stuttgart |
||
Praktikum (m/w/d) Projektmanagement Social Media ab Januar 2025 CEWE Stiftung & Co. KGaA in Oldenburg |
Google-Quote mit einem tiefen Tal:
Trafficentwicklung korreliert natürlich stark mit Google:
und das ganze per Statcounter.com Auswertung für März 06:
Auch heute hält die Tendenz an, die Suchanfragen sind immens zu den Vortagen hochgegangen und erreichen alte Zeiten:
Datum Impressions Visits Searches Internals Bots
2006/3/30 4104 2599 1967 901 1
2006/3/29 3308 1525 581 1263 3
2006/3/28 1863 785 208 793 1
2006/3/27 1769 753 203 741 3
2006/3/26 777 465 172 233 4
2006/3/25 715 446 159 196 4
2006/3/24 1037 590 139 351 6
2006/3/23 1376 662 169 531 6
2006/3/22 1613 763 178 663 1
2006/3/21 2291 941 192 1063 1
2006/3/20 1770 835 180 694 6
2006/3/19 958 526 155 290 4
2006/3/18 1143 621 172 358 4
2006/3/17 1598 852 182 533 5
2006/3/16 1498 825 176 504 8
2006/3/15 1678 795 202 648 4
2006/3/14 1390 690 172 590 0
2006/3/13 1496 784 200 546 4
2006/3/12 990 592 209 264 0
2006/3/11 996 611 213 230 0
2006/3/10 1563 803 199 590 3
2006/3/9 1649 830 192 550 3
2006/3/8 2267 1019 352 906 3
2006/3/7 4209 2127 1309 1361 3
2006/3/6 3469 1971 1316 993 0
2006/3/5 2817 1867 1401 496 2
2006/3/4 2242 1477 1038 418 0
2006/3/3 2649 1599 1071 702 1
Ob wir nun wirklich aus der Sandbox draussen sind, ob Google in der Tat Double Content entdeckt hatte, ich weiss es nicht. Kann sein, daß es nur temporäre Ausschläge sind.
Verkehrtrum. Warum ersparst du deinen Besuchern nicht das überflüssige http://www.? no-www.org
Google schiebt seit letzter Nacht mal wieder fleißig hin und her. Bei neuen Blogs ist es derzeit ja so, dass man mit diesen spielend Top Positionen erreicht, durch einen extrem starken Newbiebonus. Dieser Bonus kann Monate aber auch nur Wochen anhalten. dann schmieren die Blogs ursprünglich ab, sind also kuam noch auffindbar über Google.
Dann – ich vermute je nach Schreibfrequenz – tauchen sie früher oder später wieder (fast oder besser) auf alten Positionen auf und bleiben dann stabil.
Es scheint so als ob Google sie eine zeitlang gut listet umd die Qualität des Traffics festzustellen, dann nach hinten wirft um zu sehen ob der Blogger für Google oder für seine Besucher schreibt.
Habe dazu auch mal hier einen beitrag geschrieben
Haltet mich da mal auf dem Laufenden. Bei mir ist der Anteil der Google User von 400 – 600 täglich auf 10 am Tag abgeschmirt. Habe auch mal gecheckt woaran es liegen kann und muss auch dringend was machen…
Alles gute Massnahmen. Voraussichtlich auch der Hauptgrund für die sich abzeichnende Rekonvaleszenz.
Zusätzlich/im Zusammenspiel: Bei Google gab’s in dieser Zeit einen glitch, der auf vielen Web sites gut gelistete pages in den supplemental index verschoben hat. Das wurde korrigiert, aber bedingt durch die interne Infrastuktur (search index und supplemental index sind getrennte Systeme mit separatem crawling, die erst in der query engine zusammen befragt werden), ist ein recrawl für den Standardindex erforderlich gewesen. In dem Maße wie der voranschreitet, verbessert sich der Google traffic der betroffenen Seiten auch wieder.
Best of luck!
Robert, ruf mich mal an. Ich habe da noch ne Idee zu der Geschichte.
> Verkehrtrum. Warum ersparst du deinen
> Besuchern nicht das überflüssige http://www.?
Ich habe Robert die Version mit www. empfohlen da gamersliving.com seit jeher mit dieser Version im Google-Index war. Da es hier hauptsächlich darum ging den Traffic wiederzubekommen, wäre ein Wechsel auf die Version ohne www. kontraproduktiv gewesen da Google sich alle Seite neu hätte holen müssen.
Ich würde übrigens eher „Duplicate Content“ sagen. Ist besseres Englisch, „Double Content“ hat sich daraus entwickelt, dass einige Leute mit der Abkürzung DC nichts anfangen konnten 🙂
Um auch für alle anderen verständlicher zu machen warum gerade das Forum ein Problem war:
Lange Zeit war nur das Blog bei Google gelistet. Viele Seiten, guter Content, nette Links. Auf einmal kam dann aber das Forum dazu und wurde dann natürlich auch vom Googlebot besucht. Danach sah das dann eher so aus:
– 58135 Seiten insgesamt
– 3000 Blogeinträge, Feeds, Trackback
– 200 Category
– 400 Tags
– Rest (54400 Seiten!) vom Forum
Der prozentuale Anteil von qualitativ hochwertigen Seiten (Posts) hat durch das Forum also extrem abgenommen. Für Google könnte das ganze aussehen, wie wenn auf eine hochwertige Seite auf einmal Spam gesetzt wurde (viele viele Seiten mit selbem Inhalt etc) um die „Autorität“ der Seite auszunutzen.
Da das Forum aber sowieso eher eine interne Geschichte ist, und der Aufwand das Forum „sauber“ zu bekommen nicht unerheblich wäre, haben wir beschlossen einfach die Forenseiten bei Google auszuschließen und auf Besserung zu
hoffenwarten.> Haltet mich da mal auf dem Laufenden.
Michael, Melde dich einfach mal per Mail, da kann man vielleicht auch in 10 min helfen.
> Robert, ruf mich mal an. Ich habe da noch ne
> Idee zu der Geschichte.
Gerald, kannst es mir ruhig auch erzählen 😉
Google hat bei mir geputzt!
Ich hab festgestellt, dass Google wohl per 28. März das falsche und doppelte Listing meiner Seiten bereinigt hat. Vorher fanden viele Besucher mit Keywords für einzelne Post-Pages (verfasst in den letzten Monaten, also schon lange nicht mehr auf der Startseite) die URLS der Startseite. Seit Dienstag ist alles anders. Kein einziger Treffer mehr für die Hauptseite sondern nur noch für Archive- und Post-Pages. Ist ja auch richig, wenn der Surfer dorthin gelangt, wo sich das Gesuchte befindet und nicht dorthin, wo es sich mal vor langer Zeit befand. Nur, mein Traffic leidet schwer darunter. 🙁
Btw.:
„Ob wir nun wirklich aus der Sandbox draussen sind, ob Google in der Tat Double Content entdeckt hatte, ich weiss es nicht. Kann sein, daß es nur temporäre Ausschläge sind.“
Ich würde mal behaupten, dass der Kurs aus der Seitwärtsbewegung noch oben ausgebrochen ist und ein klares Kaufsignal gesetzt hat! Kann aber auch eine Falle sein! 😉
😀
[…] der Trend scheint stabil zu sein beim Living in World of Warcraft Blog: Google ist tatsächlich wieder back, nachdem es uns drei Wochen einfach ignoriert und verschmäht hatte. Mehr dazu siehe Bericht 1 und Bericht 2. […]
[…] Dass der Duplicate Content tatsächlich zu massiven Problemen mit Google führen kann, sieht man auch bei dem Beitrag „wenn Google einen nicht mehr mag„. […]
> Über diesen Eintrag in der .htaccess biege ich
> alle Aufrufe ohne „www“? so um, daß alle URLs für
> Living in WoW Beiträge mit einem „www“?
> vorangestellt werden:
Hmm … das ist nicht wirklich der Fall. Ich habs ausgetestet. Haste das wieder ausgebaut? Wenn ja warum? Deine Argumente klangen ja plausibel.
Updates haben diese Einstellung zerfleddert. habe sie seitdem auch nicht mehr reingezogen, weil ich mich entsinne, dass in Google Sitemap sowas eingebaut wurde mittlerweile, ob Google mit oder ohne www die URL bewerten soll. Hab das dann dort gemacht, ist aber schon länger her und da es mir nicht so wichtig ist, kümmere ich mich auch nicht mehr drum, ob das nun Auswirkungen hat oder nicht