wundere mich heute, warum mein Blog so lahm reagiert. Habe mir über die Strato-Konsole den Trafficmonitor anzeigen lassen und sehe diesen Peak, der sechsmal so hoch ist wie der Durschnitt:
Wie bekomme ich nun raus, was die Quelle des Anstiegs ist? Nein, kenne mich nicht mit Linuxservern aus. Ja, habe einen Admin. Will aber auch lernen:) Was ich weiß: Der Besucherstrom ist heute wie immer, keine Abweichungen von der Norm. Hab jetzt erstmal den Apache-Dienst neu gestartet. Mal schauen, wie lange das hilft. Momentan ist zunächst Ruhe… zunächst…
Update: Habe mir die Serverlogs gezogen und zunächst nach auffälligen Aufrufen von bestimmten IPs geschaut. Und gleich ein Treffer, eine IP zieht bisserl viel heute, etwas auffällig
Ein Aufruf der IP ergibt als Quellrechner-Lokation die TU Dresden an. Hm.. werde mal Kontakt aufnehmen zum Admin der Uni, welcher Rechner das genau ist.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
Update: Seit dem Neustart des Apache-Dienstes hat sich merkwürdigerweise der „Sauger“ beruhigt. Hätte das nicht wieder hochgehen müssen?? Nur weil ich auf meiner Seite einen Dienst stoppe… merkwürdige Sauger-Software.
hm… vielleicht floodet dich ein gemeiner spammer mit zugriffen zu?
glaube strato bietet auch ne logfile datei, schau mal auf welche seite(n) in den letzten stunden zugegriffen wurde… vllt erkennste dann auch auffälligkeiten (seltsame ip o.ä.)
Deine Stats bzgl. Zugriffe sind vermutlich JS-basierend und werten daher nur Zugriffe von Browsern aus, nicht von Bots und anderem automatisierten Getier? Schau mal, ob du zusätzlich noch serverseitige Stats á la Webalizer oder so hast, dort gibt es auch einen Punkt „Top 10 von xxx URLs sortiert nach kB“.
So findest du wenigstens raus, was da so oft aufgerufen wird und womöglich auch von wo die Aufrufe kommen…
Hm, auf der 25C3 wurd live das Storm-Botnetz gehackt. Die haben es doch nicht etwa testeshalber mal auf dich gerichtet? 😉
Schalte mal um auf 4 Wochen Ansicht, da habe ich auch in der 51. Woche auch einen enormen Peak der äußerst ausgeschlagen ist. Meine auch das ich da so einen hartnäckigen Spamer zu der Zeit hatte. Der hatte mir innerhalb von 1 Std. 200 Spams aufdrücken wollen. Sonst wüßte ich jetzt auch keine andere Begründung… Ist bei mir auch nur einmalig gewesen. Die restlichen Wochen sehen „normal“ aus. Habe auch Strato und hier 2 Blogs und diverse kleine Homepages darauf laufen.
@peter:
Spammer würden aber „nur“ massenhaft POST-Requests mit ihren Spam-Kommentaren, etc. ablassen und die Antwort vom Server nicht abwarten. Da beim Robert aber ganz deutlich der Outgoing Traffic den Löwenanteil ausmacht, passt das nicht recht zu sammen. Sieht eher nach einem Staubsauger aus..
Siehe auch meine Erfahrungen und Gegenmaßnahmen beim TrackBack Spambot, bei dem ich plötzlich Gigabytes an eingehendem (!) Traffic hatte.
25c3 war auch mein erster Gedanke.
Heute sind einige Dos-Linge unterwegs gewesen. Bis eben hatten beispielsweise einige Server des Spiels Freewar mit überhöhten Zugriffen zu tun und kamen so teils bis an den Rand ihrer Belastbarkeit. Eventuell ist das bei dir auch so etwas/jmd in der Art. Wobei.. ich hoffe natürlich nicht.
wo du 25c3 sagst… war jetzt nicht ne konferenz vom CCC im gange, gerade vermehr darüber gelesen…
@Alexander, interessanter Artikel.. ich habs insofern jetzt etwas einfacher, da die IP offensichtlich statisch ist, werde daher in die .htaccess ein deny from [IP] einfügen
@25c3 = Ich glaube, die echten Jungs finden sicher keinen Reiz, ein popeliges Blog lahmzulegen, das ginge etwas einfacher, als Bot-Netze loszujagen:)
Bei der TU Dresden wird JAP gehostet, kann sein das es nur eine Proxy IP ist.
http://anon.inf.tu-dresden.de/
Schau Dir doch DAS mal an: http://www.bot-trap.de/home/pages/home.php … + DAS http://www.korizon.de/bottrap.html … seit ich das einsetze, ist Ruhe …
Boris
Ich behaupte mal da saugt einer dein ganzes Blog. Das kannste anhand der apache2 access.log super schnell herausfinden.
dann einfach in iptables die IP Sperren und vielleicht nach 24 Stunden wieder rausnehmen und gucken obs aufgehört hat.
Wie das funktioniert weiss sicherlich dein Admin.
Ich studiere an der TU Dresden und hab von einem Projekt gehört, dass Blogs spidern und die wissenschaftlich auswerten will.
Uns wurde angeboten, den Spider zu schreiben…
Vielleicht wurde das schon umgesetzt und die lassen das über die Ferien laufen. Dann müssten aber alle bekannteren Blogger davon betroffen sein.
danke, habe die beiden Admins des Rechners angemailt, mal schauen, was es war:)
Hi,
einer der Comments lag genau richtig. Ich muss eine Belegarbeit schreiben zum Thema Identifikation von Blogs und der Spider hatte geraden diesen Blog bearbeitet. Sorry das es dadurch Probleme bei euch gab. Eigentlich hatte ich ihn schon gedrosselt, damit so etwas nicht passiert, aber scheinbar nicht ausreichend. Es liefen gerade einmal 10 Aufrufe parallel. Habe ihn jetzt weiter gedrosselt. Was ich aber auf jeden Fall empfehlen würde ist, die robots.txt anzupassen, an die sich alle Spider halten sollten. Momentan wird in dieser alles erlaubt zu Crawlen.
Guten Rutsch ins neue Jahr!
Darf man erfahren wie Du die Blogs auswählst welche Du spiderst oder wollt ihr die ganze Blogosphäre aufs Korn nehmen? 🙂
@Marco
Meine Aufgabe ist es eigentlich nur: Wie erkennt man Blogs? Dafür benötige ich allerdings auch Testdaten. Der Spider selbst ist hier auch nur zufällig gelandet. Jetzt sucht er nur mit einer URI zugleich weiter, hoffe das das jetzt keinen Ärger mehr macht.
Aber schon echt erstaunlich das die Anbindungen das nicht aushalten. Eigentlich hätte sowas schon viel eher passieren müssen. Große Suchmaschinen durchsuchen ja ständig das Netz.
Niemand sprach davon, dss die Anbindung (!) schlapp macht.
Die Jungs von Google & Co. sind nicht daran interessiert den Betreibern gecrawlter Seiten Scherereien zu machen. Entsprechend dosieren sie ihr Anfragen clever und saugen nicht so schnell wie möglich, so viel wie möglich, sondern verteilen ihr Abrufe über Tage hinweg (je nach Einzelfall). Eine XML Sitemap macht diese Dosierung natürlich einfacher, weil so zumindest die Anzahl verschiedener Seiten / Dokumente bekannt ist.
Es versucht auch keiner mit seinem Wagen jede Strecke mit Vollgas in jedem Gang bis an den Drehzahlbegrenzer zu fahren.. 😉
@Alexander Langer
Niemand sprach davon, dss die Anbindung (!) schlapp macht.
->
„wundere mich heute, warum mein Blog so lahm reagiert.“
-> dann halt der Server ansich.
Der Rest ist klar, hab ich natürlich nicht gemacht :-/
„Anbindung“ ist i.a.R. ne Sache der Bandbreite 😉
Mir wird schon unheimlich. Dieser Blog wird bei Strato gehostet und hält den Besucheransturm aus. Echt respekt. Dachte, dass Strato nicht besonders kundenfreundlich ist. Hab mich wohl getäuscht.
Interessant, dass nach einer gezielten Nachfrage sich auch der Verursacher des Bandbreitenstaus zu Wort meldet. Das hätte ich auch nicht gedacht. 😉
@cy: Kannst Du mir per mail etwas genaueres über Euren versuch schreiben? Ich selbst studiere gerade an der TU Dresden und schreibe mein Diplom ;). Ralph
Soso, eine 141.-IP, Uni-Rechner also…