gestern war ein komischer Tag. Da bloggt man was über den anstehenden Verkauf und die Zugriffszahlen steigen im Grunde genommen nicht besonders hoch, doch der Server raucht bei der Mehrlast ab (na ja, er schmierte nicht ab, aber die Antwortzeiten gingen in den tiefsten Keller). Die Page Impressions beliefen sich auf 21.600. Das ist grob das Doppelte vom Normalmaß und es wurmt mich, dass das Blog ab diesen Größenordnungen abraucht. Berücksichtigen muss man natürlich, wie sich der Traffic verteilt bzw. wie groß die konkurrierenden Zugriffe zur gleichen Zeit in der Lastspitze sind. Kämen alle auf einmal, würde kein normaler Webserver nachkommen.
Wie dem auch sei, ich habe mir jetzt -was ich schon längst probieren wollte- das WordPress-Plugin „WP Super Cache“ installiert. Das nach dem Prinzip arbeitet, aus einer dynamischen Auslieferung von Inhalten (die aus der MySQL-Datenbank bedient werden) statische Dateien zu erzeugen. Die ein Webserver unter Umgehung von Datenbankabfragen und der Entlastung der PHP-Abarbeitung eher ausliefern kann, da man schlichtweg zwei große Arbeitspakete damit streicht:
This plugin generates static html files from your dynamic WordPress blog. After a html file is generated your webserver will serve that file instead of processing the comparatively heavier and more expensive WordPress PHP scripts.
Da bei der Aktivierung des Plugins einige Grundfunktionen und Schreibrechte erwartet werden, ist die Installation nicht ganz ohne. Also nix mit plug & play. Was damit den Einsatz für abolute Anfänger erschwert. Im Grunde genommen ist das aber wirklich nicht so wild, wenn man die Fehlermeldungen durchliest und Schritt für Schritt das tut, was drinsteht.
Nach Aktivierung des Plugins lief das Blog wieder rund. Wann man es demnach einsetzen sollte? Schwer zu sagen, wo die Schmerzgrenze Eures Webservers liegt, das findet man dann heraus, wenn es soweit ist. Ich würde supergrob sagen, dass man sich ab 10.000 Seitenaufrufen pro Tag langsam Gedanken machen sollte, das Tool zu installieren. Wobei Seitenaufrufe nicht viel besagen müssen, wenn ein Blog pro Abfrage mit extrem vielen Datenabfragen aufwartet (zB über den Einsatz datengieriger Plugins) und zugleich übermäßig viele Files ausliefern muss. Das können zB Bilddateien sein. Die der Server natürlich ebenso mit ausliefern muss. Sprich, jede auszuliefernde Datei (.html, .jpeg, .gif, .png…), jede zu interpretierende Datei (.php, .js, …) und jede Datenbankafrage kostet Power. Rechnerlast, die auf Kosten von Plattenzugriffen, CPU-Zeiten und RAM geht, aber auch Bandbreite der Netzkarte. Daher würde ich die 10.000 Page Impressions mit Vorsicht genießen. Es gibt draußen genügend Shared Hoster, die nur bis zu einem bestimmten, recht niedrigen Grenzwert dem Bloginhaber Ressourcen des Webservers zuordnen, den man sich mit anderen Kunden teilen muss. Diese Angaben findet man kaum in den AGBs bei Vetragsabschluss, zumal sie die meisten Kunden nicht bewerten könnten, meiner einer inlusive. Oder wisst Ihr etwa, wie viele Datenbankabfragen Euer WordPress erzeugt?