Speed ‚Em Up: WordPress & W3 Total Cache

Die Geschwindigkeit einer Homepage ist nicht nur ein wichtiges Kriterium dafür, ob der Besucher Spaß hat, länger bleibt oder bestenfalls sogar wiederkehrt, sondern spielt inzwischen auch für das Ranking der Seite in den Suchmaschinen eine Rolle. Allen voran natürlich bei Google, die den Page Speed unter anderem auch in den Webmaster-Tools ausgeben. Gemessen wird die Geschwindigkeit zum Beispiel über die Toolbar oder auch das Google-eigene PlugIn ‚Page Speed‘. Dieses bietet euch beispielsweise in Zusammenarbeit mit dem Firebug ein sehr gutes Analyse-Tool für euren Webspace bzw. euren Webauftritt. Soweit zum Messwerkzeug aus den Google-Labs, doch wie bekomme ich eine Seite überhaupt schneller?

Grundsätzlich ist einer der ersten und wichtigsten Punkte der Webhoster. Habt ihr eure Seite auf einer lahmen Maschine liegen, könnt ihr noch soviel optimieren, die Seite wird dennoch im Rahmen der Leistung des Servers langsam bleiben. Doch es muss je nach Auftritt nicht gleich ein eigener Server (oder größerer VPS) sein. Ich habe zum Beispiel die Erfahrung gemacht, dass WordPress-Blogs mit einer durchschnittlichen Besucherzahl von bis zu 2.000 Uniques am Tag auch ohne Probleme auf Shared-Paketen laufen. Diese Zahl kann natürlich auch stark nach oben oder unten ausschlagen und dürfte in der Anzahl auch eher die durchschnittlichen Blogger betreffen. Vor einigen Tagen nannte ich euch zwei gute Hoster, bei denen man sich vor allem auf den Service und die Erreichbarkeit verlassen kann. Fünf Euro sollte man im Monat wohl schon mal für eine eigene Seite übrig haben.

Hat man den passenden Hoster gefunden geht es an die Seite. Viele Blogger bzw. Webmaster neigen sehr gerne dazu ihre Seite mit unnötigen JavaScripts, Grafiken und ähnlichem Kram zu überladen. Man sollte sich immer vor Augen halten ob man das jeweilige PlugIn wirklich braucht und ob es tatsächlich einen Mehrwert für die Seite bzw. die Besucher darstellt. Einige PlugIns sind oftmals nicht nur ein Sicherheitsrisiko, sondern verlangsamen auch ganz gerne die Ladezeiten. Ein eher negatives Beispiel dafür sind unter anderem JavaScripts für ReTweet-Buttons oder auch die Einbindung von Facebook-Like-Buttons. Jedenfalls ist es dann wenig förderlich, wenn diese Scripts nicht am Ende ’nachgeladen‘ werden, sondern der gesamte Aufbau solange stockt bis diese sich vom jeweiligen externen Server mal in Bewegung gesetzt haben. Liegt das Script übrigens bei Google selbst, ist es weniger ein Problem. Nicht nur weil Google-Server idR. schnell Daten liefern, sondern auch, weil es nicht zur Abwertung kommt. Im Idealfall liegt es natürlich alles bei einem selbst, wenn es schon sein muss.

Gehen wir davon aus, dass aus der Seite alles unnötige entfernt wurde, die Datenbank aufgeräumt ist und auch die Templates gesäubert sind, kommen wir zum Punkt, den der Anwender direkt selbst bestimmt. Nämlich was der Autor in seine Artikel einbindet. Abgekürzt möchte ich dazu sagen, dass es beispielsweise keinen Sinn macht im bekannten TimThumb 100 Prozent Qualität zu verwenden, doch noch viel weniger effektiv ist, seine Bilder mit 100 Prozent / Stufe 12 Qualität aus Photoshop zu speichern. Dies macht die Dateien nur unnütz größer, verbessert nur unwesendlich die sichtbare Qualität und verlangsamt den Aufbau der Seite. Je nachdem um was für eine Grafik es sich handelt (bspw. Farbanteile) reicht oftmals 70-85 Prozent für eine sehr gute Qualität vollkommen aus. Dabei nicht unbedingt nur die hauseigene VDSL50-Leitung in Betracht ziehen, sondern sich in die Lage versetzen dass man beispielsweise die eigene Seite auf dem Smartphone öffnen würde.

Es gibt eine Vielzahl von Cache-PlugIns für WordPress, ebenso kann man sich natürlich den Cache auch selbst einbauen. Doch ich möchte euch hier meine erste Wahl vorstellen: W3 Total Cache. Dieses PlugIn benutze ich seit einiger Zeit für ein paar meiner Seiten. Es lässt sich wunderbar im Backend von WordPress konfiguieren und blockt zum Beispiel eingebettete JavaScripts nicht, wie es gerne ein paar seiner Konkurrenten tun. Der große Vorteil sind natürlich die deutlich schnelleren Ladezeiten. Eine Funktionsübersicht findet ihr in der WordPress-PlugIn-Datenbank oder wenn ihr es einfach mal bei euch probiert. Idealerweise erst Lokal oder in einem Testverzeichnis, wie sich das gehört.

Übrigens kann man sich mit einer sehr gut gecachten Seite auch schnell Serverkosten sparen. Umso mehr natürlich, je größer/frequentierter die Webseite ist.

  • Interessant! Und danke für den Tipp! Werde ich dann wohl auch mal versuchen. Habe nur mal vor einiger Zeit WP-Cache (oder wie das heisst) installiert … hat aber an allen Ecken und Enden nicht funktioniert.
    Bin mal gespannt, wie das W3-Plugin so läuft bei mir! :)

  • Unbedingt aber die Einstellungen überprüfen! Ich empfehle den Haken zu entfernen, dass eingeloggte User nicht gecacht werden. Lieber die Seite so sehen, wie es die User auch machen. Sowie in mehreren Browsern uneingeloggt testen!

  • Pingback: Ladereihenfolge von Scripts in HTML-Dateien festlegen | Andi Licious' Blogosphäre()

  • Johanna König

    Bei mir ist es genau anders herum: W3 Total Cache möppert an allen Ecken und Enden rum. Selbst das deinstallieren war eine Qual. Möchte aber nicht ausschließen, dass es an meinem hoster All-Inkl. liegt. WP Super Cache (Nachfolger von WP Cache) läuft hingegen einwandfrei und zuverlässig. Aber so hat jeder sein eigenes Pferdchen im Stall…:-)