SEO: Tipps zur optimierung der Ladezeiten einer Webseite – Pagespeed optimieren – SEO Tipps

30. April 2012 at 12:49
speed ampel geschwindigkeit performance

© Steve Webel / piqs.de

Die Seitengeschwindigkeit (engl. Pagespeed) bzw. genauer die Ladezeit einer Webseite, ist seit 2010 laut Google ein wichtiges Ranking-Kriterium. Daher ist es wichtig diese regelmäßig zu überwachen (Monitoring), bei schlechten Werten zu analysieren und schlussendlich zu optimieren.

An dieser Stelle möchte ich hierzu ein paar Optimierungs-Tipps geben.

Gerne könnt ihr in den Kommentaren Ergänzungen oder Kritiken schreiben, wenn sinnvoll nehme ich diese gerne in den Artikel mit auf.

Test-Tools / Seitengeschwindigkeit analysieren

Google stellt dafür ein kostenloses Tool zum Performance evaluieren der Webseite zur Verfügung, zu erreichen über den folgenden Link.

https://developers.google.com/pagespeed

Das Tool gibt es auch als kostenloses Browser Plugin:

https://developers.google.com/speed/pagespeed/download

Ladezeit mit Google-Analytics messen

Ich empfehle ebenfalls die Ladezeiten auch mit Google-Analytics regelmäßig zu monitoren.
Detailierte Informationen hierzu unter Google-Analytics.

Ziel: regelmäßiges automatisches Monitoring der Ladezeit

Grafiken komprimieren

Die Ladezeit von Grafiken lässt sich durch automatische Komprimierung wesentlich verkürzen,
Qualitätsunterschiede sind für das menschliche Auge fast nicht erkennen. Ein guter Komprimierungs-Dienst ist z.B.:

Tipp:    JPEGmini.com

Ziel: Grafiken verkleinern ohne merklichen Qualitätsverlust – weniger Datenvolumen zwischen Client & Server

Gzip Komprimierung aktiveren

Die automatische Gzip komprimierung lässt sich über die .htaccess ggf. über den Webserver (Provider) konfigurieren und sollte entsprechend aktiviert sein.

Ziel: Datenvolumen zwischen Client & Server verringern

CSS + Javascript Dateien zusammenfassen

Oft werden mehrere CSS und/oder JS-Dateien verwendet. Durch das zusammenfassen dieser Dateien, vermindern sich die HTTP-Requests (aus verschiedenen wird nur noch einer), dadurch erhöht sich ebenfalls die Ladezeit der Webseite.

Ziel: Weniger HTTP-Requests

Cache aktivieren

Wenn möglich ein Cache-Module des Webservers einbinden und aktivieren (z.B. APC oder MemCache).

Ziel: Webseiten werden im Cache vorgehalten, dadurch verringert sich die Last & Ladezeit des Webservers

Magento Speed up – Magento beschleunigen über htaccess Eintrag

13. Juli 2010 at 16:39

Mit den folgenden Eintrag in der .htaccess Datei im Magento Hauptordner könnt ihr ein Geschwindigkeitsschub von 50 – 200% Erreichen (Ladezeit):

AddOutputFilterByType DEFLATE text/html text/plain text/css text/xml application/x-javascript application/x-json application/x-httpd-php
AddOutputFilter DEFLATE html xml css js php
BrowserMatch ^Mozilla/4 gzip-only-text/html
BrowserMatch ^Mozilla/4\.0[678] no-gzip
BrowserMatch \bMSIE !no-gzip !gzip-only-text/html
Header append Vary User-Agent

Pro & Kontra des cloud computing

23. Oktober 2009 at 11:03

Cloud Computing ist einer der Top-Themen 2009! Das Konzept dahinter ist nicht wirklich neu, gerade große Unternehmen setzen dieses oder ähnliche Konzepte seit Jahren ein zwecks Lastenverteilung, Ausfallsicherheit oder als Backup-Strategie.

Aber wie sicher ist Cloud Computing? Lohnt sich ein Umstieg? Was sind die Pro & Kontra?

Das „Sidekick-Desaster“ in der vergangenen Woche hat nicht nur den beteiligten Firmen Microsoft, Danger und T-Mobile schlechte Presse beschert, sondern auch dem Thema Cloud Computing. Alle Daten der Sidekick-Nutzer waren auf Servern innerhalb der Cloud gespeichert und gingen durch ein misslungenes Update verloren. Und zum Spot für die Kritiker war kein Backup vorhanden. Dabei werden die Ausfall- und Backup-Sicherheit mit als die Stärken des Cloud Computing verkauft.

Hier möchten wir Euch eine kurze Übersicht der Pro & Kontras geben:

pro

  • Durch Cloud Services ist der Zugriff auf Anwendungen und damit das Arbeiten von überall möglich – Der Designer kann von zu Hause genauso auf die Applikationen zu greifen wie von einem Internet-Café im Urlaub. Dadurch werden Fixkosten gespart da z.B. nicht für jeden Client eine Lizenz erforderlich ist.
  • Sehr hohe Erreichbarkeit. Teilweise wird mit 100% Uptime geworben, allerdings kann diese Zahl wohl nicht immer gewährleistet sein. Z.B. bei Server-Ausfall können einzelne Knoten ausfallen oder überlastet sein bis der Ausfall der Server oder die Wiederherstellung des Backup abgeschlossen ist.
  • Cloud Computing erfordert nur geringe Investitionen. Gerade kleinere Unternehmen/Webseiten verfügen nur über ein geringes Eigenkapital. Anstatt Zeit und Geld in Technik zu investieren können sie sich auf ihr Produkt konzentrieren.

Contra

  • Abhängigkeit des Anbieters der Cloud-Applikation bzw. des Dienstes. Hat dieser technische Probleme oder geht gar in die Insolvenz, so ist es selten möglich „mal eben“ selbst ein Cloud-Server-Dienst zur Verfügung zu stellen (im Vergleich zu einem auf Apache & Linux basierten Webserver).
  • Datenschutz und Sicherheit: Die Daten liegen verteilt auf verschiedene Server & Standorte . Teilweise nicht durchschaubar wer auf diese Daten Zugriff hat, wo deren Standorte sind, wie das Backup-Konzept läuft, etc.! Es bleibt meist nur dem Anbieter zu vertrauen, dass er Informationen ausreichend vor Missbrauch schützt und ein gutes Backup-Konzept fährt.
  • Die Performance von Cloud-Diensten und vor allem Anwendungen welche Offline-Client-Applikationen ablösen, hängt von der Geschwindigkeit des Internet-Zugangs ab. Bei lokalen Anwendungen gibt es das Problem nicht!
  • Der Zugriff auf den Dienst hängt von der Verfügbarkeit des Dienstes/Anbieters ab. Bei z.B. Wartungsarbeiten, ist der Dienst nicht verfügbar. Zeitkritische Aufgaben können in diesem Fall ggf. nicht fertig gestellt werden.
  • Durch Cloud Services ist zudem ein verteiltes Arbeiten möglich. Der Redakteur kann im Internet-Café im Himalaya sitzen und dort an seinen Texten arbeiten. Präsenzarbeit ist überflüssig und es werden Fixkosten eingespart.

Performancemodul für Magento angekündigt

20. Oktober 2009 at 19:01

Die Leipziger Internetagentur Netresearch will dem OpenSource-Shopsystem Magento Beine machen und hat ein Performance-Modul angekündigt. Mit dem Modul soll der Seitenaufbau im Magentoshop beschleunigt werden.

Aktuell werden die Produktlisten und Produktdetailseiten im Magentoshop bei jedem Aufruf neu generiert, dadurch verlängert sich die Ladezeit beim Seitenaufbau. Das Modul von Netresearch rüstet eine Cachingfunktion nach, welche das Neugenerieren unnötig macht. Die Ladezeit soll sich dadurch um bis zu 2/3 verringern lassen.

Das neue Modul wird offiziell am 2. November auf dem Community Treff „Meet Magento #2.09“ in der Frankfurter Börse vorgestellt.

Die Magento-Community ist gespannt!