Sitemap mit robots.txt verlinken – SEO Tipps

24. März 2011 at 18:20

Die Sitemap kann manuell über die Google Webmastertools für eine Webseite definiert werden. Für die Suchmaschinenoptimierung (kurz: SEO) ist die Auslieferung einer sitemap.xml für Suchmaschinen zu empfehlen.

Automatisch geht das auch über die folgende Definition in der robots.txt :

Sitemap: http://www.mysite.com/sitemap.xml

7 wertvolle SEO OnSite Tipps

17. März 2011 at 20:12

1) Was ist bei einem für SEO optimierten Text wichtig?

Häufig wird von Keyword-Density (Keyword-Dichte) gesprochen, wobei darauf zu achten ist das kein Keyword-SPAM entsteht welcher schlimmstenfalls zu einem Google-Penalty (Abstrafung durch Google) führt. Praxis-Tests haben gezeigt, dass lange Texte besser im Ranking positioniert werden, also kurz optimierte Texte. Google legt immer mehr Wert auf guten und viel Content, umso mehr, umso besser. Ca. 100 Wörter ist eine gute Richtlinie, auch weil viele Webseiten-Besucher Texte über diese Länge meiden bzw. zu Ende lesen. Bei kürzeren Texten kommt meist der Informationsgehalt zu kurz.

Keyword-Density ist unwichtig! Ein Keyword am Anfang, in der Mitte und zum Ende des Textes reichen völlig in der Größenordnung von ca. 100 Wörtern.

Wichtiger ist dagegen an Neben-Keywords zu denken. Ein Keyword-Optimizer kann helfen ähnliche Wörter/Kombinationen oderKombinationen finden, wichtig vor allem um besseren Longtail zu erhalten.

2) Welcher Mehrwert haben Bilder, Videos oder optimierte Listen?

Durch Bilder wird die Seite auf, des weiteren wird die Seite bzw. die Bilder in der Google-Bildersuche gefunden, wodurch der Besucherstrom/Webseitenreichweite verbessert wird und Schluss endlich der Longtail optimiert.

Videos sind gut um die Verweildauer zu verlängern.

Eine Strukturierte Webseite mit Zwischenüberschriften und Listen kann durch Google besser indexiert werden, hinzu kommt das eine semantisch gute Webseite (Stichwort: Web 3.0) besser für jegliche Maschinen, Clients, etc. gelesen werden kann.

3) Welche Meta-Angaben sind wichtig?

Das Meta-Tag „Description“ kann die Klickrate bei Google verbessern.

Die Sprach- und Länderangaben können sehr nützlich sein, auch weil Google das Ranking von dem Standort des Suchmaschinen-Benutzers abhängig macht.

Tags die „noodp“ (besagt dass der Beschreibungs-Text nicht aus dem Open Directory Project übernehmen werden soll) und anderte, kann verzichtet werden.

4) Welche Meta-Angaben sind denn wirklich wichtig?

Das Meta-Tag „Description“ ist für die Durchklickrate bei Google wichtig.

Auch Sprach- und Länderangaben können sehr nützlich sein.

Auf „noodp“ (= nicht den Text aus dem Open Directory Project übernehmen) und den meisten anderen Kram können wir verzichten.

Zu erst sollt man analysieren welche Seiten „wichtig“ und welche „unwichtig“ sind!

Unwichtige Seiten sind z.B. Fehler-Seiten (404 Error Page), Leere Ergebnisseiten aus Filterfunktionen, paginierte Kategorieseiten (Duplicate Content vermeiden), etc.

Allg. kann man sagen, alle Seiten welche kein Mehrwert für den Besucher bringen.

Die einfachste Möglichkeit Google zu sagen, dass diese Webseiten nicht indexiert werden soll ist den „noindex“ Tag auf der Seite zu setzen. Bei Übersichtsseiten (Listen) sollte ein „follow“ dahinter gesetzt werden, wenn eine Indexierung der verlinkten Seiten erwünscht ist.

Ebenfals nützlich ist das Cononical-Tag, auch um für Google bei Duplicate Content die Ursprungsseite zu markieren.

5) Welche sind die häufigsten Einsteiger-Fehler im Bereich SEO?

Die Verwendung falscher Keywörter ohne Abgleich nach dem Suchvolumen. Selbst eine Keywort optimierte Seite bringt keine Besucher, wenn niemand danach sucht.

Zu glauben, dass man mit einer beliebigen Firmenwebseite mit einem heiß umkämpften Keyword (z.B. „Arzt“), ohne weiteres auf Platz 1 landen kann. Wichtig wäre dagegen mehr auf Suchphrasen zu optimieren.

Die Verwendung unnötiger oder veralteter Tags, z.B. das Meta-Keyword-Tag wird nicht mehr von den Suchmaschinen verwendet, muss deshalb auch nicht gesetzt sein. Viele Einsteiger setzen hingegen dies gar manuell, einfach verschwendete Zeit.

6) Welche Fehler machen erfahrene SEOs am häufigsten?

Zu lange Inhalte mit falscher Keyword-Density von z.B. 10 Prozent, danach Penalty durch Google oder gar Ausschluss aus dem Index.

Weiterbildung, selbst wenn vor 2-3 Jahren ein Projekt mit diversen Praktiken/Tricks gut gerankt hat, so muss dies heute nicht mehr gelten. Google verändert nahezu täglich ihren Algo und die Gewichtung der Einfluss-Faktoren. Z.B. Social-Media war vor 2 Jahren kaum ein wichtiger Ranking-Faktor, aktuell hat Google den Social-Graph geschaffen und eine Webseite welche gut im Social-Media-Umfeld vernetzt ist deren Wert steigt bei Google und damit ebenfalls das Ranking.

Die Optimierung sollte jeweils passend zur Seite sein, die Methoden zur Optimierung sind bei einem Webshiop anders als bei einem Portal, einer Community oder Affiliate-/Landing-Page.

Projekte nicht regelmäßig beobachten und Erfolge auswerten. Gerade aufgrund des sich regelmäßig sich ändernden Algorhytmus und die Gewichtung der Einflussfaktoren, sollte eine Webseite in regelmäßigen Abständen (mind. alle 1/2 Jahre) neu auf die aktuelle SEO & Social-Media-Optimierung analysiert werden.

Schauen was die anderen Webseiten so machen. Gerade wenn es um Werbeeinnahmen, Besuchertreue oder Konversion-Optimierung geht, ist Verweildauer ein wichtiges Thema. Vielleicht wird dieser Faktor gar in der Zukunft ein wichtiges Ranking-Kriterium? Eine kurze Verweildauer spiegelt auch den Wert der Webseite wieder, maßnahmen zur Verlängerung sollten umgesetzt, zu minntest diskutiert werden.

7) Welche Tipps und Trends im Bereich Onsite gibt es für das SEO Jahr 2011?

HTML5

Rich Snippets für Bewertungen, Kommentare und viele andere Informationen.

Integration in Social-Media – Google lässt die Besucher entscheiden welche Webseite wertvoll ist. Umso mehr „Likes“, Tweeds, Verlinkungen, etc. umso höher der Wert des Artikels oder der Seite (Stichwort: Social Media Graph)

Semantisches Web 3.0 (Jedes Jahr auf’s neue, bis es endlich flächen deckend umgesetzt wurde)

Webseiten ohne Flash mit Alternativer Umsetzung mit HTML5 oder Java-Script (Stichwort: Barrierefreie Webseiten)

und noch viele weitere, 1 Internet Jahr kann sehr lang sein, das internet ist schließlich sehr schnelllebig

Tippfehler Domains finden – Tippfehler-Tool – SEO Tool

16. März 2011 at 15:47

Ihr benötigt, z.B. für eure SEO-Arbeit, ein Tool um auf Basis einer Domain automatisch verschiedene Tipp-Fehler-Domains zu generieren?

Unter anderem ist dies möglich über die Webseite: www.domainname.at/typ.php

SEO & SMM: der neue Google Social Graph – Social Commerce

10. März 2011 at 00:45

Die sozialen Netzwerke (Social Media) und Social Commerce/Social Media Marketing (kurz: SMM) gewinnen an immer mehr Bedeutung. Das hat auch Google erkannt und den Social Graph eingeführt. Anhand dessen kann für die Gewichtung der Suchergebnisse (Ranking), die Verbreitung der Seite in den sozialen Netzwerken wie Twitter, Facebook, etc., berücksichtigt werden.

Alghorytmus vs. Mensch

Entschieden bisher allein automatische Alghorytmen über das Ranking, so kommt jetzt der Faktor Mensch hinzu. Gewertet werden viele Faktoren, z.B. wie oft wird eine Seite ge-twittert, wie oft wird die Seite bei Facebook erwähnt, wie viele „like“ hat der Link bekommen, etc.!

Durch diese Möglichkeit erhält Google, ganz nach dem Web 2.0 Prinzip, die Möglichkeit die Anwender direkt über die Qualität einer Seite bzw. deren Beliebtheit zu wachen.

Die Verknüpfung einer Webseite in sozialen Netzwerken wird immer wichtiger

Vor wenigen Jahren noch unvorstellbar, ist es mittlerweile nahezu unverzichtbar die eigene Webseite mit soziale Netzwerken wie Twitter oder Facebook zu verknüpfen. Sei es das automatische twittern neuer Beiträge / Artikel oder den „Like“-Button in Facebook wo Besucher, und damit Google, über die Qualität eines Artikels werten können. Ein Firmenblog gehört mittlerweile zum Pflichtprogramm.

Weiter Informationen zum Thema und den bekanntesten Social Graph Technologien gibt es unter:

Facebook Open Graph Best Practice

www.opensocial.org

code.google.com/apis/socialgraph

SEO: Non-defensive URL construction – no duplicate content – regex

9. Dezember 2010 at 17:01

Um zu verhindern dass durch verschiedene Schreibweisen von URLs duplicate content entsteht,  ist es ratsam einheitliche URLs zu erzeugen (z.B. nur die kleinschreibweise zu akzeptieren).

Aus gründen der besseren Benutzbarkeit (usability) ist es natürlich von Vorteil auch verschiedene Schreibweisen der URL zu berücksichtigen, im Detail:

http://www.fly2mars-media.de/seoblog/

sollte genauso berücksichtigt werden wie

http://www.Fly2Mars-Media.de/SeoBlog/

allerdings soll für Google nur eine Schreibweise verwendet werden, da sonst ggf. ein duplicate content problem entsteht.

Die Lösung ist ein rewrite der URL über mod_rewrite, hier die Lösung:

RewriteEngine On
 # lowercase request_uri and redirect 301
 RewriteMap  lc int:tolower
 RewriteCond %{REQUEST_URI} [A-Z]
 RewriteRule (.*) ${lc:$1} [R=301,L]

Beachtet auch diesen Tipp: Apache: RewriteMap not allowed here Problem

Möchtet ihr bestimmte Ordner ausschließen, so könnt ihr dies z.b. für die Ordner tmp und cache wie folgt:

RewriteCond %{REQUEST_URI} !^/(tmp|cache)

SEO: Im Firefox Webseite als Googlebot laden / Googlebot im Firefox als user agent konfigurieren

8. Dezember 2010 at 15:46

Als SEO ist es manchmal für Tests notwendig sich als Googlebot auszugeben.

Dies geht mit diversen Tools, allerdings auch durch ändern der Konfiguration des Firefox.

Dieser bietet die Möglichkeit, den User Agent frei zu wählen und den Browser als Googlebot auszugeben.

Und so geht’s:

In der Adressleiste des Browsers eingeben: about:config  -> Rechte Maustaste -> Neu -> String -> Eigenschaftsname: general.useragent.override -> Wert: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Danach gibt sich der Webbrowser Firefox als Googlebot aus.

Um die Änderung rückgänig zu machen, sucht ihr anhand der Filter den Wert „general.useragent.override“, klickt mit der rechten Maustaste auf diesen und bestätigt das Feld zurücksetzen.

Es kann übrigens zu Schwierigkeiten kommen, wenn man sich dauerhaft als googlebot ausgibt und mit dieser Einstellung im Internet surft. Z.B. beim speichern des Artikels in WordPress gibt es Probleme, solange der Firefox sich als Google-Bot identifiziert. Wahrscheinlich funktioniert eine Javascript-Weiche nicht richtig.

SEO: Mit PHP heraus finden ob Besucher Googlebot/Spider?

8. Dezember 2010 at 15:28

Mit der folgenden Funktion könnt ihr heraus finden ob es sich beim dem Besucher um ein Googlebot oder -Spider handelt:

public function isSpider()
 {
    if (strpos($_SERVER['HTTP_USER_AGENT'],"Googlebot"))
      return true;
    else
      return false;
 }

SEO: Google entwertet Links aus Blogkommentaren um Blogspam zu minimieren

6. Dezember 2010 at 12:21

Google-logo-wikipedia

Google geht weiter gegen SPAM und manipulativen Linkaufbau vor. Der neue Algorithums der Suchmaschine Google wertet ab sofort nur noch Links aus Blogkommentaren ab einer Länge von 250 Zeichen. Bei kürzeren Kommentaren sowie wenn die Kommentaren keine inhaltliche Übereinstimmung mit dem Blogbeitrag aufweisen, werden die enthaltenen oder mit dem Nutzernamen verlinkte URLs nicht länger für das Ranking als Backlinks gewertet.

Google selbst schreibt dazu:

If you’re a blogger, you’re painfully familiar with people who try to raise their own websites search engine rankings by submitting linked blog comments like “Wow, thanks for that great article”. From now on, those links won’t get any credit when the comment is shorter than 250 characters or not includes relevant keywords on topic of the blogpost. It’s just a way to make sure that spammers get no benefit from abusing public areas like blog comments, trackbacks, and referrer lists.

Ob die Änderung auch für die Wertung von Links aus alten Blogkommentaren gelten ist nicht bekannt. Die Änderung wird viele Blog-Betreiber eine erfreuliche Nachricht sein, hat der Blog-Kommentar-SPAM in den vergangen Monaten doch arg zugenommen.

SEO: Finde dein IP-Nachbarn – Server IP-Nachbarn auswerten

3. Dezember 2010 at 10:18

Mit diesem kostenlosen dem Reverse IP Lookup Tool ist es einfach möglich seine IP-Nachbarn zu finden um diese auszuwerten: www.yougetsignal.com/tools/web-sites-on-web-server

Wozu die IP Suche nach den Webnachbarn?

Google arbeitet auch auf IP-Basis, ein Bad-Neighbour  auf dem gleichen Server (gleiche IP, aber über ein anderen Domain-Name  zu erreichen, bei shared-hoster üblich) kann das Ranking sehr negativ beeinflussen. Bad-Neighbour sind z.B. Webseiten mit Pornografischen- oder SPAM-Inhalten (Linkfarm, etc.).

Ein weiterer Mehrwert ist heraus zu finden ob der IP Nachbar vielleicht sehr viel Traffic verursacht und damit den Server und somit auch meine eigene Seite gebremst wird (Performancerecherche).

Gerne könnt ihr weitere Webseiten in den Kommentaren veröffentlichen welche ähnlichen Service kostenlos anbieten. Ich werde diese dann mit in die Liste aufnehmen.

SEO – AJAX Links für Google optimieren – AJAX crawlen

24. November 2010 at 00:01

Zu den aktuellen Internet-Technologien gehört selbstverständlich der Einsatz von AJAX. Die Inhalte werden schnell, effizient und live nach geladen ohne das ein kompletter Reload der Web-Seite notwendig ist. Damit steigt die Benutzerbarkeit (usability) der Webseite wesentlich.

Doch werden diese Webseiten sauber von Google oder anderen Suchmaschinen gecrawlt?

Um das zu erreichen sind folgende zwei Herangehensweisen sind möglich:

  1. Inhalte für Suchmaschinen werden auch mit einer statischen URL angeboten
  2. Inhalte für alle Besucher werden mit einer „AJAX-URL“ angeboten.

Die AJAX-URL basiert dabei auf das sogenannte „Hashbang“ (Kombination aus Raute-Symbol und Ausrufezeichen: !#). Durch das Hashbang wird Google signalisiert dass es sich um eine AJAX-URL handelt. Diese wird dann von der Suchmaschine wie folgt ausgelesen: Alles was nach dem Hashbang kommt wird in einem URL-Parameter umgewandelt: aus www.fly2mars-media.de/#!parameter/value wird www.fly2mars-media.de/?_escaped_fragment=parameter/value . Zeigen beide URLs den selben Inhalt, so ist für die Suchmaschine alles in Ordnung (kein duplicate content). Die Seiten mit dem Parameter „_escaped_fragment“ können ggf. mit dem Statuscode 301 auf sprechende URLs umgeleitet werden, z.B. www.fly2mars-media.de/parameter/value.