Google erlaubt jetzt personalisierte Blocks in den Suchergebnissen

11. März 2011 at 12:55

Google-logo-wikipediaGoogle geht ein weiteren Schritt bei den personalisierten Suchergebnissen und bietet jetzt eingeloggten Nutzern eine Funktion zum Ausblenden unerwünschter Webseiten an. Damit können unerwünschte Seiten, z.B. Spamseiten Pages,  dauerhaft aus den eigenen Suchergebnissen verbannt werden. Diese Option ist nach Ansicht von Google die beste Möglichkeit die Suchergebnisse auf die persönlichen Bedürfnisse der Nutzer von diesen anpassen zu lassen. Das Ranking der nicht eingeloggten Benutzern soll durch diese Ausblendungen nicht beeinflusst werden. Ob sich dies ggf. in der Zukunft ändert und diese Option auch für nicht eingeloggte Benutzer eingeführt ist, dazu gab es noch kein Statement.

Google: Matt Cutts über Keyword-Domains

10. März 2011 at 22:15

Im folgenden Video erklärt Matt Cutts, warum Keyword-Domains nicht immer die richtige Wahl sind:

Kurze Zusammenfassung: Matt Cutts führt in diesem Video mehrere erfolgreiche Beispiele für Nicht-Keyword-Domains auf. Als Beispiel nennt er Twitter, Facebook, Reddit und natürlich Google. Die genannten Seiten haben keine relevanten Keywords in der URL, trotzdem stehen die Marken gut positioniert im Internet und die Marke steht im Vordergrund. Web-Seiten mit “brandable” Namen stechen generell aus der Masse im Internet hervor, Nutzer erinnern sich in der Regel eher an Brand-Names als an die beliebige Keyword-Domains welche die x-te Seite zu einem bestimmten Thema veröffentlichen. Als offensichtlichen Vorteil von Keyword-Domain sieht Matt Cutts in der keywordnahen Verlinkung. Hier reichen schon Links mit dem Domainnamen aus, um bei relevanten Keywords zu ranken.

Allerdings gibt es laut Matt Cutts Beschwerden von Nutzern gegen gut rankende Keyword-Domains. Google “denkt darüber nach” in Zukunft durch Anpassungen des Google-Algorithmus den Rankingvorteil von Keyword-Domains zu begrenzen. Google hat in letzter Zeit öfter angekündigt gegen „Content-Farmen“ aggressiver vorzugehen, diese Aussage passt genau in das Shema. Auf kurz oder Lang werden Keyword-Domains bzw. Content-Farmen nicht mehr den selben Stellenwert haben, wie noch aktuell.

Ich selbst rate deshalb von der Registrierung neuer Keyword-Domains ab, Verschwendung von Zeit & Geld!

Tipps um auf Facebook in den Hauptmeldungen zu erscheinen

30. Dezember 2010 at 17:07

Facebook Logo

Ihr möchtet mit Eurer Fan-Page in den Hauptmeldungen auf der Facebook Startseite erscheinen? Facebook hat dazu einen geheimen Algorithmus zur Berechnung ob ihr darin erscheint.

Folgende Indikatoren fließen dabei ein:

  1. Anzahl der Kommentare auf dem eigenen Profil
  2. Anzahl der geschriebenen Kommentare auf fremden Profilen
  3. Anzahl der anklickten „Gefällt mir“ Buttons
  4. Anzahl der geklickten „Gefällt mir“ Buttons durch Freunde, welche auf der selben Seite auch Fan sind
  5. Anzahl der geschriebenen Kommentare von Freunden des Fans, welche auf der selben Seite auch Fan sind
  6. Regelmäßig aktualisierte Statusmeldungen

    Kennt ihr weitere Indikatoren? Nennt sie in den Kommentaren und ich nehme sie mit in die Liste auf.

    SEO: Non-defensive URL construction – no duplicate content – regex

    9. Dezember 2010 at 17:01

    Um zu verhindern dass durch verschiedene Schreibweisen von URLs duplicate content entsteht,  ist es ratsam einheitliche URLs zu erzeugen (z.B. nur die kleinschreibweise zu akzeptieren).

    Aus gründen der besseren Benutzbarkeit (usability) ist es natürlich von Vorteil auch verschiedene Schreibweisen der URL zu berücksichtigen, im Detail:

    http://www.fly2mars-media.de/seoblog/

    sollte genauso berücksichtigt werden wie

    http://www.Fly2Mars-Media.de/SeoBlog/

    allerdings soll für Google nur eine Schreibweise verwendet werden, da sonst ggf. ein duplicate content problem entsteht.

    Die Lösung ist ein rewrite der URL über mod_rewrite, hier die Lösung:

    RewriteEngine On
     # lowercase request_uri and redirect 301
     RewriteMap  lc int:tolower
     RewriteCond %{REQUEST_URI} [A-Z]
     RewriteRule (.*) ${lc:$1} [R=301,L]
    

    Beachtet auch diesen Tipp: Apache: RewriteMap not allowed here Problem

    Möchtet ihr bestimmte Ordner ausschließen, so könnt ihr dies z.b. für die Ordner tmp und cache wie folgt:

    RewriteCond %{REQUEST_URI} !^/(tmp|cache)
    

    SEO: Im Firefox Webseite als Googlebot laden / Googlebot im Firefox als user agent konfigurieren

    8. Dezember 2010 at 15:46

    Als SEO ist es manchmal für Tests notwendig sich als Googlebot auszugeben.

    Dies geht mit diversen Tools, allerdings auch durch ändern der Konfiguration des Firefox.

    Dieser bietet die Möglichkeit, den User Agent frei zu wählen und den Browser als Googlebot auszugeben.

    Und so geht’s:

    In der Adressleiste des Browsers eingeben: about:config  -> Rechte Maustaste -> Neu -> String -> Eigenschaftsname: general.useragent.override -> Wert: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

    Danach gibt sich der Webbrowser Firefox als Googlebot aus.

    Um die Änderung rückgänig zu machen, sucht ihr anhand der Filter den Wert „general.useragent.override“, klickt mit der rechten Maustaste auf diesen und bestätigt das Feld zurücksetzen.

    Es kann übrigens zu Schwierigkeiten kommen, wenn man sich dauerhaft als googlebot ausgibt und mit dieser Einstellung im Internet surft. Z.B. beim speichern des Artikels in WordPress gibt es Probleme, solange der Firefox sich als Google-Bot identifiziert. Wahrscheinlich funktioniert eine Javascript-Weiche nicht richtig.

    SEO: Mit PHP heraus finden ob Besucher Googlebot/Spider?

    8. Dezember 2010 at 15:28

    Mit der folgenden Funktion könnt ihr heraus finden ob es sich beim dem Besucher um ein Googlebot oder -Spider handelt:

    public function isSpider()
     {
        if (strpos($_SERVER['HTTP_USER_AGENT'],"Googlebot"))
          return true;
        else
          return false;
     }
    

    SEO: Google entwertet Links aus Blogkommentaren um Blogspam zu minimieren

    6. Dezember 2010 at 12:21

    Google-logo-wikipedia

    Google geht weiter gegen SPAM und manipulativen Linkaufbau vor. Der neue Algorithums der Suchmaschine Google wertet ab sofort nur noch Links aus Blogkommentaren ab einer Länge von 250 Zeichen. Bei kürzeren Kommentaren sowie wenn die Kommentaren keine inhaltliche Übereinstimmung mit dem Blogbeitrag aufweisen, werden die enthaltenen oder mit dem Nutzernamen verlinkte URLs nicht länger für das Ranking als Backlinks gewertet.

    Google selbst schreibt dazu:

    If you’re a blogger, you’re painfully familiar with people who try to raise their own websites search engine rankings by submitting linked blog comments like “Wow, thanks for that great article”. From now on, those links won’t get any credit when the comment is shorter than 250 characters or not includes relevant keywords on topic of the blogpost. It’s just a way to make sure that spammers get no benefit from abusing public areas like blog comments, trackbacks, and referrer lists.

    Ob die Änderung auch für die Wertung von Links aus alten Blogkommentaren gelten ist nicht bekannt. Die Änderung wird viele Blog-Betreiber eine erfreuliche Nachricht sein, hat der Blog-Kommentar-SPAM in den vergangen Monaten doch arg zugenommen.

    SEO: Finde dein IP-Nachbarn – Server IP-Nachbarn auswerten

    3. Dezember 2010 at 10:18

    Mit diesem kostenlosen dem Reverse IP Lookup Tool ist es einfach möglich seine IP-Nachbarn zu finden um diese auszuwerten: www.yougetsignal.com/tools/web-sites-on-web-server

    Wozu die IP Suche nach den Webnachbarn?

    Google arbeitet auch auf IP-Basis, ein Bad-Neighbour  auf dem gleichen Server (gleiche IP, aber über ein anderen Domain-Name  zu erreichen, bei shared-hoster üblich) kann das Ranking sehr negativ beeinflussen. Bad-Neighbour sind z.B. Webseiten mit Pornografischen- oder SPAM-Inhalten (Linkfarm, etc.).

    Ein weiterer Mehrwert ist heraus zu finden ob der IP Nachbar vielleicht sehr viel Traffic verursacht und damit den Server und somit auch meine eigene Seite gebremst wird (Performancerecherche).

    Gerne könnt ihr weitere Webseiten in den Kommentaren veröffentlichen welche ähnlichen Service kostenlos anbieten. Ich werde diese dann mit in die Liste aufnehmen.

    SEO – AJAX Links für Google optimieren – AJAX crawlen

    24. November 2010 at 00:01

    Zu den aktuellen Internet-Technologien gehört selbstverständlich der Einsatz von AJAX. Die Inhalte werden schnell, effizient und live nach geladen ohne das ein kompletter Reload der Web-Seite notwendig ist. Damit steigt die Benutzerbarkeit (usability) der Webseite wesentlich.

    Doch werden diese Webseiten sauber von Google oder anderen Suchmaschinen gecrawlt?

    Um das zu erreichen sind folgende zwei Herangehensweisen sind möglich:

    1. Inhalte für Suchmaschinen werden auch mit einer statischen URL angeboten
    2. Inhalte für alle Besucher werden mit einer „AJAX-URL“ angeboten.

    Die AJAX-URL basiert dabei auf das sogenannte „Hashbang“ (Kombination aus Raute-Symbol und Ausrufezeichen: !#). Durch das Hashbang wird Google signalisiert dass es sich um eine AJAX-URL handelt. Diese wird dann von der Suchmaschine wie folgt ausgelesen: Alles was nach dem Hashbang kommt wird in einem URL-Parameter umgewandelt: aus www.fly2mars-media.de/#!parameter/value wird www.fly2mars-media.de/?_escaped_fragment=parameter/value . Zeigen beide URLs den selben Inhalt, so ist für die Suchmaschine alles in Ordnung (kein duplicate content). Die Seiten mit dem Parameter „_escaped_fragment“ können ggf. mit dem Statuscode 301 auf sprechende URLs umgeleitet werden, z.B. www.fly2mars-media.de/parameter/value.

    Magento & SEO – h1 Tag auf der Startseite richtig setzen

    5. November 2010 at 09:59

    magento ecommerce logo

    Im Standard Theme von Magento findet man folgendes:

    <h1 class="logo"><strong>Magento Commerce</strong><a href="http://demo.magentocommerce.com/" title="Magento Commerce" class="logo" rel="nofollow"><img src="http://demo3.magentocommerce.com/skin/frontend/default/default/images/logo.gif" alt="Magento Commerce" /></a></h1>
    

    Dadurch wird das ggf. fehlende h1-Tag mit dem Alt-Attribute des Shop-Logo-Bildes gesetzt (kann im Admin-Backend konfiguriert werden). Die Idee dahinter ist gut, so ist auf jeder Seite ein h1 vorhanden. Die Umsetzung allerdings fraglich. Durch die folgende CSS Formatierung auf dem Strong-Element wird das h1 für die Human-Visitors versteckt:

    strong {
    font-size:0;
    height:0;
    left:-999em;
    line-height:0;
    overflow:hidden;
    position:absolute;
    text-indent:-999em;
    top:-999em;
    width:0;
    }
    

    Google mag solch Tricks gar nicht, straft ggf. die Seite so gar ab.

    Hier die bessere Lösung:

    <h1><a href="http://demo.magentocommerce.com/" title="Magento Commerce"><img src="http://demo3.magentocommerce.com/skin/frontend/default/default/images/logo.gif" alt="Magento Commerce" /></a></h1>
    

    In diesem Fall wird der Alt-Title des Bildes als h1 verwendet, ohne irgend welch Visibility-Tricks welche zur Abmahnung führen könnten.