Google erlaubt jetzt personalisierte Blocks in den Suchergebnissen

11. März 2011 at 12:55

Google-logo-wikipediaGoogle geht ein weiteren Schritt bei den personalisierten Suchergebnissen und bietet jetzt eingeloggten Nutzern eine Funktion zum Ausblenden unerwünschter Webseiten an. Damit können unerwünschte Seiten, z.B. Spamseiten Pages,  dauerhaft aus den eigenen Suchergebnissen verbannt werden. Diese Option ist nach Ansicht von Google die beste Möglichkeit die Suchergebnisse auf die persönlichen Bedürfnisse der Nutzer von diesen anpassen zu lassen. Das Ranking der nicht eingeloggten Benutzern soll durch diese Ausblendungen nicht beeinflusst werden. Ob sich dies ggf. in der Zukunft ändert und diese Option auch für nicht eingeloggte Benutzer eingeführt ist, dazu gab es noch kein Statement.

Google: Matt Cutts über Keyword-Domains

10. März 2011 at 22:15

Im folgenden Video erklärt Matt Cutts, warum Keyword-Domains nicht immer die richtige Wahl sind:

Kurze Zusammenfassung: Matt Cutts führt in diesem Video mehrere erfolgreiche Beispiele für Nicht-Keyword-Domains auf. Als Beispiel nennt er Twitter, Facebook, Reddit und natürlich Google. Die genannten Seiten haben keine relevanten Keywords in der URL, trotzdem stehen die Marken gut positioniert im Internet und die Marke steht im Vordergrund. Web-Seiten mit “brandable” Namen stechen generell aus der Masse im Internet hervor, Nutzer erinnern sich in der Regel eher an Brand-Names als an die beliebige Keyword-Domains welche die x-te Seite zu einem bestimmten Thema veröffentlichen. Als offensichtlichen Vorteil von Keyword-Domain sieht Matt Cutts in der keywordnahen Verlinkung. Hier reichen schon Links mit dem Domainnamen aus, um bei relevanten Keywords zu ranken.

Allerdings gibt es laut Matt Cutts Beschwerden von Nutzern gegen gut rankende Keyword-Domains. Google “denkt darüber nach” in Zukunft durch Anpassungen des Google-Algorithmus den Rankingvorteil von Keyword-Domains zu begrenzen. Google hat in letzter Zeit öfter angekündigt gegen „Content-Farmen“ aggressiver vorzugehen, diese Aussage passt genau in das Shema. Auf kurz oder Lang werden Keyword-Domains bzw. Content-Farmen nicht mehr den selben Stellenwert haben, wie noch aktuell.

Ich selbst rate deshalb von der Registrierung neuer Keyword-Domains ab, Verschwendung von Zeit & Geld!

SEO & SMM: der neue Google Social Graph – Social Commerce

10. März 2011 at 00:45

Die sozialen Netzwerke (Social Media) und Social Commerce/Social Media Marketing (kurz: SMM) gewinnen an immer mehr Bedeutung. Das hat auch Google erkannt und den Social Graph eingeführt. Anhand dessen kann für die Gewichtung der Suchergebnisse (Ranking), die Verbreitung der Seite in den sozialen Netzwerken wie Twitter, Facebook, etc., berücksichtigt werden.

Alghorytmus vs. Mensch

Entschieden bisher allein automatische Alghorytmen über das Ranking, so kommt jetzt der Faktor Mensch hinzu. Gewertet werden viele Faktoren, z.B. wie oft wird eine Seite ge-twittert, wie oft wird die Seite bei Facebook erwähnt, wie viele „like“ hat der Link bekommen, etc.!

Durch diese Möglichkeit erhält Google, ganz nach dem Web 2.0 Prinzip, die Möglichkeit die Anwender direkt über die Qualität einer Seite bzw. deren Beliebtheit zu wachen.

Die Verknüpfung einer Webseite in sozialen Netzwerken wird immer wichtiger

Vor wenigen Jahren noch unvorstellbar, ist es mittlerweile nahezu unverzichtbar die eigene Webseite mit soziale Netzwerken wie Twitter oder Facebook zu verknüpfen. Sei es das automatische twittern neuer Beiträge / Artikel oder den „Like“-Button in Facebook wo Besucher, und damit Google, über die Qualität eines Artikels werten können. Ein Firmenblog gehört mittlerweile zum Pflichtprogramm.

Weiter Informationen zum Thema und den bekanntesten Social Graph Technologien gibt es unter:

Facebook Open Graph Best Practice

www.opensocial.org

code.google.com/apis/socialgraph

Google Offers wird Groupon-Rivale

9. März 2011 at 19:37

Google-logo-wikipediaNachdem Google im vergangenen November vergeblich versucht hatte das internationale Gutschein-Portal Groupon zu übernehmen (wie wir seinerzeit berichteten), ist nun das eigene Konkurrenz-Angebot bereits in der Testphase. Unter dem Namen Google Offers werden zukünftig Gruppenrabatte für vielfältige Produkte und Dienstleistungen – ganz im Stil von Groupon und LivingSocial – angeboten.
Das Online-Magazin Mashable ist an ein Factsheet sowie an weitere Insider-Informationen gelangt, die bereits ein recht detailliertes Bild des neuen Dienstes abgeben. Google hat die Informationen offiziell bestätigt und mitgeteilt, dass das Factsheet bereits an diverse kleine Unternehmen verschickt wurde, mit dem Ziel diese für die Teilnahme an Offers zu gewinnen.

Wie auch bei den Konkurrenz-Anbietern sollen die Nutzer täglich eine E-Mail mit aktuellen “Deals” aus ihrer Umgebung erhalten, die sie innerhalb eines bestimmten Zeitfensters (vermutlich 24 Stunden) kaufen können. Wenn dies genügend Nutzer getan haben, wird der entsprechende Gutschein freigeschaltet. Die Bezahlung erfolgt höchstwahrscheinlich über Google Checkout. Es wird die Möglichkeit geben, einen Deal via Facebook, Twitter, Google Reader, Google Buzz und per E-Mail an Freunde zu kommunizieren.
Dass Google mit Offers einen ernstzunehmenden Konkurrenten für Groupon & Co. am Start hat, lässt sich nicht leugnen. Die schon vorhandenen Ressourcen des Konzerns sowie seine Reichweite und das generell simple Geschäftsmodell erleichtern die Einführung eines neuen Gutschein-Portals ganz enorm.

Webentwickler sind den IE6 (fast) los

19. Februar 2011 at 00:11

Den Internet Explorer 6 (Kurz: IE6) sind Web-Entwickler (fast) los.

Alles andere als ein moderner Browser mehr ist der IE6, trotz allem hält sich dieser seit vielen Jahren und sorgt bei Web-Entwicklern und Web-Designern regelmäßig für Frust. Das könnte bald der Vergangenheit angehören, denn nach aktuellen Zahlen (Januar 2011) ist der Marktanteil nur noch bei durchschnittlich 6,75 Prozent. Zum Vergleich, im Februar 2009 waren es immerhin noch immerhin 27,1 Prozent.

6,65 Prozent der Besucher von Fly2Mars-Media.de nutzten den IE6 noch als Browser. Die Gesamtanzahl der IE-Nutzer ist bei 11,79 Prozent, zum Vergleich, 68,71 Prozent nutzten den Browser Firefox, 10,78 Prozent Google Chrome, 5,09 Prozent Apples Safari und nur 2,83 Prozent den Opera.

Der viel gehypte Trend zu Mobile-Devices kann nicht überzeugen, nur 0,60 Prozent der Besucher sind mit iPhone unterwegs, 0,30 Prozent mit iPad und nur 0,14 Prozent mit auf Android basierenden Geräten.

SEO: Im Firefox Webseite als Googlebot laden / Googlebot im Firefox als user agent konfigurieren

8. Dezember 2010 at 15:46

Als SEO ist es manchmal für Tests notwendig sich als Googlebot auszugeben.

Dies geht mit diversen Tools, allerdings auch durch ändern der Konfiguration des Firefox.

Dieser bietet die Möglichkeit, den User Agent frei zu wählen und den Browser als Googlebot auszugeben.

Und so geht’s:

In der Adressleiste des Browsers eingeben: about:config  -> Rechte Maustaste -> Neu -> String -> Eigenschaftsname: general.useragent.override -> Wert: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Danach gibt sich der Webbrowser Firefox als Googlebot aus.

Um die Änderung rückgänig zu machen, sucht ihr anhand der Filter den Wert „general.useragent.override“, klickt mit der rechten Maustaste auf diesen und bestätigt das Feld zurücksetzen.

Es kann übrigens zu Schwierigkeiten kommen, wenn man sich dauerhaft als googlebot ausgibt und mit dieser Einstellung im Internet surft. Z.B. beim speichern des Artikels in WordPress gibt es Probleme, solange der Firefox sich als Google-Bot identifiziert. Wahrscheinlich funktioniert eine Javascript-Weiche nicht richtig.

SEO: Mit PHP heraus finden ob Besucher Googlebot/Spider?

8. Dezember 2010 at 15:28

Mit der folgenden Funktion könnt ihr heraus finden ob es sich beim dem Besucher um ein Googlebot oder -Spider handelt:

public function isSpider()
 {
    if (strpos($_SERVER['HTTP_USER_AGENT'],"Googlebot"))
      return true;
    else
      return false;
 }

SEO: Google entwertet Links aus Blogkommentaren um Blogspam zu minimieren

6. Dezember 2010 at 12:21

Google-logo-wikipedia

Google geht weiter gegen SPAM und manipulativen Linkaufbau vor. Der neue Algorithums der Suchmaschine Google wertet ab sofort nur noch Links aus Blogkommentaren ab einer Länge von 250 Zeichen. Bei kürzeren Kommentaren sowie wenn die Kommentaren keine inhaltliche Übereinstimmung mit dem Blogbeitrag aufweisen, werden die enthaltenen oder mit dem Nutzernamen verlinkte URLs nicht länger für das Ranking als Backlinks gewertet.

Google selbst schreibt dazu:

If you’re a blogger, you’re painfully familiar with people who try to raise their own websites search engine rankings by submitting linked blog comments like “Wow, thanks for that great article”. From now on, those links won’t get any credit when the comment is shorter than 250 characters or not includes relevant keywords on topic of the blogpost. It’s just a way to make sure that spammers get no benefit from abusing public areas like blog comments, trackbacks, and referrer lists.

Ob die Änderung auch für die Wertung von Links aus alten Blogkommentaren gelten ist nicht bekannt. Die Änderung wird viele Blog-Betreiber eine erfreuliche Nachricht sein, hat der Blog-Kommentar-SPAM in den vergangen Monaten doch arg zugenommen.

SEO – AJAX Links für Google optimieren – AJAX crawlen

24. November 2010 at 00:01

Zu den aktuellen Internet-Technologien gehört selbstverständlich der Einsatz von AJAX. Die Inhalte werden schnell, effizient und live nach geladen ohne das ein kompletter Reload der Web-Seite notwendig ist. Damit steigt die Benutzerbarkeit (usability) der Webseite wesentlich.

Doch werden diese Webseiten sauber von Google oder anderen Suchmaschinen gecrawlt?

Um das zu erreichen sind folgende zwei Herangehensweisen sind möglich:

  1. Inhalte für Suchmaschinen werden auch mit einer statischen URL angeboten
  2. Inhalte für alle Besucher werden mit einer „AJAX-URL“ angeboten.

Die AJAX-URL basiert dabei auf das sogenannte „Hashbang“ (Kombination aus Raute-Symbol und Ausrufezeichen: !#). Durch das Hashbang wird Google signalisiert dass es sich um eine AJAX-URL handelt. Diese wird dann von der Suchmaschine wie folgt ausgelesen: Alles was nach dem Hashbang kommt wird in einem URL-Parameter umgewandelt: aus www.fly2mars-media.de/#!parameter/value wird www.fly2mars-media.de/?_escaped_fragment=parameter/value . Zeigen beide URLs den selben Inhalt, so ist für die Suchmaschine alles in Ordnung (kein duplicate content). Die Seiten mit dem Parameter „_escaped_fragment“ können ggf. mit dem Statuscode 301 auf sprechende URLs umgeleitet werden, z.B. www.fly2mars-media.de/parameter/value.

SEO: Haben Meta-Keywords wirklich keine Bedeutung für Suchmaschinen?

29. Oktober 2010 at 14:57

Nach einem Experiment von Martin Mißfeldt sind die Diskussionen um Meta-Keywords neu entflammt. Ein Test in den vergangenen Wochen hatte ergeben, dass  eine Seite mit Keywords in den Meta-Keywords eine bessere Platzierung erreichte als die Seite ohne.

Ein weiteres Experiment widerlegte dieses Ergebnis. Auf der Testseite wurde eine weitere kryptische Keywordkombination in den Meta-Keywords eingebunden. Die Seite wurde indexiert, aber die Suche nach dieser Keywordkombination ergab keine Treffer. Daraus schließte Mißfeldt, dass die Keywords nicht ausgelesen werden und damit auch kein Rankingkriterium sein können.

Vermutet wird dass Spam (= Keywords, welche auf der Seite selbst nicht vorkommen) von Google aus den Meta-Keywords herausgefiltert wird. Die Frage ob die Meta-Keywords tatsächlich keine Rolle spielen, ist weiterhin offen.

Solltet ihr Erfahrungswerte vorweisen können, so freue ich mich über entsprechende Kommentare zu dem Beitrag.