Wir möchten bei Google auf Platz eins stehen!

13. April 2010 at 14:18

Aus dem Alltag eines Suchmaschinen-Optimierers im Gespräch mit Kunden (leider wirklich Realität):

Kunde: “Wir möchten bei Google auf Platz eins stehen!”
Agentur: “Vielleicht sollten wir erst einmal ihren Internetauftritt überarbeiten. Es gibt kaum Content, technisch ist er auf einem Stand von vor 10 Jahren und auch das Layout scheint schon ein paar Tage alt zu sein.”
Kunde: “Nein, nein, das machen wir alles später. Erstmal müssen wir bei Google ganz oben sein!”

Webseiten-Check: Überprüfung der Lesbarkeit & SEO Analyse

23. März 2010 at 09:42

Für den Erfolg einer Webseite ist es wichtig dass die Texte verständlich sind und eine hohe Lesbarkeit aufweisen. Nur so kann er von den Besuchern & Suchmaschinen schnell & verständlich gelesen werden, wodurch Empfehlungen entstehen (Link-Building). Als Messgröße für die Lesbarkeit wird im deutschsprachigen Raum gerne der Flesch-Reading-Ease Index verwendet. Dieser Lesbarkeitsindex gibt die Schwierigkeit der Lesbarkeit eines Textes in unterschiedlichen Abstufungen wieder.

Die folgenden kostenlosen Dienste helfen Euch bei der Analyse eurer Webseite/Texte:

http://www.leichtlesbar.ch – Einfache und schnelle Auswertung des Lesbarkeitsindex.

http://www.stilversprechend.de – Ideal um Lesbarkeit von Texten zu prüfen.

http://seittest.de/ – Neben der Text-Prüfung erfolgt eine SEO-Analyse der Webseite, das umfangreichste Tool.

Kennt ihr weitere kostenlose Tools? Schreibt ein Kommentar und ich nehme es mit in die Liste auf!

Jede 5. Suchabfrage ist bei Google personalisiert – ganze 20%

4. März 2010 at 16:44

Bryan Horling, Mitarbeiter in Googles Team für personalisierte Suche, hat bei einem Vortrag in Santa Clara eine interessante Angabe gemacht: Etwa jede fünfte Suche eines Internet-Nutzers wird bei Google inzwischen personalisiert. Das bedeutet, dass diese 20% aller Suchen auf die Lokation des Benutzers, seine Web History sowie seine Online-Kontakte maßgeschneidert werden.

Damit ist ausdrücklich nicht die Anpassung der Ergebnisse an beispielsweise das Herkunftsland oder den jeweiligen Kontinent gemeint. Dass ein Anwender in den USA bei der Suche nach „Steuern“ auf der Seite der IRS landet und ein Brite stattdessen die Steuer- und Zollbehörde Ihrer Majestät erhält, ist ohnehin schon seit Jahren gängige Praxis. Anhand der Zuordnung der Geo-Lokation der IP des Anwenders ist das kein Problem.

Die Anpassung der Ergebnisse erfolgt schon länger bei eingeloggten Usern. Erst seit einem Jahr setzt Google seine Cookies ein, um Benutzer individuell wieder zuerkennen, und um die Ergebnisse entsprechend anzupassen. Wobei sich diese Anpassung im einfachsten Fall daran zeigt, dass angeklickte Suchergebnisse auf der zweiten oder dritten Ergebnisseite bei einer erneuten Suche viel weiter vorne auf der Ergebnisliste landen.

Solche Anpassungen, die auf den unter google.com beziehungsweise google.de gesammelten Informationen beruhen, sind offenbar noch lange nicht alles. Möglicherweise fließen inzwischen auch die bei Google Mail gesammelten Informationen in diese Anpassung ein. Welche Online-Kontakte sollten sonst gemeint sein? Und was die „Web History“ angeht, drängt sich der Verdacht auf, dass das weit verbreitete Google Analytics hierbei eine Rolle spielen könnte. Sollten die auf vielen tausend Web Sites gesammelten Daten helfen, die Suchergebnisse zu verbessern? Wir wissen es nicht! 😉

5 Fehler, die Sie beim Online Marketing vermeiden sollten

1. Februar 2010 at 15:25

Im shopbetreibermarketing-blog findet ihr ein interessanten Artikel über 5 Fehler, die Sie beim Online Marketing vermeiden sollten. Für alle Online-Shop-Betreiber oder deren technische Ansprechpartner lesenswert.

Wie man den Google Website Optimizer richtig verwendet!

1. Februar 2010 at 14:20

Kennt ihr den Google Website Optimizer?

Google Website Optimizer ist ein Programm welches es ermöglicht multivariate und A/B Split Testverfahren für Webseiten durchzuführen.

A/B/n Split Testverfahren ermöglichen es dynamisch zwischen verschiedenen Varianten einer Webseite hin und her zu switchen. Dabei kann die Variation durch verschiedene Layouts, Designs oder andere Veränderungen herbeigeführt werden, alles ausgehend von ein und derselben URL.

Ein Beispiel: Sie haben eine neue Landing Page erstellt, bei der Sie meinen dass sie besser konvergiert als die Aktuelle. Nun können Sie testen ob dies tatsächlich der Fall ist und simultan beobachten welche Landing Page besser konvergiert, um somit ohne Zweifel die Beste ins Rennen zu schicken.

Multivariates Testen mit dem Google Website Optimizer

Multivariate Testverfahren ermöglichen ein Wechseln zwischen verschiedenen Bereichen einer Webseite. Dabei wird die Effektivität jeder einzelnen Variable gemessen und somit bestimmt, welche Kombination der Variablen die größten Konversionsraten liefern.

Ein typisches Testverfahren würde darin bestehen eine Landing Page in 3 verschiedene Bereiche zu unterteilen – einem Headerbild, dem Inhaltsbereich und einem Formular. Man hätte dann 3 (Sie können mehr oder weniger wählen) verschiedene Variationen jedes Bereiches die auf der Webseite wechseln würden. Mit 3 Bereichen und 3 Variablen je Bereich hätten wir 3 x 3 x 3 = 27 mögliche Variationsmöglichkeiten der Webseite.

Die gesamte Dauer der Kampagne über werden die Konversionsraten gemessen um zu ermitteln welche Variation die höchsten Raten liefern.

Google empfiehlt ausdrücklich ein A/B Split Testverfahren vor und nach jedem multivariatem Test durchzuführen, um somit sicher zu stellen dass die effektivste Variation Ihrer Bereiche Ihre neue Landing Page wird.

Google Analytics und das Website Optimizing Tool

In diesem Video wird visualisiert wie ihr in Zusammenarbeit mit Google Analytics und Google Adwords die Tests durchführt.

Google Website Optimizer Tour

Dieses Video verschafft einen Überblick über das Google Website Optimizer Tool.

A/B Experimente mit dem Google Website Optimizer

Erklärung der Funktionsweise der A/B Experimente. Diese Tests werden für einfache Webseiten empfohlen mit relativ wenig Traffic.

Multivariate Experimente mit dem Google Website Optimizer

Mit diesem Tests könnt ihr sämtliche Details eurer Website testen. Einzelne Bilder, Texte und positionen können hier variieren.

Wichtige Links

  1. Demo-Video
    kleines Demo-Video vom Service Google Website Optimizer.
  2. Dokumentation
    Dokumentation von Google
  3. Beispiel-Report
    Beispiel-Bericht von Google Website Optimzer,

Die Top SEO Prioritäten in 2010

19. Januar 2010 at 16:03

Hier möchten wir euch die wichtigsten SEO Schwerpunkte in 2010 auflisten und kurz genauer erläutern:

1. Link-Building durch starken Content

Immer mehr SEOs haben begriffen, dass es wichtig ist starken und individuellen Content anzubieten, der die Leute dazu bewegt freiwillig die Seite zu verlinken. Das deckt sich mit den Empfehlungen der Google-Webmaster-Richtlinien und sind ein echter Mehrwert für die Besucher und damit eine der wichtigsten und saubersten Möglichkeiten Link-Aufbau zu betreiben! Wir hoffen dass in 2010 weniger unsinnige Spam-Texte auf Webseiten veröffentlicht werden und das Netz mehr mit kreativen und informativen Inhalten wächst.

2. Links kaufen oder tauschen

Links zu kaufen wird auch in 2010 ein wichtiger Bestandteil im Bereich SEO sein. Keiner gibt es öffentlich zu, fast alle machen es, sei es der Kauf oder Tausch gegen Sachgüter oder Gegenlinks, viele Formen das gleiche Prinzip. Jeder versucht aus Kostengründen den Anteil so gering wie möglich zu halten, allerdings wird es oft auch in 2010 ohne Kauf nicht gehen. Gerade bei sehr umkämpften Keywords und/oder Startup-Webseiten.

3. OnPage Optimierung

Weiterhin ein sehr wichtiges Thema ist die direkte Optimierung der Webseite. Die OnPage-Optimierung ist unerlässlich und das wird sich auch in den nächsten Jahren nicht ändern!

4. Lokales Ranking der Webseite

Die Suchmaschinen, allen voran Google, haben in 2009 verstärkt ihre Dienste für die Lokalisierung der SERPS verbunden und so geändert dass, auch durch die personalisierte Suche, der lokale Standort des Suchenden eine stärkere Rolle spielt. So wird anhand der IP der Standort bestimmt und anhand dessen die Gewichtung der Ergebnisse der Suchanfrage bestimmt, auch die lokal auf dem Client gespeicherten Cookies spielen eine größere Rolle.

Die lokale Optimierung ist für das Business mit einem starkem lokalem Bezug (z.B. lokales Handwerk) schon immer ein wichtiger SEO Bestandteil gewesen. Die Iphone-Generation wird sicherlich weiter zur Wichtigkeit der Gewichtung von lokalen Faktoren beitragen.

5. Umbau oder Bau von Seiten mit optimierten Struktur

Die Struktur einer Webseite, vor allem auch die Informationsarchitektur, ist eines der zentralen Themen im Bereich SEO und sind im Zusammenhang mit dem Punkt 3 (OnPage-Optimierung) zu sehen. Es scheint bei einigen also kein Verständnis dafür zu geben, dass diese beiden Bereiche nicht zu trennen sind.

6. Ausrichtung der Webseite auf bestimmte Zielgruppen

Gerade bei Webseiten mit Nischen-Themen ist die Ausrichtung der Webseite auf eine bestimmte Zielgruppe unausweichlich. Sei es im Design der Webseite, oder bei den optimierten Inhalten. Wer Artikel für eine so eine Webseite erstellt sollte wissen wie die Zielgruppe denkt, schreibt, redet und allg. gut im Thema informiert sein. Auch Webseiten für bestimmte Bevölkerungsgruppen werden sich mit höchster Wahrscheinlichkeit noch mehr in 2010 durchsetzen.

Den Trend kann man z.B. an der Gruppen-Bildung bei Social-Media-Communities wie Studivz oder Facebook ableiten.

Fazit

Die Themen 2010 bleiben gleich, die Gewichtung wird sich höchst wahrscheinlich leicht bis stark verschieben. Bleibt abzuwarten wie die Gewichtung bei den Suchmaschinen-Betreibern angepasst wird.

Sollten euch Prioritäten in dieser Übersicht fehlen oder ihr Ergänzungen zu den Punkten habt, so könnt ihr mir dieses gerne mailen oder einfach in den Kommentaren veröffentlichen und ich nehme die  Infos ggf. in die Liste mit auf, danke!

Die (angeblich) rund 200 Parameter des Google-Algorithmus

14. Januar 2010 at 17:07

Der geheime Algorithmus zur Berechnung der Suchergebnisse ist einer der wesentlichen Faktoren für den Erfolg von Google. SEOs rätseln regelmäßig über den Einfluss der Parameter auf das Ranking. Welche Parameter genau welchen Einfluss auf das Ranking haben bzw. wie die komplizierte Berechnung der Google-Rankings funktioniert darüber schweigt Google. Das Search Engine Journal hat sich mit dieser Frage beschäftigt und eine Liste mit fast 200 Parametern erstellt. Techdivision hat diese Liste ins Deutsche übersetzt.

Da Google sein Geheimnis nicht offen legt sind die aufgezählten Parameter nur Vermutungen, die aus der täglichen SEO-Arbeit abgeleitet wurden. Zudem fehlt die Gewichtung der Parameter, denn logischerweise fließt nicht jeder Faktor gleichbedeutend in die Berechnung der Suchergebnisse ein. Trotz allem ist diese Liste eine sehr schöne Übersicht über mögliche Faktoren zur Suchmaschinenoptimierung. Anhand dieser Liste können auch Neueinsteiger in das Thema SEO ihre Seite entsprechend optimieren. Wir empfehlen neben dieser Liste ein Blick in die Google Webmaster Richtlinien!

Die häufigsten Gründe für eine Abstrafung durch Google

14. Januar 2010 at 16:20

Wer sich nicht an die Google Webmaster Richtlinien hält, muss mit einer Abstrafung („Penalty“) durch Google rechnen. Für Webmaster & SEOs sollte das jetzt keine Neuigkeiten sein und die Googles Webmaster Richtlinien sowieso bekannt. Kira Pawlowski hat  im Online Marketing Blog beschrieben welche Gründe am häufigsten zu einer Bestrafung führen.

Penalties und Abstrafungen von Google sind keine Seltenheit und meist ist Unwissenheit, neben böswilligen Absichten (Black-SEO), die Ursache. Und sie kommen ganz ohne Vorwarnung. Passiert so eine Abstrafung sollten Webmaster möglichst schnell nach den Gründen dafür suchen.

Die Häufigsten Gründe für eine Abstrafung durch Google:

  • Keyword-Stuffing: überproportional viele Keywords
  • Link Building: gekaufte Links
  • Spamming: Links über Spam-Kommentare
  • Cloaking: der Suchmaschine werden andere Inhalte gezeigt als den Besuchern
  • Hidden Text: versteckte, für Besucher nicht sichtbare Texte
  • Duplicate Content: kein Abstrafgrund, aber identische Texte bringen auch keine Vorteile
  • History of penalties: kleinere Verstöße werden härter bestraft, wenn es in der Vergangenheit schon andere Verstöße gab
  • Hacker: auch gehackte Seiten werden bestraft

Häufige Gründe für eine Abstrafung durch Google:

  • Keyword-Stuffing: überproportional viele Keywords
  • Link Building: gekaufte Links
  • Spamming: Links über Spam-Kommentare
  • Cloaking: der Suchmaschine werden andere Inhalte gezeigt als den Besuchern
  • Hidden Text: versteckte, für Besucher nicht sichtbare Texte
  • Duplicate Content: kein Abstrafgrund, aber identische Texte bringen auch keine Vorteile
  • History of penalties: kleinere Verstöße werden härter bestraft, wenn es in der Vergangenheit schon andere Verstöße gab
  • Hacker: auch gehackte Seiten werden bestraft

Was ist Linkbait?

11. Januar 2010 at 10:17

In letzter Zeit hört man immer häufiger den Begriff Linkbait. Doch was ist das eigentlich genau? Wie viele sicher wissen heißt das engl. Wort Bait im Deutschen Ködern und mit Linkbait ist damit eine Praktik gemeint um Links zu ködern.

Doch wie macht man das jetzt in der Praxis? Eine gängige Praxis ist es etwas Originelles und Einzigartiges auf seine Web-Seite zu stellen, wodurch die Aufmerksamkeit vieler Internet-User auf sich gezogen wird und somit viele Backlinks und schlussendlich Besucher generiert werden. Für die Besucher muss das, was sie finden interessant sein und zwar so interessant, dass sie einen Link auf der eigenen Seite setzen. Es wird sozusagen nach Links gefischt. Ein beliebtes Mittel hierfür ist z.B. ein Gewinnspiel auf der Seite oder gratis Produktproben oder kostenlose Software zum Download anzubieten. Idealerweise ist der Inhalt der Webseite der für die Internet-Nutzer so interessant ist, dass Links gesetzt werden. Leider ist dies auch mit die schwierigste Möglichkeit Links zu generieren, jedenfalls außerhalb der News-Seiten-Welt. Werden kostenlose News-Seiten und deren Artikel häufig verlinkt, so ist es für z.B. Webshops nicht mehr ganz so einfach allein wegen den Inhalten verlinkt zu werden.

Oft wird Linkbait mit dem Viralen Marketing verglichen bzw. als eine Form dessen dargestellt. Ganz abwegig ist es nicht, einige Strukturen sind gleich, allerdings ist SEM kein SEO und deshalb würden wir das nicht direkt als Untergruppe darstellen. Linkbait kann z.B. Viral-Marketing nutzen, allerdings hat Viral-Marketing nicht immer Link-Building zum Ziel sondern kann auch einfach nur das Ziel haben eine Marke bekannter zu machen. Allein wegen der teilweise arg differenzierenden Ziele halten wir ein Vergleich für nicht unbedingt sinnvoll.

Wie dem auch sei, Linkbait ist, wenn es richtig umgesetzt wird, eine wichtige Sache zur Stärkung der Webseite und bringt auch einen Mehrwert für den Besucher.

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.