Superbowl TV Werbespots 2010 – Die lustigsten Spots

10. Februar 2010 at 14:43

Der dies jährige Super Bowl 2010 in den USA ist vorbei. Gratulation an die New Orleans Saints zum Sieg. In den Werbepausen Partie werden in der Regel superteure Werbespots ausgestrahlt.

Mit die besten und lustigsten Spots haben wir hier zusammen getragen.

Google

Coke – HardTimes

Doritos – House Rules

Motorola MOTOBLUR (Megan Fox)

Bridgestone – Killer Whale Bachelor Party

Bridgestone – Your Tires or Your Life

Audi – Green Car

Budweiser – Body Bridge

Bud Light – Light House

Bud Light – Observatory

Google Street View Snow Mobil

10. Februar 2010 at 10:26

Google filmt jetzt auch Ski-Pisten mit einem Snow Mobil ab, hier ein kurzes Video:

11 Jahre Google in 2 Minuten erklärt (Video)

8. Februar 2010 at 10:41

Google gibt es nun schon 11 Jahre. In diesem Video seht ihr in 2:13 Minuten alle wichtigen Stationen der Erfolgsgeschichte von Google.

Wie man den Google Website Optimizer richtig verwendet!

1. Februar 2010 at 14:20

Kennt ihr den Google Website Optimizer?

Google Website Optimizer ist ein Programm welches es ermöglicht multivariate und A/B Split Testverfahren für Webseiten durchzuführen.

A/B/n Split Testverfahren ermöglichen es dynamisch zwischen verschiedenen Varianten einer Webseite hin und her zu switchen. Dabei kann die Variation durch verschiedene Layouts, Designs oder andere Veränderungen herbeigeführt werden, alles ausgehend von ein und derselben URL.

Ein Beispiel: Sie haben eine neue Landing Page erstellt, bei der Sie meinen dass sie besser konvergiert als die Aktuelle. Nun können Sie testen ob dies tatsächlich der Fall ist und simultan beobachten welche Landing Page besser konvergiert, um somit ohne Zweifel die Beste ins Rennen zu schicken.

Multivariates Testen mit dem Google Website Optimizer

Multivariate Testverfahren ermöglichen ein Wechseln zwischen verschiedenen Bereichen einer Webseite. Dabei wird die Effektivität jeder einzelnen Variable gemessen und somit bestimmt, welche Kombination der Variablen die größten Konversionsraten liefern.

Ein typisches Testverfahren würde darin bestehen eine Landing Page in 3 verschiedene Bereiche zu unterteilen – einem Headerbild, dem Inhaltsbereich und einem Formular. Man hätte dann 3 (Sie können mehr oder weniger wählen) verschiedene Variationen jedes Bereiches die auf der Webseite wechseln würden. Mit 3 Bereichen und 3 Variablen je Bereich hätten wir 3 x 3 x 3 = 27 mögliche Variationsmöglichkeiten der Webseite.

Die gesamte Dauer der Kampagne über werden die Konversionsraten gemessen um zu ermitteln welche Variation die höchsten Raten liefern.

Google empfiehlt ausdrücklich ein A/B Split Testverfahren vor und nach jedem multivariatem Test durchzuführen, um somit sicher zu stellen dass die effektivste Variation Ihrer Bereiche Ihre neue Landing Page wird.

Google Analytics und das Website Optimizing Tool

In diesem Video wird visualisiert wie ihr in Zusammenarbeit mit Google Analytics und Google Adwords die Tests durchführt.

Google Website Optimizer Tour

Dieses Video verschafft einen Überblick über das Google Website Optimizer Tool.

A/B Experimente mit dem Google Website Optimizer

Erklärung der Funktionsweise der A/B Experimente. Diese Tests werden für einfache Webseiten empfohlen mit relativ wenig Traffic.

Multivariate Experimente mit dem Google Website Optimizer

Mit diesem Tests könnt ihr sämtliche Details eurer Website testen. Einzelne Bilder, Texte und positionen können hier variieren.

Wichtige Links

  1. Demo-Video
    kleines Demo-Video vom Service Google Website Optimizer.
  2. Dokumentation
    Dokumentation von Google
  3. Beispiel-Report
    Beispiel-Bericht von Google Website Optimzer,

Die Top SEO Prioritäten in 2010

19. Januar 2010 at 16:03

Hier möchten wir euch die wichtigsten SEO Schwerpunkte in 2010 auflisten und kurz genauer erläutern:

1. Link-Building durch starken Content

Immer mehr SEOs haben begriffen, dass es wichtig ist starken und individuellen Content anzubieten, der die Leute dazu bewegt freiwillig die Seite zu verlinken. Das deckt sich mit den Empfehlungen der Google-Webmaster-Richtlinien und sind ein echter Mehrwert für die Besucher und damit eine der wichtigsten und saubersten Möglichkeiten Link-Aufbau zu betreiben! Wir hoffen dass in 2010 weniger unsinnige Spam-Texte auf Webseiten veröffentlicht werden und das Netz mehr mit kreativen und informativen Inhalten wächst.

2. Links kaufen oder tauschen

Links zu kaufen wird auch in 2010 ein wichtiger Bestandteil im Bereich SEO sein. Keiner gibt es öffentlich zu, fast alle machen es, sei es der Kauf oder Tausch gegen Sachgüter oder Gegenlinks, viele Formen das gleiche Prinzip. Jeder versucht aus Kostengründen den Anteil so gering wie möglich zu halten, allerdings wird es oft auch in 2010 ohne Kauf nicht gehen. Gerade bei sehr umkämpften Keywords und/oder Startup-Webseiten.

3. OnPage Optimierung

Weiterhin ein sehr wichtiges Thema ist die direkte Optimierung der Webseite. Die OnPage-Optimierung ist unerlässlich und das wird sich auch in den nächsten Jahren nicht ändern!

4. Lokales Ranking der Webseite

Die Suchmaschinen, allen voran Google, haben in 2009 verstärkt ihre Dienste für die Lokalisierung der SERPS verbunden und so geändert dass, auch durch die personalisierte Suche, der lokale Standort des Suchenden eine stärkere Rolle spielt. So wird anhand der IP der Standort bestimmt und anhand dessen die Gewichtung der Ergebnisse der Suchanfrage bestimmt, auch die lokal auf dem Client gespeicherten Cookies spielen eine größere Rolle.

Die lokale Optimierung ist für das Business mit einem starkem lokalem Bezug (z.B. lokales Handwerk) schon immer ein wichtiger SEO Bestandteil gewesen. Die Iphone-Generation wird sicherlich weiter zur Wichtigkeit der Gewichtung von lokalen Faktoren beitragen.

5. Umbau oder Bau von Seiten mit optimierten Struktur

Die Struktur einer Webseite, vor allem auch die Informationsarchitektur, ist eines der zentralen Themen im Bereich SEO und sind im Zusammenhang mit dem Punkt 3 (OnPage-Optimierung) zu sehen. Es scheint bei einigen also kein Verständnis dafür zu geben, dass diese beiden Bereiche nicht zu trennen sind.

6. Ausrichtung der Webseite auf bestimmte Zielgruppen

Gerade bei Webseiten mit Nischen-Themen ist die Ausrichtung der Webseite auf eine bestimmte Zielgruppe unausweichlich. Sei es im Design der Webseite, oder bei den optimierten Inhalten. Wer Artikel für eine so eine Webseite erstellt sollte wissen wie die Zielgruppe denkt, schreibt, redet und allg. gut im Thema informiert sein. Auch Webseiten für bestimmte Bevölkerungsgruppen werden sich mit höchster Wahrscheinlichkeit noch mehr in 2010 durchsetzen.

Den Trend kann man z.B. an der Gruppen-Bildung bei Social-Media-Communities wie Studivz oder Facebook ableiten.

Fazit

Die Themen 2010 bleiben gleich, die Gewichtung wird sich höchst wahrscheinlich leicht bis stark verschieben. Bleibt abzuwarten wie die Gewichtung bei den Suchmaschinen-Betreibern angepasst wird.

Sollten euch Prioritäten in dieser Übersicht fehlen oder ihr Ergänzungen zu den Punkten habt, so könnt ihr mir dieses gerne mailen oder einfach in den Kommentaren veröffentlichen und ich nehme die  Infos ggf. in die Liste mit auf, danke!

Die (angeblich) rund 200 Parameter des Google-Algorithmus

14. Januar 2010 at 17:07

Der geheime Algorithmus zur Berechnung der Suchergebnisse ist einer der wesentlichen Faktoren für den Erfolg von Google. SEOs rätseln regelmäßig über den Einfluss der Parameter auf das Ranking. Welche Parameter genau welchen Einfluss auf das Ranking haben bzw. wie die komplizierte Berechnung der Google-Rankings funktioniert darüber schweigt Google. Das Search Engine Journal hat sich mit dieser Frage beschäftigt und eine Liste mit fast 200 Parametern erstellt. Techdivision hat diese Liste ins Deutsche übersetzt.

Da Google sein Geheimnis nicht offen legt sind die aufgezählten Parameter nur Vermutungen, die aus der täglichen SEO-Arbeit abgeleitet wurden. Zudem fehlt die Gewichtung der Parameter, denn logischerweise fließt nicht jeder Faktor gleichbedeutend in die Berechnung der Suchergebnisse ein. Trotz allem ist diese Liste eine sehr schöne Übersicht über mögliche Faktoren zur Suchmaschinenoptimierung. Anhand dieser Liste können auch Neueinsteiger in das Thema SEO ihre Seite entsprechend optimieren. Wir empfehlen neben dieser Liste ein Blick in die Google Webmaster Richtlinien!

Die häufigsten Gründe für eine Abstrafung durch Google

14. Januar 2010 at 16:20

Wer sich nicht an die Google Webmaster Richtlinien hält, muss mit einer Abstrafung („Penalty“) durch Google rechnen. Für Webmaster & SEOs sollte das jetzt keine Neuigkeiten sein und die Googles Webmaster Richtlinien sowieso bekannt. Kira Pawlowski hat  im Online Marketing Blog beschrieben welche Gründe am häufigsten zu einer Bestrafung führen.

Penalties und Abstrafungen von Google sind keine Seltenheit und meist ist Unwissenheit, neben böswilligen Absichten (Black-SEO), die Ursache. Und sie kommen ganz ohne Vorwarnung. Passiert so eine Abstrafung sollten Webmaster möglichst schnell nach den Gründen dafür suchen.

Die Häufigsten Gründe für eine Abstrafung durch Google:

  • Keyword-Stuffing: überproportional viele Keywords
  • Link Building: gekaufte Links
  • Spamming: Links über Spam-Kommentare
  • Cloaking: der Suchmaschine werden andere Inhalte gezeigt als den Besuchern
  • Hidden Text: versteckte, für Besucher nicht sichtbare Texte
  • Duplicate Content: kein Abstrafgrund, aber identische Texte bringen auch keine Vorteile
  • History of penalties: kleinere Verstöße werden härter bestraft, wenn es in der Vergangenheit schon andere Verstöße gab
  • Hacker: auch gehackte Seiten werden bestraft

Häufige Gründe für eine Abstrafung durch Google:

  • Keyword-Stuffing: überproportional viele Keywords
  • Link Building: gekaufte Links
  • Spamming: Links über Spam-Kommentare
  • Cloaking: der Suchmaschine werden andere Inhalte gezeigt als den Besuchern
  • Hidden Text: versteckte, für Besucher nicht sichtbare Texte
  • Duplicate Content: kein Abstrafgrund, aber identische Texte bringen auch keine Vorteile
  • History of penalties: kleinere Verstöße werden härter bestraft, wenn es in der Vergangenheit schon andere Verstöße gab
  • Hacker: auch gehackte Seiten werden bestraft

Kuriose Bilder in Google Street View

7. Januar 2010 at 14:01

Google sieht alles bekommt bei diesen Bildern eine ganz neue Bedeutung, hier ein paar kuriose Bilder aus Google Street View:

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Warum SEO Ranking Berichte nutzlos sind

16. Dezember 2009 at 09:41

Ständig die selbe Frage „Ist es möglich unsere Seite auf Platz 1 bei Google zu bekommen„, „wie kommen wir auf Seite 1 mit KeyWord XY?“ … Allein diese beiden Fragen lassen erkennen das die fragende Person kein Verständnis oder nur gefährliches  Halbwissen bzgl. SEO besitzt.

Sollte die Frage nicht heißen „Ist es möglich meine Webseite für so viele Keywords wie möglich gut zu ranken um den Besucherstrom zu vergrößern?“ oder „Wie kann ich meine Seite so optimieren dass sie individuell und damit ein Mehrwert für die Benutzer des Internet ist … Einzigartigkeit?“

What ever … aktuell hat Google sein Ranking Algorithmus geändert so dass die herkömmlichen Ranking-Berichte nutzlos geworden sind. Jeder Benutzer hat seine eigene personalisierte Ergebnisseite, so dass eine allg. Aussage „mit Keyword XY sind sie auf Platz XY bei Google“ nicht mehr sinnvoll ist.

Profi-SEOs müssen sich eingestehen dass die Ranking-Auswertungen nun an Bedeutung bei der Auswertung der Ergebnisse verlieren. In der Vergangenheit wurden die Kunden oft nur mit Ranking-Berichten „zufrieden“ gestellt, wenn es um die Vor- & Nach-Analyse der Arbeit ging. Andere Faktoren wurden vernachlässigt und, teilweise gewollt, der Blick nur auf das Ranking fixiert. Dank der aktuellen Änderungen durch Google (personalisierte Suche) wird sich jetzt die Spreu vom Weizen trennen, hoffen wir dass die Kunden dass ebenfalls erkennen.

Das Szenario im Detail:

  • Für das Keyword „XYZ“ ist die Seite auf Platz X bei Google mit der Suchphrase “A” welche abgerufen wurde an Ort “B” mti einer Suchhistorie von “C” eingeloggt / ausgeloggt / mit Google Account von “X” Vormittag/ Nachmittag mit IP Adresse “XXX.XXX.X.X”.
  • In diesem Fall kann eine einfache Aktualisierung der Such-Abfrage ein komplett anderes Ergebnis liefern, so bald sich einer der Parameter ändert oder einfach nur der SERP wechselt. Die Schlussfolgerung ist das solche Faktoren bei der Erstellung eines Ranking-Bericht nicht berücksichtigt werden können und damit die Aussagekraft nicht mehr gegeben.

Auf einem PC können Sie auf Platz 1 bei den Suchergebnissen sein, wenn die gleiche Suche von einem anderen PC durch geführt wird, so kann die Seite irgendwo anders positioniert sein. Selbst Manipulationen sind möglich, deshalb sollte das Ranking nicht mehr als Leistungs- oder gar Abrechnungs-Faktor gelten.