Webseiten-Check: Überprüfung der Lesbarkeit & SEO Analyse

23. März 2010 at 09:42

Für den Erfolg einer Webseite ist es wichtig dass die Texte verständlich sind und eine hohe Lesbarkeit aufweisen. Nur so kann er von den Besuchern & Suchmaschinen schnell & verständlich gelesen werden, wodurch Empfehlungen entstehen (Link-Building). Als Messgröße für die Lesbarkeit wird im deutschsprachigen Raum gerne der Flesch-Reading-Ease Index verwendet. Dieser Lesbarkeitsindex gibt die Schwierigkeit der Lesbarkeit eines Textes in unterschiedlichen Abstufungen wieder.

Die folgenden kostenlosen Dienste helfen Euch bei der Analyse eurer Webseite/Texte:

http://www.leichtlesbar.ch – Einfache und schnelle Auswertung des Lesbarkeitsindex.

http://www.stilversprechend.de – Ideal um Lesbarkeit von Texten zu prüfen.

http://seittest.de/ – Neben der Text-Prüfung erfolgt eine SEO-Analyse der Webseite, das umfangreichste Tool.

Kennt ihr weitere kostenlose Tools? Schreibt ein Kommentar und ich nehme es mit in die Liste auf!

Die Top SEO Prioritäten in 2010

19. Januar 2010 at 16:03

Hier möchten wir euch die wichtigsten SEO Schwerpunkte in 2010 auflisten und kurz genauer erläutern:

1. Link-Building durch starken Content

Immer mehr SEOs haben begriffen, dass es wichtig ist starken und individuellen Content anzubieten, der die Leute dazu bewegt freiwillig die Seite zu verlinken. Das deckt sich mit den Empfehlungen der Google-Webmaster-Richtlinien und sind ein echter Mehrwert für die Besucher und damit eine der wichtigsten und saubersten Möglichkeiten Link-Aufbau zu betreiben! Wir hoffen dass in 2010 weniger unsinnige Spam-Texte auf Webseiten veröffentlicht werden und das Netz mehr mit kreativen und informativen Inhalten wächst.

2. Links kaufen oder tauschen

Links zu kaufen wird auch in 2010 ein wichtiger Bestandteil im Bereich SEO sein. Keiner gibt es öffentlich zu, fast alle machen es, sei es der Kauf oder Tausch gegen Sachgüter oder Gegenlinks, viele Formen das gleiche Prinzip. Jeder versucht aus Kostengründen den Anteil so gering wie möglich zu halten, allerdings wird es oft auch in 2010 ohne Kauf nicht gehen. Gerade bei sehr umkämpften Keywords und/oder Startup-Webseiten.

3. OnPage Optimierung

Weiterhin ein sehr wichtiges Thema ist die direkte Optimierung der Webseite. Die OnPage-Optimierung ist unerlässlich und das wird sich auch in den nächsten Jahren nicht ändern!

4. Lokales Ranking der Webseite

Die Suchmaschinen, allen voran Google, haben in 2009 verstärkt ihre Dienste für die Lokalisierung der SERPS verbunden und so geändert dass, auch durch die personalisierte Suche, der lokale Standort des Suchenden eine stärkere Rolle spielt. So wird anhand der IP der Standort bestimmt und anhand dessen die Gewichtung der Ergebnisse der Suchanfrage bestimmt, auch die lokal auf dem Client gespeicherten Cookies spielen eine größere Rolle.

Die lokale Optimierung ist für das Business mit einem starkem lokalem Bezug (z.B. lokales Handwerk) schon immer ein wichtiger SEO Bestandteil gewesen. Die Iphone-Generation wird sicherlich weiter zur Wichtigkeit der Gewichtung von lokalen Faktoren beitragen.

5. Umbau oder Bau von Seiten mit optimierten Struktur

Die Struktur einer Webseite, vor allem auch die Informationsarchitektur, ist eines der zentralen Themen im Bereich SEO und sind im Zusammenhang mit dem Punkt 3 (OnPage-Optimierung) zu sehen. Es scheint bei einigen also kein Verständnis dafür zu geben, dass diese beiden Bereiche nicht zu trennen sind.

6. Ausrichtung der Webseite auf bestimmte Zielgruppen

Gerade bei Webseiten mit Nischen-Themen ist die Ausrichtung der Webseite auf eine bestimmte Zielgruppe unausweichlich. Sei es im Design der Webseite, oder bei den optimierten Inhalten. Wer Artikel für eine so eine Webseite erstellt sollte wissen wie die Zielgruppe denkt, schreibt, redet und allg. gut im Thema informiert sein. Auch Webseiten für bestimmte Bevölkerungsgruppen werden sich mit höchster Wahrscheinlichkeit noch mehr in 2010 durchsetzen.

Den Trend kann man z.B. an der Gruppen-Bildung bei Social-Media-Communities wie Studivz oder Facebook ableiten.

Fazit

Die Themen 2010 bleiben gleich, die Gewichtung wird sich höchst wahrscheinlich leicht bis stark verschieben. Bleibt abzuwarten wie die Gewichtung bei den Suchmaschinen-Betreibern angepasst wird.

Sollten euch Prioritäten in dieser Übersicht fehlen oder ihr Ergänzungen zu den Punkten habt, so könnt ihr mir dieses gerne mailen oder einfach in den Kommentaren veröffentlichen und ich nehme die  Infos ggf. in die Liste mit auf, danke!

Übersicht der SEO Veranstaltungen in 2010

6. Januar 2010 at 15:58

Hier eine kleine Übersicht über die anstehenden Kongresse, Fachmessen und sonstige Events zum Thema SEO, SEM & allg. Online-Marketing im Jahr 2010:

  • 23.01.10 – web in bewegung – München – http://www.web-in-bewegung.de
  • 04. Februar – active lounge Networking & Clubbing – Hamburg
  • 26.02.10 – SEMSEO 2010 – Hannover – http://semseo.abakus-internet-marketing.de/
  • 04.03.10 – ecommerce conference – Hamburg – http://www.ecommerce-conference.de
  • 09.03.10 – ecommerce conference – Frankfurt – http://www.ecommerce-conference.de
  • 10.03.10 – ecommerce conference – Düsseldorf – http://www.ecommerce-conference.de
  • 13.3. – 14.3.2010 – SEO CAMPIXX 2K10 – bei Berlin – http://www.seo-campixx-10.de/
  • 17.03.10 – Hitmeister e-Commerce Day 2010 – Köln – http://www.hitmeister.de/ecommerceday
  • 23.3. – 24.3.2010 – SMX München – http://smxmuenchen.de/
  • 13.4. – 14.4.2010 – Internet World – http://www.internetworld-messe.de/
  • 22.04.10 – momit10 – Hamburg – http://www.momit10.de/
  • 18. und 19. Mai – a4uexpo in München
  • 08.06.10 – Online Marketing Forum – Frankfurt – http://www.onlinemarketingforum.de/
  • 10.06.10 – Online Marketing Forum – Düsseldorf – http://www.onlinemarketingforum.de/
  • 15.06.10 – Online Marketing Forum – Hamburg – http://www.onlinemarketingforum.de/
  • 22.06.10 – Online Marketing Forum – München – http://www.onlinemarketingforum.de/
  • 15.9. – 16.9.2010 – dmexco Cologne – Köln – http://www.dmexco.de/de
  • 02.11.10 – Marketing on Tour – Frankfurt – http://www.marketing-on-tour.de
  • 04.11.10 – Marketing on Tour – Düsseldorf – http://www.marketing-on-tour.de
  • 09.11.10 – Marketing on Tour – Hamburg – http://www.marketing-on-tour.de
  • 11.11.10 – Marketing on Tour – Berlin – http://www.marketing-on-tour.de
  • 16.11.10 – Marketing on Tour – München – http://www.marketing-on-tour.de

Sollte ein Event in der Übersicht fehlen so könnt ihr mir dieses gerne mailen oder einfach in den Kommentaren veröffentlichen und ich nehme es in die Liste mit auf, danke!

Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012

4. Januar 2010 at 14:36

Was neu, was ändert sich?

Die Suchmaschinenoptimierung wie sie in den letzten Jahren umgesetzt wurde ist im Umbruch. Wie auch schon im Artikel „Warum SEO Ranking Berichte nutzlos sind“ beschrieben fangen die Suchmaschinenbetreiber (z.B. Google) damit an die Ergebnisseiten immer weiter zu personalisieren. In der Vergangenheit wurden auch Faktoren wie geografische Lage und das Nutzerverhalten (die Klickrate), bei der Erstellung der Suchergebnisseiten berücksichtigt. Auch Musik, Bild- oder Video-Inhalte werden immer mehr in den Suchmaschinen Ergebnisseiten (auch SERPS genannt was für Search Engine Result Pages steht). Ließen sich diese Faktoren noch beeinflussen so ist die Personalisierung ein neuer und teilweise gar  unberechenbarer Faktor geworden. Sieht doch die Ergebnisseite der Suchmaschinen bei jedem Nutzer nun individual anders aus. Dazu spielt die Geschwindigkeit der Web-Seite beim Ranking jetzt eine wichtige Rolle.

Google Maps entwickelt sich rasend schnell weiter und wird ggf. das Google Suchfenster in der Zukunft ablösen. Die die Mehrzahl der Information werden von den Benutzern vor Ort gesucht. Das hat auch Google erkannt. Die Mobilen Endgeräte und deren Kameras (Handys, etc.) füttern Google und sind das Auge des Netzes das alles sieht. In der letzten Woche integrierte Google eine Immobilensuche in die Karte. Mit Handysoftware wie Wikitude oder Layar ist es möglich sich die unmittelbare Umgebung erklären zu lassen – einfach durch bloßes Umsehen und filmen mit der Kamera: Was ist das für ein Gebäude, vor dem ich stehe? Wer hat es gebaut? Wer wohnt darin? Ist eine Wohnung frei? Welcher Makler bietet sie an? Gibt es Bilder von den Innenräumen? Wenn Sie als Makler nun nicht gefunden werden, haben Sie das Nachsehen. Und wer bei der Kartensuche dabei sein will, muss möglichst viele „Werbeinformationen“ ins Kartenmaterial einfügen. Startpunkte für Ihre Einträge: das Google Branchencenter, Wikipedia oder Panoramio (bringt Fotos auf die Landkarte).

Die Bildersuche bekommt ebenfalls mehr Bedeutung. Amazon hat vor kurzem in den USA eine aufsehen erregende iPhone Applikation eingeführt. Mit dieser können Sie ein Artikel (z.b. eine schöner Rucksack) fotografieren und über die Applikation heraus finden wie das Modell heißt und wo der Herr ihn gekauft hat. Einfach die Handykamera darauf halten und die Software sieht nach, ob sich dieses Produkt im Angebot von Amazon befindet. Wenn ja, erfahren Sie den Namen des Modells, einen Preis und können es sofort bestellen. Die Fähigkeit der Bilderkennung sind effektiver geworden und der Bedarf an Bildern und animierten Bildern (Videos) wächst kontinuierlich. Deshalb sollten Sie Ihre Budget nicht nur für das schreiben von Texten ausgeben, sondern ebenfalls ein großes Teil für das Produzieren von Bild- und Videomaterial für das Web einplanen! Vertrauen Sie nicht nur auf Texte!

Neben den herkömmlichen Suchmaschinen & den damit aktuell verbundenen Technologien, kommen Wissensdatenbanken wie z.B. Wolfram Alpha auf den Markt. Diese greifen fast ausschließlich auf Inhalte von Seiten mit einem hohen Trust-Status oder gar Inhalte aus ausgewählten Bibliotheken zurück.

Die Sozialen Medien gewinnen immer mehr an Bedeutung, so werden aktuell schon mehr Messages über diese Medien verschickt als herkömmliche E-Mails. Aus diesem Grund nimmt die Social-Media-Optimization (kurz: SMO) immer mehr an Bedeutung zu. Seit dem Web 2.0 lässt sich sehr gut beobachten wie die von Nutzern generierten Inhalte das Web dominieren und für einen schnellen Wachstum sorgen. Aus diesem Grund wird die Echtzeit-Suche speziell für Soziale Medien immer weiter ausgebaut (aktuell vorhanden für z.B. Blogs wird ausgebaut um Twitter, Face-Book, etc.). Daraus ergeben sich Probleme welche das Thema Reputationsmanagment immer wichtiger werden lassen.

Was bleibt?

Ganz klar alte Regeln wie Content ist King bleiben weiterhin bestehen. Was zählt sind viele individuell erstellte Inhalte welche den Benutzern so viel Mehrwert geben dass sie auch für die Suchmaschinen so eingestuft werden.
Suchmaschinen arbeiten auf logischen Algorithmen, welche nichts anderes nach zu bilden versuchen als das menschliche Verhalten. Ist eine Seite ein Mehrwert für potentielle Besucher, so wird dies auch von Suchmaschinen erkannt und so eingestuft.

Zwar verliert der Pagerank immer mehr an Bedeutung, trotz allem sind Links weiterhin wichtig. Gerade Link-Power von Trust-Pages haben weiterhin sehr hohe Bedeutung. Wichtig ist die richtige Verlinkung, z.B. verlinken nach dem Link-Pyramiden Konzept.

Warum auch in 2010 SEO noch dringend gebraucht werden wird, kann man leicht an folgenden hypothetischen Fragen verdeutlichen:

  • Sind benötigen eine ordnungsgemäß codierten Website? (technisches SEO)
  • Sie benötigen gute Inhalte?
  • Wollen Sie das ihre Inhalte durch potentielle Besucher gefunden werden?
  • Wollen Sie Bilder & Videos in das Netz stellen welche gefunden werden sollen?
  • Wollen Sie das Leute Ihre Webseite verlinken?
  • Wollen Sie dass Leute über Ihr Business sprechen?
  • Denken Sie dass sie Google, Yahoo oder Bing auch in 2010 nutzen?

Falls Sie diese Fragen mit JA beantwortet haben, dann benötigen Sie auch weiterhin SEO in 2010!

Dieser Artikel soll nur ein kurzen Überblick über die aktuelle und zukünftige Situation geben. Viele Aspekte lassen sich noch ergänzen oder gar ausführlicher Beschreiben, das ist uns klar.

Uns interessiert vor allem Eure Meinung zu diesem Thema „Die Zukunft der Suchmaschinenoptimierung (SEO) 2010 – 2012“!

Teilt Sie uns und den anderen Lesern dieses Artikels mit und schreibt ein Kommentar!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Warum SEO Ranking Berichte nutzlos sind

16. Dezember 2009 at 09:41

Ständig die selbe Frage „Ist es möglich unsere Seite auf Platz 1 bei Google zu bekommen„, „wie kommen wir auf Seite 1 mit KeyWord XY?“ … Allein diese beiden Fragen lassen erkennen das die fragende Person kein Verständnis oder nur gefährliches  Halbwissen bzgl. SEO besitzt.

Sollte die Frage nicht heißen „Ist es möglich meine Webseite für so viele Keywords wie möglich gut zu ranken um den Besucherstrom zu vergrößern?“ oder „Wie kann ich meine Seite so optimieren dass sie individuell und damit ein Mehrwert für die Benutzer des Internet ist … Einzigartigkeit?“

What ever … aktuell hat Google sein Ranking Algorithmus geändert so dass die herkömmlichen Ranking-Berichte nutzlos geworden sind. Jeder Benutzer hat seine eigene personalisierte Ergebnisseite, so dass eine allg. Aussage „mit Keyword XY sind sie auf Platz XY bei Google“ nicht mehr sinnvoll ist.

Profi-SEOs müssen sich eingestehen dass die Ranking-Auswertungen nun an Bedeutung bei der Auswertung der Ergebnisse verlieren. In der Vergangenheit wurden die Kunden oft nur mit Ranking-Berichten „zufrieden“ gestellt, wenn es um die Vor- & Nach-Analyse der Arbeit ging. Andere Faktoren wurden vernachlässigt und, teilweise gewollt, der Blick nur auf das Ranking fixiert. Dank der aktuellen Änderungen durch Google (personalisierte Suche) wird sich jetzt die Spreu vom Weizen trennen, hoffen wir dass die Kunden dass ebenfalls erkennen.

Das Szenario im Detail:

  • Für das Keyword „XYZ“ ist die Seite auf Platz X bei Google mit der Suchphrase “A” welche abgerufen wurde an Ort “B” mti einer Suchhistorie von “C” eingeloggt / ausgeloggt / mit Google Account von “X” Vormittag/ Nachmittag mit IP Adresse “XXX.XXX.X.X”.
  • In diesem Fall kann eine einfache Aktualisierung der Such-Abfrage ein komplett anderes Ergebnis liefern, so bald sich einer der Parameter ändert oder einfach nur der SERP wechselt. Die Schlussfolgerung ist das solche Faktoren bei der Erstellung eines Ranking-Bericht nicht berücksichtigt werden können und damit die Aussagekraft nicht mehr gegeben.

Auf einem PC können Sie auf Platz 1 bei den Suchergebnissen sein, wenn die gleiche Suche von einem anderen PC durch geführt wird, so kann die Seite irgendwo anders positioniert sein. Selbst Manipulationen sind möglich, deshalb sollte das Ranking nicht mehr als Leistungs- oder gar Abrechnungs-Faktor gelten.

10 Facebook-SEO-Tipps welcher jeder Facebook-Seitenbetreiber wissen sollte

11. Dezember 2009 at 10:36

Thomas Hutter hat auf seiner Webseite Die 10 Facebook-SEO-Tipps, die jeder Facebook-Seitenbetreiber wissen sollte veröffentlicht. Da auf Facebook immer mehr “Zweithomepages” von Firmen, Marken, Organisationen und Events als so genannte Fanpages entstehen, ist es wichtig für alle SEOs und SEMs sich mit dem Thema Social-Media-Marketing zu beschäftigen. Schmaschinenoptimierung (SEO) hört nicht  bei der Hauptseite auf sondern ist auch für die Social-Media-Seiten ein grosses Thema.

Begriffschaos bei SEM und SEO

20. November 2009 at 11:03

SEM oder doch SEO? Immer wieder werden die Begriffe in unterschiedlichsten Zusammenhängen erwähnt. Eine einheitliche Begriffsdefinition scheint es nicht zu geben, sind die verschiedenen Elemente des Suchmaschinenmarketings aufgrund des jungen Alters dieses Marketingzweiges wohl noch zu frisch oder undefiniert.

Besonders im englischsprachigen Raum wird der Begriff SEM (Search Engine Marketing) als Oberbegriff für das gesamte Suchmaschinenmarketing sowie für jegliche Art der bezahlten Einträge auf den Suchergebnisseiten verwendet. Und das obwohl dies eigentlich ein eigenständiger Teilbereich ist. Die Begriffe Performance Marketing und Sponsored Links werden ebenfalls häufig als Synonym für diesen Bereich verwendet. Dabei bezieht sich der Begriff Performance Marketing aber auf alle Bereiche des Online-Marketings, deren Ziel es ist, messbare Ergebnisse bzw. Transaktionen mit den Internet-Nutzern zu erzielen.

In Deutschland hingegen werden die Begriffe SEM und Keyword-Advertising am häufigsten verwendet, wenn es um das Thema bezahlte Textanzeigen auf Suchmaschinen geht. Für jegliche Optimierung von Webseiten für Suchmaschinen hingegen werden i.d.R. die Begriffe Suchmaschinenoptimierung (kurz: SEO) verwendet.

Wenn es um Optimierung bzw. eher Verknüpfung von Webseiten mit anderen Web 2.0 Anwendungen (Communitys, Portale, etc.) geht, wird häufig der Begriff Social Media Optimization (SMO) verwendet. Geht es dagegen um Marketing in der Web 2.0 Welt (youtube, facebook, studivz, myspace, etc.)  so sprechen wir von Social Media Marketing (SMM). Beide Bereiche überschneiden sich in einigen Teilbereichen, was eine eindeutige Abgrenzung gelegentlich schwierig macht.

SOUNDTRACK zur SEO CAMPIXX 2010

19. November 2009 at 17:27

Hier der Soundtrack zur SEO CAMPIXX 2010 in Berlin.

SEO-Konferenz am 26.02.2010 SEMSEO in Hannover

19. November 2009 at 17:14

Am 26.02.2010 findet in Hannover (übrigens Heimatstadt von Fly2Mars-Media) wieder die eintägige Branchen-Konferenz SEMSEO statt. Diese seit 2007 einmal jährlich statt findende Konferenz erwartet 2010 rund 350 Mitarbeiter und Führungskräften aus mittelständischen und großen Unternehmen aller Branchen. Großer Wert wird auf den Austausch zwischen den Besuchern (SEO- & SEM-Experten, Marketing- & Kommunikationsexperten sowie Fachentscheider) gelegt.

Im Anschluss findet abends die legendäre Pubkonferenz (PubCon) statt, laut den Veranstaltern das größte SEO-Networking-Event im deutschsprachigen Raum. Veranstaltungsort ist wiederholt die HBX-Brauerei am Aegi in Hannover. Für alle SEMSEO-Teilnehmer ist der Eintritt zu diesem Event kostenfrei.

Weitere Infos findet ihr unter semseo.abakus-internet-marketing.de

Google Leitpfaden für Suchmaschinenoptimierung (SEO) – Teil 2

12. November 2009 at 09:25

Teil 2 – der Zusammenfassung der offiziellen Aussagen aus dem Webmaster Zentrale Blog bzw. des Google Verantwortlichen Matt Cutts für den Bereich Suchmaschinenoptimierung (SEO).

Hier geht es zurück zu Teil 1

Wie Zählen Links von Twitter und Facebook?

Google (Matt Cuts) sagt:

„Links von relevanten und wichtigen Websites waren immer eine gute Methode um Traffic und Akzeptanz für eine Website zu erhalten. Wie beurteilst du Links zu einer Website von neuen Plattformen wie Twitter und Facebook?“

Also: meine Standardantwort – und ich spreche übers Ranking in der Websuche – war immer, dass Google alle Links im Grunde gleich behandelt. Wir greifen auf die Tatsache zurück, dass ihr PageRank habt. Dadurch wissen wir, wieviel Reputation eine Website besitzt, und wir berücksichtigen nicht nur die Anzahl der Links zu einer Website. Es spielt eine Rolle wieviel Reputation diese Links haben. Es kommt nicht wirklich darauf an, ob sie von einer .gov- oder .edu-Domain kommen. Das gleiche trifft auch auf Twitter und Facebook zu.

Eine interessante Tatsache gibt es in Bezug auf Twitter und Facebook aber zu beachten. Fangen wir mit Facebook an: Viele der Profile sind nicht öffentlich. Und Google kann nur denjenigen ausgehenden Links PageRank geben, deren Seiten wir erreichen. Wenn euer Profil bei Facebook also vollkommen öffentlich ist, kann Google es crawlen. Dann könnten diese Links PageRank vererben. Wenn wir nicht rankommen, tun sie es wahrscheinlich nicht.

Die meisten Links auf Twitter sind auf nofollow gesetzt. Das führt uns beinahe auch schon zu einer guten Antwort für Twitter. Sie müssen sich nicht so sehr um Spam kümmern und darum, dass Leute versuchen, sie mit allen möglichen Links vollzustopfen.

Also zumindest in der Websuche, unserem organischen Ranking, behandeln wir Links von Twitter und Facebook gleich. Wählt einfach eure Lieblingsplattform oder Website! Wir behandeln sie, genau wie wir Links von WordPress, von .edu- oder .gov-Domains behandeln. Es ist nicht so, dass ein Link von einer .edu-Domain oder ein Link von einer .gov-Domain automatisch mehr zählt. Die spezifische Plattform kann aber sehr wohl Probleme haben. Sei es, dass sie nicht gecrawlt wird, oder dass nofollow die entsprechenden Links davon abhält PageRank zu vererben.

Quelle

Wie stelle ich am besten Content abhängig vom Standort des Users zur Verfügung?

Google (Matt Cuts) sagt:

Also, es gibt viele Missverständnisse über den Unterschied zwischen Cloaking und Geo- oder IP-Delivery.

IP-Delivery gibt den Content abhängig von der IP-Adresse aus. Das klingt logisch, oder?

Cloaking zeigt Usern anderen Content als Googlebot. Cloaking ist also eine Art von IP-Delivery, aber nicht jede IP-Delivery ist Cloaking.

Und eine besondere Art von IP-Delivery, die nicht unter Cloaking fällt, zeigt Usern unterschiedlichen Content in verschiedenen Ländern. Google macht das auch. Wenn ihr Google in Frankreich aufruft, dann leiten wir euch wahrscheinlich zu google.fr. Wenn ihr Google in Deutschland aufruft, dann leiten wir euch wahrscheinlich zu google.de. Wir schauen also auf die IP-Adresse des Users und wir sagen „Wisst ihr was? In Deutschland ist google.de wohl nützlicher für diesen User.“ Was aber wichtig zu verstehen ist, wir haben keine gesonderte Behandlung für Googlebot bei länderabhängiger IP-Delivery. Und genauso wenig solltet ihr gesondert mit Googlebot umgehen. Behandelt ihn nicht wie ein besonderes Land. Macht im Großen und Ganzen nichts anders für Googlebot. Nehmt einfach die IP-Adresse, über die Googlebot gekommen ist, und behandelt sie genauso, wie ihr irgendeinen anderen User von derselben IP-Adresse behandeln würdet. Wir

Es ist kein Cloaking, dem User Content abhängig von der IP-Adresse zu zeigen, da ihr Googlebot nichts anderes zeigt als einem normalen User. Ein User aus den USA und Googlebot aus den USA würden dieselbe Seite erhalten, und demnach ist es kein Cloaking. Macht euch also bei IP-Delivery keine Sorgen in Bezug auf die IP-Adresse eurer User, solange ihr sichstellt, dass ihr denselben Content an User und an Googlebot liefert, dann ist das in keiner Weise problematisch und gilt auch nicht als Verletzung unserer Qualitätsrichtlinien für Webmaster.

Quelle

Google kann jetzt JavaScript-Links finden. Was passiert mit all den gekauften Links, die in JavaScript-Code stecken. Wird Google diese Links von nun an abstrafen?

Google (Matt Cuts) sagt:

wir wissen über alle bekannten Werbe-Netzwerke Bescheid und können sie auch sehr gut handhaben.

2009 strafen wir das noch nicht ab, wir könnten damit aber anfangen, obwohl es meiner Erfahrung nach kein großes Problem ist, denn der größte Anteil davon sind große Werbe-Netzwerke und Dinge, mit denen wir bereits gut umgehen können. Also wie immer:

wenn ihr Textlinks verkauft, stellt sicher, dass diese Links keinen PageRank vererben, und dass sie Suchmaschinen nicht beeinflussen. Es gibt zahlreiche einfache Wege, dies zu bewerkstelligen. Die haben sich nicht geändert seit wir über bezahlte Links reden: die Verwendung von robots.txt, die Verwendung des Nofollow-Attributs, und so weiter.

Quelle

Ist es möglich, davon zu profitieren, falls Content von der eigenen Site gescraped wurde?

Google (Matt Cuts) sagt:

Nun, wenn ihr sicherstellt, dass eure Seiten Links zu euch haben oder die Artikel zu euch linken falls ihr gescraped wurdet, dann kann es passieren, dass der gescrapte Content zu euch verlinkt. Sollte es sich dabei um einen erfolgreichen Scraper oder Spammer handeln, dann können euch
diese Links sogar weiter helfen.
Es gibt Leute, die Scraper wirklich hassen und versuchen, rigoros gegen sie vorzugehen und ihren gesamten Content zu eliminieren und vom Web-Host zu verbannen.
Ich neige eher dazu, mir keine allzu großen Sorgen darüber zu machen, weil in der absoluten Mehrzahl der Fälle, eure Originalseite vorn platziert wird – und nicht der Scraper. Außerdem: Wenn der gescrapte Content eure Links enthält, dann verlinkt er auch auf eure Site. Also im schlimmsten Fall wird es euch nicht wirklich schaden, aber in manchen Ausnahmen kann es euch sogar ein wenig helfen.

Normalerweise braucht ihr euch keine großen Sorgen über Scraper zu machen. Sie haben meist keinen großen Einfluß auf das, was User zu sehen bekommen. Wenn ihr also doch einen Scraper entdeckt, der besser rankt als ihr, dann könnt ihr eine „Digital Millennium Copyright Act“-Anfrage (DMCA request) stellen. Oder aber, falls es sich um einen echten Spammer mit wirren, sinnlosen Texten handelt, könnt ihr natürlich auch einen Spam-Report einschicken – das kann eine andere Möglichkeit sein, gegen diesen Scraper vorzugehen.

Quelle

Wenn eine Site von Google abgestraft wird, warum erhält der Inhaber keine Nachricht in den Google Webmaster-Tools, weshalb die Abstrafung erfolgt ist? Im Moment tappen Webmaster im Dunkeln, wenn es darum geht, die Ursache für eine Abstrafung herauszufinden.

Google (Matt Cuts) sagt:

Also, tatsächlich machen wir das schon. Wenngleich auch nicht für alle Abstrafungen, da es Spammer und Blackhats gibt, die wir nicht informieren möchten. Aber für Dinge wie etwa versteckten Text, falls wir denken, dass eure Site gehackt wurde oder anfällig für Hacker – wir haben sogar darüber nachgedacht, Nachrichten an Leute zu schicken, die möglicherweise alte Google Analytics-Pakete haben.

Wir schicken also einer großen Anzahl von Leuten Warnungen über ihre Site, um zu sagen, Vorsicht, wir mussten eure Site abstrafen, wegen verstecktem Text oder aus anderen Gründen. Wir machen dies nicht für jede einzelne Site und wir machen es nicht für jede einzelne Abstrafung, da es Leute gibt, die einfach sehen wollen, wie weit sie damit kommen, und sobald sie merken, dass sie erwischt wurden, dann fangen sie mit einer anderen Site an.

Wir suchen also nach Wegen, die „good Guys“ wissen zu lassen, wenn es Probleme gibt, ohne dass die „bad Guys“ benachrichtigt werden, aber wir werden wahrscheinlich nie in der Lage sein, jeder einzelnen Person mitzuteilen, dass sie abgestraft wurde. Wir bemühen uns jedoch weiterhin, hier Fortschritte zu machen.

Quelle

Glaubst du, dass Verweise (Erwähnungen von Websites, ohne dass darauf verlinkt wird) eines Tages als Ranking-Signal für die Websuche Verwendung finden werden?

Google (Matt Cuts) sagt:

Darauf habe ich zwei Antworten. Die erste ist, dass ich kein Ranking-Signal ganz ausschliessen will.

Derzeit ist es so, dass viele Webmaster darauf bauen, viele Links zu bekommen. Wenn alles, was sie brauchen, „example.com“ als Text ist, dann können sie das im ganzen Web verteilen, in Foren und Blogs usw. Überall dort, wo User die Möglichkeit haben, Content zu kreieren, würden solche Verweise gesetzt werden.

Wir sind also ein wenig skeptisch, ob wir diese Art von Ranking-Signal verwenden sollten, da das leicht missbraucht werden könnte. Man könnte einfach überall Verweise auf URLs hinterlassen, auch wenn man sie nicht verlinken kann.

Quelle

Ich verwende ein Website-Template (ich bin Anfänger). Das h1-Tag erscheint bei mir nach dem h2-Tag im Code. Kann der Spider damit umgehen?

Google (Matt Cuts) sagt:

Ja – ich würde mir da nicht so viele Gedanken machen. Wir können mit h1- und h2-Tags ganz gut umgehen. Vermeidet die Verwendung von h1 oder h2 für den gesamten Content einer Seite. Ihr könnt euch nicht vorstellen, was Leute alles für Zeug ins Web stellen. Es gab vor einigen Jahren mal eine Studie, die besagte, dass 40 % der Webseiten Syntaxfehler aufweisen.

Wenn jetzt nur ein h1 unter einem h2 steht – also das würde mich nicht beunruhigen.
Es gibt so viele defekte oder unschöne Webseiten sowie Seiten, die gar kein HTML sind. Wir versuchen, diese Seiten dennoch zu verarbeiten, weil es sich trotzdem um gute Informationen handeln kann.

Also, wenn nur die Reihenfolge einiger h1- oder h2-Tags durcheinander ist, würde ich mir darüber keine allzu großen Sorgen machen.

Quelle

Welche Faktoren beeinflussen ein Video in den Universellen Ergebnissen in Google? Ich habe das gleiche Video, eins auf Youtube mit vielen Views, Kommentaren und Bewertungen, dennoch ist das andere mit wenigen Views und keinen Kommentaren dasjenige, das rankt, wie kommt das?

Google (Matt Cuts) sagt:

Also, meine erste Vermutung, ohne Genaueres zu wissen, ist, dass dieses Video evtl. Links von einer sehr angesehenen Site bekommt und daher mehr PageRank hat.
Wir schauen immer noch auf Links; wir schauen immer noch auf PageRank, wann immer wir Dinge ranken. Falls dieses Video Erwähnung auf einer sehr angesehenen Site findet, dann könnte es sein, dass es mehr PageRank hat und daher besser rankt. Es ist seltsam – wenn das eine Video mehr Views, Kommentare und Bewertungen hat, dann bekommt es wohl Empfehlungen von irgendwoher, aber vielleicht war dort ein wirklich guter Link, der auf die andere Site verweist, und diese hier hat nicht so viele Links o. ä.

Quelle

Hat die Position von Keywords in der URL eine erkennbare Auswirkung? Ist zum Beispiel example.com/keyword/London besser als example.com/London/keyword?

Google (Matt Cuts) sagt:

Ehrlich gesagt würde ich mir wegen solcher Details keinen Kopf machen. Es hilft ein wenig, Keywords in der URL zu haben. Es hat keine so große Auswirkung; ihr braucht also eure URLs nicht mit unzähligen Keywords vollzustopfen.

Quelle

Wird Google eines Tages Text in Bildern erkennen?

Google (Matt Cuts) sagt:

Das wäre wirklich eine Menge Arbeit. Ich meine, es ist eine lustige Idee, aber ich glaube nicht, dass ihr bei Google in nächster Zeit darauf zählen solltet.

Quelle

Der Konkurrent eines Kunden hat rund 100 Blogs mit kaum echtem Content erstellt.
Er wird bei Google für alle wichtigen Keywords seiner Branche super gerankt.
Warum kommt man mit dieser Taktik immer noch durch? Ich dachte, das sei eine „Crap Hat“-Taktik?

Google (Matt Cuts) sagt:

„Crap Hat“ ist ein Ausdruck, den Danny Sullivan kürzlich auf einer Konferenz verwendet hat. „Crap Hat“ drückt die Verärgerung darüber aus, wenn jemand nur so spammigen Schund produziert, der keinem was bringt. Laura, schick uns doch einen Spam-Bericht mit Details …

Quelle

Ich habe auf meinem Blog eine „Blogroll“-Seite mit Links zu den Blogs aller meiner Freude. Beeinflusst das die Reputation meines Blogs in Google? Vor kurzem wurde bei einem Freund von mir wegen einer solchen Seite der PageRank von 5 auf 0 herabgesetzt.

Google (Matt Cuts) sagt:

Sicher haben eure Links Einfluss auf eure Reputation. Wenn ihr zu Spam-Seiten verlinkt, also zu Seiten, die wir als Müll ansehen, kann das die Reputation beeinträchtigen. Und wenn ihr Links in der Blogroll verkauft, stellt das sicherlich ein großes Risiko dar. Aber nur weil ein Freund beim PR von 5 auf 0 abgerutscht ist, bedeutet das nicht unbedingt, dass es an der Blogroll lag. Es heißt auch nicht unbedingt, dass wir annehmen, er verkaufe Links. Es könnte ein zeitweiliges Problem
mit der Kanonisierung sein. Deshalb würde ich nicht automatisch annehmen „Oh, das lag also an der Blogroll.“

Quelle

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.