Was ist Black Hat SEO?

23. Oktober 2009 at 15:23

Gerade für unerfahrene SEOs ist jedes Mittel recht welches dazu hilft innerhalb kürzester Zeit die Webseite in die Top10 der Suchmaschinen zu katapultieren.

Als SEO sollte man wissen welche Methoden erlaubt sind und welche gegen die Richtlinien der Suchmaschinen verstoßen. Z.B. die Google Webmasterrichtlinien sollten einem geläufig sein! So besteht keine Gefahr dass die Seite ab gestraft oder gar aus dem Index der Suchmaschinen fliegt.

Black Hat SEOs fallen häufig durch übermäßige SPAM-Einträge auf um schnellstmöglich eine Link-Struktur zur Webseite aufzubauen. Sei es in Blogs, Foren oder durch Landing-Pages.

Die folgenden Punkte sollen keines Wegs dazu animieren sie einzusetzen, sondern werden als Beispiele aufgezählt welche Methoden NICHT benutzt werden sollten! Die Benutzung dieser Methoden kann neben der Abstrafung der eigenen Webseite durch die Suchmaschinen, auch rechtliche Folgen mit sich bringen.

Black Hat Techniken sind z.B.

  • Doorway Pages bauen: Doorway Pages sind im Prinzip für den Nutzer einer Site sinnlos. Sie werden deshalb auch nicht von der eigentlichen Website aus verlinkt und sind nur über Suchmaschinen zugänglich. Durch einfache Methoden der Link-Analyse erkennen heutige Suchmaschinen Doorway Pages recht einfach, so dass zumindest die einfache Form nicht mehr sinnvoll eingesetzt werden kann.
  • Blogs, Foren, etc. mit eigenen SPAM und Backlinks füllen
  • Meta Tag Stuffing: Keywords in dem HTML Meta Tag describtion unterbringen
  • endlose Wiederholungen der Meta Keywords
  • Sich in Linkfarmen einkaufen oder selbst erstellen
  • Hidden Content (unsichbarer Text): Verstecken von unrelevanten Texten mit so einfachen Mitteln, wie weiße Schrift auf weißem Grund oder per CSS die Sichtbarkeit ausblenden

Weitere Möglichkeiten der Black SEO ist es zu versuchen dass die Konkurrenzseiten aus dem Index der Suchmaschinen fliegen oder einfach im Ranking abstürzen zu lassen!

Gängige Methoden sind:

  • Google Bowling: Um eine Webseite im Google-Ranking abstürzen zu lassen, werden Maßnahmen getroffen, welche Google mit Index-Sperrung beantwortet.
  • Tattling: Google mag keine bezahlten Links. Somit genügt es die bezahlten Links, welche der Betreiber der Zielwebsite geschaltet hat, einfach Google zu melden. Alterantiv können auch einfach selber bezahlte Links geschaltet und anschließend gemeldet werden.

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Pro & Kontra des cloud computing

23. Oktober 2009 at 11:03

Cloud Computing ist einer der Top-Themen 2009! Das Konzept dahinter ist nicht wirklich neu, gerade große Unternehmen setzen dieses oder ähnliche Konzepte seit Jahren ein zwecks Lastenverteilung, Ausfallsicherheit oder als Backup-Strategie.

Aber wie sicher ist Cloud Computing? Lohnt sich ein Umstieg? Was sind die Pro & Kontra?

Das „Sidekick-Desaster“ in der vergangenen Woche hat nicht nur den beteiligten Firmen Microsoft, Danger und T-Mobile schlechte Presse beschert, sondern auch dem Thema Cloud Computing. Alle Daten der Sidekick-Nutzer waren auf Servern innerhalb der Cloud gespeichert und gingen durch ein misslungenes Update verloren. Und zum Spot für die Kritiker war kein Backup vorhanden. Dabei werden die Ausfall- und Backup-Sicherheit mit als die Stärken des Cloud Computing verkauft.

Hier möchten wir Euch eine kurze Übersicht der Pro & Kontras geben:

pro

  • Durch Cloud Services ist der Zugriff auf Anwendungen und damit das Arbeiten von überall möglich – Der Designer kann von zu Hause genauso auf die Applikationen zu greifen wie von einem Internet-Café im Urlaub. Dadurch werden Fixkosten gespart da z.B. nicht für jeden Client eine Lizenz erforderlich ist.
  • Sehr hohe Erreichbarkeit. Teilweise wird mit 100% Uptime geworben, allerdings kann diese Zahl wohl nicht immer gewährleistet sein. Z.B. bei Server-Ausfall können einzelne Knoten ausfallen oder überlastet sein bis der Ausfall der Server oder die Wiederherstellung des Backup abgeschlossen ist.
  • Cloud Computing erfordert nur geringe Investitionen. Gerade kleinere Unternehmen/Webseiten verfügen nur über ein geringes Eigenkapital. Anstatt Zeit und Geld in Technik zu investieren können sie sich auf ihr Produkt konzentrieren.

Contra

  • Abhängigkeit des Anbieters der Cloud-Applikation bzw. des Dienstes. Hat dieser technische Probleme oder geht gar in die Insolvenz, so ist es selten möglich „mal eben“ selbst ein Cloud-Server-Dienst zur Verfügung zu stellen (im Vergleich zu einem auf Apache & Linux basierten Webserver).
  • Datenschutz und Sicherheit: Die Daten liegen verteilt auf verschiedene Server & Standorte . Teilweise nicht durchschaubar wer auf diese Daten Zugriff hat, wo deren Standorte sind, wie das Backup-Konzept läuft, etc.! Es bleibt meist nur dem Anbieter zu vertrauen, dass er Informationen ausreichend vor Missbrauch schützt und ein gutes Backup-Konzept fährt.
  • Die Performance von Cloud-Diensten und vor allem Anwendungen welche Offline-Client-Applikationen ablösen, hängt von der Geschwindigkeit des Internet-Zugangs ab. Bei lokalen Anwendungen gibt es das Problem nicht!
  • Der Zugriff auf den Dienst hängt von der Verfügbarkeit des Dienstes/Anbieters ab. Bei z.B. Wartungsarbeiten, ist der Dienst nicht verfügbar. Zeitkritische Aufgaben können in diesem Fall ggf. nicht fertig gestellt werden.
  • Durch Cloud Services ist zudem ein verteiltes Arbeiten möglich. Der Redakteur kann im Internet-Café im Himalaya sitzen und dort an seinen Texten arbeiten. Präsenzarbeit ist überflüssig und es werden Fixkosten eingespart.

Google Webmastertools – neues Tool zur Parameterbehandlung bei Duplicate Content

13. Oktober 2009 at 14:02

Wie so eben im Webmaster Zentral Blog von Google angekündigt, wurde ist es ab sofort möglich in den Webmastertools Parameterbehandlung bei Duplicate Content zu konfigurieren.

Damit lässt sich der Umgang mit Duplicate Content erleichtern. Mit der Parameterbehandlung (engl. „Parameter Handling“) bietet sich die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Mit der neuen Funktion kann die Annahmen von Google, wenn notwendig,  überschrieben/konfiguriert werden.

Ausführliche Infos und Beschreibung der Funktion findet ihr hier im Google Webmaster Zentrale Blog

Yahoo nutzt ebenfalls keine Keywords Meta-Tags mehr beim Ranking

13. Oktober 2009 at 11:27

Wie aktuell auf mehreren Newsseiten zu lesen, macht auch Yahoo keinen Gebrauch mehr von Keywords Meta-Tag beim Ranking der Suchergebnisse (Stand: Oktober 2009).

or einigen Tagen gab es zu der Thematik schon ein offizielles Statement von Mat Cutts von Google bzgl. nicht Berücksichtigung beim Ranking durch Google, wir berichteten.

Bleibt die Annahme als würden die Keywords bei allen Suchmaschinen wegfallen.

Google: Neue Funktion „Google Labs“ in Webmastertools

13. Oktober 2009 at 09:19
Neue Google Labs Funktionen in Webmaster Tools

Neue Google Labs Funktionen in Webmaster Tools

In den Google Webmastertools gibt es jetzt im Menu die Funktion „Google Labs“ (siehe Screenshot). Aktuell befinden sich dort die Punkte „Abruf wie beim Googlebot“ und „Maleware Details“.

Gute Idee Google-Labs mit zu verknüpfen, wir sind gespannt welche weiteren Funktionen zu erwarten sind.

Hier ein paar Screenshots der einzelnen Funktionen:

Abruf wie beim Googlebot

Abruf wie beim Googlebot

screenshot3

Malware-Details

Google: Wird der Anchor-Text bei 301-Redirects übernommen?

12. Oktober 2009 at 20:23

Im heutigen Video antwortet Matt Cutts auf die Frage, ob der Anchor-Text bei 301-Redirects im Normalfall übernommen wird.

Der vollständige Artikel im Google-Webmaster-Blog

Was ist eigentlich ein Trustrank?

12. Oktober 2009 at 09:03

Das Verfahren hinter dem TrustRank-Algorithmus dient zur besseren Bewertung der Qualität von Webseiten. Der Ansatz hinter dem Trustrank-Verfahren ist, dass Webseiten, die von vertrauenswürdigen Seiten (trust engl. für Vertrauen) verlinkt werden, selbst auch vertrauenswürdig sind.
Man nimmt an das Seiten die ein hohen Trust von einer Suchmaschine bekommen haben selbst nur Seiten mit qualitativ guten Content verlinken, SPAM-Seiten selten oder nie verlinkt werden.

Welche Seiten bei Google ein hohen Trust genießen ist so direkt nicht bekannt (sollte Jemand bekannt sein wo dies eingesehen werden kann, wäre ich über entsprechendes Kommentar dankbar). Man geht allerdings davon aus, dass große Seiten mit viel redaktionell betreuten Inhalt (z.B. CNN.de oder vielleicht auch spiegel.de) diesen besitzen. Verlinkt jetzt so eine Seite in einem Artikel eine andere, so erbt diese den Trust und wird für die Suchmaschine (z.B. Google) ebenfalls als Wertvoll eingestuft. Die Seite erbt nicht 100% des Trust, umso mehr Seiten mit einem hohen Trust diese verlinken umso höher ist die Wahrscheinlichkeit das Google diese Seite ebenfalls als sehr Wertvoll ansieht und ein Trust verleiht.

Google führt neue Suchoptionen ein

2. Oktober 2009 at 17:58

Neue Google OptionGoogle hat seine Suchoptionen erweitert. Ab sofort können die Ergebnisse mit nur zwei Klicks gefiltert, verfeinert und sortiert werden.
Die Sortierung der Suchergebnisse kann z.B. nach Alter sortiert oder nach bereits besuchten und neuen Ergebnissen gefiltert werden.
Derzeit ist die neue Option nur auf der englischen Seite von Google zu finden.

Um den Filter „Visited pages“ und „Not yet visited“ zu benutzen, muss der Nutzer allerdings mit seinem Google-Account eingeloggt sein und die Webhistory aktiviert haben. Damit können schnell die Seiten aus den Suchergebnissen gefunden werden, die schon besucht wurden.

Quelle: golem.de

Suchmaschine Bing steigert ihre Marktanteile in den USA

22. September 2009 at 23:41

Laut einer Studie konnte die Suchmaschine Bing ihren Marktanteil in den USA im August auf 10,7% steigern. Der Marktführer Google kommt nur noch auf 64,6%. Microsoft hat derzeit eine Kooperation mit der Suchmaschine Yahoo! laufen, Bing & Yahoo haben in der Summe ca. 25% Marktanteil. In der Vergangenheit ist die Yahoo!-Übernahme durch Microsoft gescheitert, sollte diese Übernahme endlich vollzogen werden so können die ca. 25% Marktanteil eine Gefahr für Google werden.

Quelle: http://en-us.nielsen.com/main/news/news_releases/2009/september/bing_search_increases

Google macht keinen Gebrauch von Keywords Meta-Tag in der Web-Suche

22. September 2009 at 09:31

Google macht keinen Gebrauch von Keywords Meta-Tag beim Ranking der Suchergebnisse (Stand: September 2009). Google berücksichtigt allerdings einige der Meta-Tags für die Suchergebnis-Snippets, z.B. das „description“-Meta-Tag.  Eigentlich keine direkten neuen News und schon immer von uns SEOs so kommuniziert.

Allerdings hat Matt Cutts diese Info noch mal aktuell in einem Video kommuniziert, aber schaut selbst: