Was ist Black Hat SEO?

23. Oktober 2009 at 15:23

Gerade für unerfahrene SEOs ist jedes Mittel recht welches dazu hilft innerhalb kürzester Zeit die Webseite in die Top10 der Suchmaschinen zu katapultieren.

Als SEO sollte man wissen welche Methoden erlaubt sind und welche gegen die Richtlinien der Suchmaschinen verstoßen. Z.B. die Google Webmasterrichtlinien sollten einem geläufig sein! So besteht keine Gefahr dass die Seite ab gestraft oder gar aus dem Index der Suchmaschinen fliegt.

Black Hat SEOs fallen häufig durch übermäßige SPAM-Einträge auf um schnellstmöglich eine Link-Struktur zur Webseite aufzubauen. Sei es in Blogs, Foren oder durch Landing-Pages.

Die folgenden Punkte sollen keines Wegs dazu animieren sie einzusetzen, sondern werden als Beispiele aufgezählt welche Methoden NICHT benutzt werden sollten! Die Benutzung dieser Methoden kann neben der Abstrafung der eigenen Webseite durch die Suchmaschinen, auch rechtliche Folgen mit sich bringen.

Black Hat Techniken sind z.B.

  • Doorway Pages bauen: Doorway Pages sind im Prinzip für den Nutzer einer Site sinnlos. Sie werden deshalb auch nicht von der eigentlichen Website aus verlinkt und sind nur über Suchmaschinen zugänglich. Durch einfache Methoden der Link-Analyse erkennen heutige Suchmaschinen Doorway Pages recht einfach, so dass zumindest die einfache Form nicht mehr sinnvoll eingesetzt werden kann.
  • Blogs, Foren, etc. mit eigenen SPAM und Backlinks füllen
  • Meta Tag Stuffing: Keywords in dem HTML Meta Tag describtion unterbringen
  • endlose Wiederholungen der Meta Keywords
  • Sich in Linkfarmen einkaufen oder selbst erstellen
  • Hidden Content (unsichbarer Text): Verstecken von unrelevanten Texten mit so einfachen Mitteln, wie weiße Schrift auf weißem Grund oder per CSS die Sichtbarkeit ausblenden

Weitere Möglichkeiten der Black SEO ist es zu versuchen dass die Konkurrenzseiten aus dem Index der Suchmaschinen fliegen oder einfach im Ranking abstürzen zu lassen!

Gängige Methoden sind:

  • Google Bowling: Um eine Webseite im Google-Ranking abstürzen zu lassen, werden Maßnahmen getroffen, welche Google mit Index-Sperrung beantwortet.
  • Tattling: Google mag keine bezahlten Links. Somit genügt es die bezahlten Links, welche der Betreiber der Zielwebsite geschaltet hat, einfach Google zu melden. Alterantiv können auch einfach selber bezahlte Links geschaltet und anschließend gemeldet werden.

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Pro & Kontra des cloud computing

23. Oktober 2009 at 11:03

Cloud Computing ist einer der Top-Themen 2009! Das Konzept dahinter ist nicht wirklich neu, gerade große Unternehmen setzen dieses oder ähnliche Konzepte seit Jahren ein zwecks Lastenverteilung, Ausfallsicherheit oder als Backup-Strategie.

Aber wie sicher ist Cloud Computing? Lohnt sich ein Umstieg? Was sind die Pro & Kontra?

Das „Sidekick-Desaster“ in der vergangenen Woche hat nicht nur den beteiligten Firmen Microsoft, Danger und T-Mobile schlechte Presse beschert, sondern auch dem Thema Cloud Computing. Alle Daten der Sidekick-Nutzer waren auf Servern innerhalb der Cloud gespeichert und gingen durch ein misslungenes Update verloren. Und zum Spot für die Kritiker war kein Backup vorhanden. Dabei werden die Ausfall- und Backup-Sicherheit mit als die Stärken des Cloud Computing verkauft.

Hier möchten wir Euch eine kurze Übersicht der Pro & Kontras geben:

pro

  • Durch Cloud Services ist der Zugriff auf Anwendungen und damit das Arbeiten von überall möglich – Der Designer kann von zu Hause genauso auf die Applikationen zu greifen wie von einem Internet-Café im Urlaub. Dadurch werden Fixkosten gespart da z.B. nicht für jeden Client eine Lizenz erforderlich ist.
  • Sehr hohe Erreichbarkeit. Teilweise wird mit 100% Uptime geworben, allerdings kann diese Zahl wohl nicht immer gewährleistet sein. Z.B. bei Server-Ausfall können einzelne Knoten ausfallen oder überlastet sein bis der Ausfall der Server oder die Wiederherstellung des Backup abgeschlossen ist.
  • Cloud Computing erfordert nur geringe Investitionen. Gerade kleinere Unternehmen/Webseiten verfügen nur über ein geringes Eigenkapital. Anstatt Zeit und Geld in Technik zu investieren können sie sich auf ihr Produkt konzentrieren.

Contra

  • Abhängigkeit des Anbieters der Cloud-Applikation bzw. des Dienstes. Hat dieser technische Probleme oder geht gar in die Insolvenz, so ist es selten möglich „mal eben“ selbst ein Cloud-Server-Dienst zur Verfügung zu stellen (im Vergleich zu einem auf Apache & Linux basierten Webserver).
  • Datenschutz und Sicherheit: Die Daten liegen verteilt auf verschiedene Server & Standorte . Teilweise nicht durchschaubar wer auf diese Daten Zugriff hat, wo deren Standorte sind, wie das Backup-Konzept läuft, etc.! Es bleibt meist nur dem Anbieter zu vertrauen, dass er Informationen ausreichend vor Missbrauch schützt und ein gutes Backup-Konzept fährt.
  • Die Performance von Cloud-Diensten und vor allem Anwendungen welche Offline-Client-Applikationen ablösen, hängt von der Geschwindigkeit des Internet-Zugangs ab. Bei lokalen Anwendungen gibt es das Problem nicht!
  • Der Zugriff auf den Dienst hängt von der Verfügbarkeit des Dienstes/Anbieters ab. Bei z.B. Wartungsarbeiten, ist der Dienst nicht verfügbar. Zeitkritische Aufgaben können in diesem Fall ggf. nicht fertig gestellt werden.
  • Durch Cloud Services ist zudem ein verteiltes Arbeiten möglich. Der Redakteur kann im Internet-Café im Himalaya sitzen und dort an seinen Texten arbeiten. Präsenzarbeit ist überflüssig und es werden Fixkosten eingespart.

Performancemodul für Magento angekündigt

20. Oktober 2009 at 19:01

Die Leipziger Internetagentur Netresearch will dem OpenSource-Shopsystem Magento Beine machen und hat ein Performance-Modul angekündigt. Mit dem Modul soll der Seitenaufbau im Magentoshop beschleunigt werden.

Aktuell werden die Produktlisten und Produktdetailseiten im Magentoshop bei jedem Aufruf neu generiert, dadurch verlängert sich die Ladezeit beim Seitenaufbau. Das Modul von Netresearch rüstet eine Cachingfunktion nach, welche das Neugenerieren unnötig macht. Die Ladezeit soll sich dadurch um bis zu 2/3 verringern lassen.

Das neue Modul wird offiziell am 2. November auf dem Community Treff „Meet Magento #2.09“ in der Frankfurter Börse vorgestellt.

Die Magento-Community ist gespannt!

Google Webmastertools – neues Tool zur Parameterbehandlung bei Duplicate Content

13. Oktober 2009 at 14:02

Wie so eben im Webmaster Zentral Blog von Google angekündigt, wurde ist es ab sofort möglich in den Webmastertools Parameterbehandlung bei Duplicate Content zu konfigurieren.

Damit lässt sich der Umgang mit Duplicate Content erleichtern. Mit der Parameterbehandlung (engl. „Parameter Handling“) bietet sich die Möglichkeit zu sehen, bei welchen Parametern Google davon ausgeht sie ignorieren oder eben nicht ignorieren zu können. Mit der neuen Funktion kann die Annahmen von Google, wenn notwendig,  überschrieben/konfiguriert werden.

Ausführliche Infos und Beschreibung der Funktion findet ihr hier im Google Webmaster Zentrale Blog

Magento: Version 1.4.X steht in den Startlöchern – erstes Preview

12. Oktober 2009 at 20:22

Die nächste Version von Magento steht in den Startlöchern, seit 06.10.09 ist die Version 1.4.0.0-alpha3 zum kostenlosen Download bereit.

In der Version wurde eine lange Liste an Bugfixes abgearbeitet. Es gibt endlich native ein WYSIWYG-Editor für das CMS und auch das Einstellen von Bildern und die Verlinkung soll im CMS nun komfortabel möglich sein.

In Sachen Performance sind ebenfalls Verbesserungen angekündigt worden, die mit einer völlig neuen Indizierungsfunktionalität einhergehen sollen. Für die Entwickler und Administratoren gibt es jetzt neuen Entwicklungsmodus und die Steuerung des Shops über Umgebungsvariablen wird ermöglicht. Für Steuerregeln können in den Postleitzahlen nun Platzhalter verwendet werden.

Laut RoadMap befindet sich die Fertigstellung der Version 1.4 derzeit erst bei 71%. 412 Bugfixes von 575 sind bereits erledigt, damit sind noch 163 offen. Ein finales Release-Datum wurde noch nicht genannt, die Tendenz geht aktuell Richtung Ende diesen /Anfang nächsten Jahres.

Bei so viel Euphorie sollte beachtet werden: Die aktuelle Alpha-Version ist nicht für den Einsatz in Produktumgebungen zu empfehlen!

Was ist eigentlich ein Trustrank?

12. Oktober 2009 at 09:03

Das Verfahren hinter dem TrustRank-Algorithmus dient zur besseren Bewertung der Qualität von Webseiten. Der Ansatz hinter dem Trustrank-Verfahren ist, dass Webseiten, die von vertrauenswürdigen Seiten (trust engl. für Vertrauen) verlinkt werden, selbst auch vertrauenswürdig sind.
Man nimmt an das Seiten die ein hohen Trust von einer Suchmaschine bekommen haben selbst nur Seiten mit qualitativ guten Content verlinken, SPAM-Seiten selten oder nie verlinkt werden.

Welche Seiten bei Google ein hohen Trust genießen ist so direkt nicht bekannt (sollte Jemand bekannt sein wo dies eingesehen werden kann, wäre ich über entsprechendes Kommentar dankbar). Man geht allerdings davon aus, dass große Seiten mit viel redaktionell betreuten Inhalt (z.B. CNN.de oder vielleicht auch spiegel.de) diesen besitzen. Verlinkt jetzt so eine Seite in einem Artikel eine andere, so erbt diese den Trust und wird für die Suchmaschine (z.B. Google) ebenfalls als Wertvoll eingestuft. Die Seite erbt nicht 100% des Trust, umso mehr Seiten mit einem hohen Trust diese verlinken umso höher ist die Wahrscheinlichkeit das Google diese Seite ebenfalls als sehr Wertvoll ansieht und ein Trust verleiht.

Performance-Optimierung von Magento mit Zend Server

10. Oktober 2009 at 21:04

Wie gerade aus dem Zend-Newsletter zu entnehmen gibt es auf der Zend-Seite ein kostenloses Video über Performance-Optimierung der Magento E-Commerce Shop Software mit Zend Server.

Allen nicht Newsletter Abonennten wollten wir das Video nicht vor enthalten!

Hier geht es zum Video