Magento: Standard Weiterleitung mit 302 ändern zu einer 301 Weiterleitung (SEO)

17. Januar 2013 at 10:30

Magento leitet interne Links per 302-Status-Code weiter. Das ist in Bezug auf Suchmaschinenoptimierung nicht gerade optimal, besser wäre eine 301-Weiterleitung.

Um das zu ändern sollte beim Aufruf der Funktion „_redirect“ jeweils als zweiten Parameter der korrekte Status-code „301“ mit gegeben werden, da ansonsten der Default-Parameter „302“ verwendet wird.

Siehe: /app/code/core/Mage/Core/Controller/Response/Http.php :

/**
* Additionally check for session messages in several domains case
*
* @param string $url
* @param int $code
* @return Mage_Core_Controller_Response_Http
*/
public function setRedirect($url, $code = 302)
{
/**
* Use single transport object instance
*/
if (self::$_transportObject === null) {
self::$_transportObject = new Varien_Object;
}
self::$_transportObject->setUrl($url);
self::$_transportObject->setCode($code);
Mage::dispatchEvent('controller_response_redirect',
array('response' => $this, 'transport' => self::$_transportObject));
return parent::setRedirect(self::$_transportObject->getUrl(), self::$_transportObject->getCode());
}

Um das über ein Magento-Event zu lösen, geht wie folgt vor:

Erstellt ein neues Module und erweitert die config.xml mit folgendem xml-snippet, z.B. in der /app/code/local/Neuesmodul/Cms/etc/config.xml

<global>
<events>
<cms_controller_router_match_before>
<observers>
<Neuesmodul_Cms_observer_cmsControllerRouterMatchBefore>
<type>singleton</type>
<class>neuesmodul_cms/observer</class>
<method>
cmsControllerRouterMatchBefore
</method>
</Neuesmodul_Cms_observer_cmsControllerRouterMatchBefore>
</observers>
</cms_controller_router_match_before>
</events>
</global>

in /app/code/local/Neuesmodul/Cms/Model/Observer.php fügt ihr die folgende Funktion  ein:

/*
* set 301-Http-Response-Code for redirection
*/
public function cmsControllerRouterMatchBefore(Varien_Event_Observer $observer)
{
$condition = $observer->getEvent()->getCondition();
if ($condition->getRedirectUrl()) {
Mage::app()->getFrontController()->getResponse()
->setRedirect($condition->getRedirectUrl(), 301)
->sendResponse()
->setDispatched(true);
}
}

Alternativ-Funktion

/*
 * set 301-Http-Response-Code for redirection
 */
 public function cmsControllerRouterMatchBefore(Varien_Event_Observer $observer)
 {
 $condition = $observer->getEvent()->getCondition();
if ($condition->getIdentifier()) {
 Mage::app()->getFrontController()->getResponse()
 ->setRedirect('/', 301)
 ->sendResponse()
 ->setDispatched(true);
die();
 }
 }

Die Magento SEO Checkliste – Diese Punkte sollten vor dem Go-Live geprüft werden

16. Januar 2013 at 15:23

Magento bietet eine Reihe an Möglichkeiten den Webshop für Suchmaschinen zu optimieren (kurZ: SEO). Die folgende Checkliste sollte vor der Go-Live Schaltung abgearbeitet werden:

SEO features Description
General
1. Store name Don’t forget to enter your store name. Store name is used in different parts of Magento
System -> Configuration -> General -> Store information -> Store name
2. Home page title and meta data Don’t forget to enter “Page title” and “Meta data” for your CMS pages, including Home page
CMS -> Pages -> Home
3. Logo image Alt description Alt description of the store image logo
System -> Configuration -> Design -> Header -> Logo Image Alt
4. SEO Friendly URLs (SEF URLs) SEO Friendly URLs is one of the most important features of every eCommerce store, don’t forget to enable and test it
System -> Configuration -> Web -> Search Engines Optimization -> Use Web Server Rewrites -> “Yes”
Base URL
5. Unsecure and secure base URLs Enter HTTP and HTTPS path to your store, e.g. http://www.example.com/store/ or https://www.example.com/store/
System -> Configuration -> Web -> Unsecure -> Base URL
System -> Configuration -> Web -> Secure -> Base URL
6. Auto-redirect to Base URL Use only one WWW or non-WWW URL for your store. I.e. redirect from http://example.com/store/ to http://www.example.com/store/
System -> Configuration -> Web -> URL options -> Auto-redirect to Base URL -> “301 redirect (Moved permanently)”
Products and categories
7. Products meta data and URL key Your products should have SEO friendly URL keys and correct meta data values
Catalog -> Manage Products -> [Product] -> General -> URL Key
Catalog -> Manage Products -> [Product] -> Meta data
8. Categories meta data and page title Enter URL Key, page title, Meta information for each category
Catalog -> Manage Categories -> [Category]
9. Canonical link for categories and products Enter URL Key, page title, Meta information for each category
System -> Catalog -> Catalog -> Search Engine Optimizations -> Use Canonical Link Meta Tag For Categories
System -> Catalog -> Catalog -> Search Engine Optimizations -> Use Canonical Link Meta Tag For Products
10. Structure of product URLs Preferred structure of product URLs
System -> Catalog -> Search Engine Optimizations -> Use Categories Path for Product URLs -> “Yes”
Sitemap
11. Google sitemap Google sitemap configuration
System -> Google Sitemap
12. Magento sitemap Magento sitemap configuration settings
System -> Catalog -> Sitemap -> Use Tree Like Category Sitemap -> “Yes”
System -> Catalog -> Sitemap -> Search Engine Optimizations -> Autogenerated Site Map -> Enable
Advanced
13. Remove SID from Magento URLs Be careful, this feature allows customers to stay logged in when switching between different multi-stores
System -> Configuration -> Web -> Session Validation Settings -> Use SID on Frontend -> No
14. Permanent redirect rules Permanent redirect rules for renamed products or categories
System -> Catalog -> Search Engine Optimizations -> Create Permanent Redirect for URLs if URL Key Changed -> “Yes”
Default values
15. Default SEO values Default values for title, Meta tags and robots directives
System -> Configuration -> Design -> HTML head -> Default Title
System -> Configuration -> Design -> HTML head -> Default Description
System -> Configuration -> Design -> HTML head -> Default Keywords
System -> Configuration -> Design -> HTML head -> Default Robots -> “INDEX, FOLLOW”
16. Default title separator Default page title separator on storefront
System -> Catalog -> Search Engine Optimizations -> Page Title Separator -> “-”
17. Default product URL suffix Default product URL suffix for all pages
System -> Catalog -> Search Engine Optimizations -> Product URL Suffix -> “.html”
System -> Catalog -> Search Engine Optimizations -> Category URL Suffix -> “.html”

Nützliche SEO- und Web-Tools – Ein Überblick

11. Januar 2013 at 15:31

SEO Tool Sammlung

Diverse SEO Tools – linkvendor.com

Social Media Image Maker

Ein nützliches tool um für diverse Social-Media Bilder anzupassen.

www.autreplanete.com/ap-social-media-image-maker

Tool zum testen der Keyworddichte

www.werbeheini.de/seo-keyword-dichte.php

w3c validator

Der w3c validator zum überprüfen einer Webseite auf validen HTML-Code nach W3C-Standard.validator.w3.org

w3c link checker

validator.w3.org/checklink

 

Free Monitor for Google

Ein kostenlose Tool um für Ihre Webseiten die aktuelle Platzierung in der Suchmaschine Google anhand definierter Keywords heraus zu finden.Download Free Monitor for Google

301 redirect checker

Überprüft ob eine Seite per 301 weiter geleitet wird.

www.redirectchecker.com

www.ragepank.com/redirect-check

 Screaming Frog SEO Spider Tool

Der Screaming Frog ist ein SEO Spider, folglich macht er im Prinzip genau das, was sämtliche Suchmaschinen-Bots machen: Er crawlt die Links einer Domain und sammelt dabei SEO-relevante Daten.

Diese Daten lassen sich dann sortieren, filtern und Excel-freundlich exportieren. Als Desktopanwendung ist der Screaming Frog sowohl für Windows- als auch für Mac-User verfügbar. In der kostenlosen Version ist der Crawl-Umfang auf maximal 500 URLs begrenzt und auch die Einstellungsmöglichkeiten sind beschränkt. Nichtsdestotrotz sollte die kostenlose Variante für die Analyse kleinerer Projekte vollkommen ausreichend sein. Wem das doch nicht reicht, der kann für 99 Britische Pfund eine Jahreslizenz für die Vollversion erstehen.

www.screamingfrog.co.uk/seo-spider/

SEO: Das semantische Web – Web 3.0 – Internet im Jahr 2012/2013

19. September 2012 at 11:50

Immer wieder stolpert man über die Begriffe „Web 2.0“ und „Web 3.0“. Aber was steckt dahinter? Sind es nur neue Buzz-Wörter der Social-Media-Jugend?

Das Web 2.0

Mit Web 2.0 ist das heutige für die Benutzer weitestgehend interaktive Internet gemeint. Die Mehrzahl der Inhalte werden von den Anwendern generiert, nicht mehr primär statisch von den Webseitenbetreibern vorgegeben wie im „Web 1.0“. Als gute Beispiele sind Wikipedia, Youtube oder Facebook zu nennen. Ohne die von den Anwendern bei gesteuerten Inhalte wären diese Seiten nahezu nutzlos. Aber genau das Gegenteil ist der Fall, die Seiten erleben nahezu ein mega Boom, die Besucherzahlen sind enorm, die Akzeptanz sehr positiv und der Bekanntheitsgrad sehr hoch, weniger aktive Internet-Anwender kennen und nutzen diese Plattformen.

Web 3.0

Aber was ist jetzt das Web 3.0?

Das Web 3.0 ist ein semantisches Web. Die Daten auf der Webseite werden so gekennzeichnet, dass sie von Maschinen (zb Suchmaschinen wie Google.de) detailliert erkannt, kategorisiert und anschließend verarbeitet bzw angezeigt werden können. Aktuell können Maschinen die Daten zwar in der Summe einlesen, allerdings nicht immer detailliert trennen. Wir Menschen unterscheiden die verschiedenen Daten (zb Preis, Name eines Produktes, Beschreibung des Produktes, Artikel-Nr., etc.) durch die Formatierungen, Labels, Überschriften oder anhand anderer Kennzeichen.

Für zb Suchmaschinen ist diese Unterscheidung nicht ohne weiteres Möglich. Aus diesem Grund werden diese Daten explizit eindeutig gekennzeichnet, so das auch Maschinen diese erkennen. Hier ein Beispiel für ein semantische Kennzeichnung:

<stadt>Hannover</stadt> liegt an der <fluss>Leine</fluss>.<author>Daniel Briegert</author> hat diesen Text geschrieben.

Hierdurch ergeben sich viele positive Optimierungsmöglichkeiten, gerade im Umfeld der Suchmaschinenoptimierung (kurz: SEO).
Google selbst liest diese Daten bereits aus und stellt sie gesondert da. Primär über Rich Snippets (seit 2009).

Semantisches Web für SEOs

Welche Auszeichnungen über Rich Snippets sind aktuell am wichtigsten und damit für SEO ein „must have“?
Allgemein kann man sagen: „je mehr, umso besser und sei es nur um für die Zukunft gerüstet zusein!“. Nachteil ist allerdings ggf ein erhöhter Wartungsaufwand, ändern sich die Auszeichnungsstandards leider immer noch in unregelmäßigen Abständen bzw werde ergänzt oder ersetzt.

Aktuell kann die Auszeichnung von Bewertungen, Autoren und die Anzahl der Kommentare die Klickrate in den SERPS deutlich erhöhen, und das bei Gleichzeitig sinkender Absprungrate. Deshalb empfehle ich diese zu implementieren.

Semantische Auszeichnungen in Webshops

Neben der genannten Bewertungsauszeichnungen ist es sinnvoll bei Webshops gerade auf den Produktseiten die jeweiligen Produkteigenschaften auszuzeichnen.

Diese können sein:
Preis
Artikelnummer
rabattierter Preis
Hersteller
Größe
Farbe
Währung
Etc.

Allg. wichtig ist die Auszeichnung der jeweilig relevanten Eigenschaften folgender Seiten bzw Daten:

Events und Veranstaltungen
Produkte und Angebote
Bewertungen
Geschäfte, Restaurants und Organisationen
Filme, Bücher und Rezepte

Zur Auszeichnung empfiehlt sich das Microdata-Markup gemäß schema.org zu verwendet. Zur Validierung, ob das Markup korrekt implementiert wurde, empfehle ich das kostenlose Google Rich Snippet Testing Tool.

Ergänzende Artikel:

Wenn dir der Artikel gefallen hat bzw ein Mehrwert für dich war, wäre ich dankbar wenn du diesen Artikel in den Sozialen-Medien teilen und „liken“ könntest, danke!

SEO – Mehrsprachigkeit: Was ist besser? Mehrere Länderdomains oder eine .com?

8. Mai 2012 at 18:23

Auf der Suche nach geeigneten Domains für eine neue Webseite wird oft die Frage gestellt „Mehrere Länderdomains oder eine .com?“. Als Beispiel fällt mir ein Web-Shops ein, welcher in verschiedenen Ländern präsent sein soll.

Klares Pro-Argument ist ein psychologischer Faktor, und zwar werden bei der breiten Masse der Internetbenutzer (primär ältere Nutzer) Webseiten mit der Länderdomain des jeweiligen Landes, als vertrauenswürdiger angesehen und damit auch mehr genutzt. Google selbst kann die Seiten ebenfalls besser zuordnen, vor allem bei der lokalen-Suche kann dieser Faktor ein Mehrwert sein. Auch kann es durchaus sein dass Anwender die jeweilige Domain intuitiv eingeben oder teile der Domain bei google.de, so dass diese als Vorschlag erscheint.

Aber was ist jetzt SEO-technisch die beste Lösung?

Da großer internationaler Konzern, lieber eine „große“ .com oder .eu Domain mit vielen Unterseiten und den jeweiligen Sprachversionen als Unterkategorien oder doch lieber mehrere Domains mit Länderendungen (.de, .co.uk, .fr, etc.)?

Und was ist jetzt bei gleichsprachigen Ländern wie z.B. Österreich (.at) und gleichzeitig Deutschland (.de)?
Wie wird da verhindert das Google beide  Seiten bzgl. duplicate content abstraft?

Viele Fragen, auf die ich in diesem Artikel eingehen möchte.

Bei der Lösung mit jeweils eigenständigen Länder-Domains, erfolgt eine Aufsplittung der eingehenden Linkpower, wobei bei der 1-Domain-Lösung (z.B. über .com oder .eu mit jeweils Unterseiten pro Land) die Domain den gesamten Link-Juice abbekommt.

Ist das überhaupt ein Problem? Ist mit diesem Faktor schon die Entscheidung gefallen?

Nicht ganz und vor allem ist es weit wichtiger, auch über die regionalen Suche gefunden zu werden.

Mit der .com wird die Seite zwar auch gefunden, wenn jemand „Seiten aus Deutschland“ bei Google anklickt (oder je nach dem aus welchem Land die IP kommt), jedoch nicht Seiten aus Östereich / Seiten aus der Schweiz etc.!

Mit .de, .ch, .at etc. wird automatisch auch die Seite mit der Regionalen Suche gefunden. Was wiederum einfacher zu optimieren ist.

Und wie lösen wir das Duplicate Content Problem bei Seiten mit der selben Sprache aber unterschiedlicher Domain?

Jetzt steht weiterhin dass Problem, der doppelten Inhalte auf zwei verschiedenen Webseiten/Domains mit der selben Sprache, im Raum (z.B. .de und .at). Wie lösen? Durch 301 oder canonical-link würden nicht beide Varianten auch in den SERPs gelistet, was allerdings gewollt ist.

Internationale und mehrsprachige Websites

Schauen wir doch mal bei Google in der FAQ dort wird unser Beispiel genannt.
Gerade im spanischen Raum (Latainamerika, Spanien, etc.) kommt es zu ähnlichen Problen.
Hier geht Google im Detail auf das Problem „Duplizierter Content und internationale Websites“ ein.

Interessant ist meiner Meinung nach die Kombination beider Varianten, daher schon auf die jeweiligen Länderdomains setzen, allerdings auch ein offizielles Länder-Kürzel mit in die URL aufzunehmen, z.B. bei der kanadischen Domain:

http://example.ca/fr/vélo-de-montagne.html http://fr.example.ca/vélo-de-montagne.html

Google sagt dazu

Ein Hinweis auf die Sprache in der URL kann auch dabei helfen, Probleme mit mehrsprachigem Content auf Ihrer Website zu ermitteln.

„Ein Hinweis auf die Sprache in der URL kann auch dabei helfen, Probleme mit mehrsprachigem Content auf Ihrer Website zu ermitteln.

Zusätzlich geht Google auf das Thema „Duplizierter Content und internationale Websites“ ein, allerdings wird genau das Problem nicht erklärt, sondern darauf verwiesen per canonical oder redirect auf die als „bevorzugte Version“ fest gelegte Seite zu leiten. Aber genau das wollen wir ja nicht, die Seiten sollen sowohl mit der .de-domain in den deutschen SERPs als auch mit der .AT-Domain in den Österreichischen SERPs gelistet werden, auch mit dem selben Content.

Ich denke dieser Weg ist Bestandteil der Lösung (neben einbinden der Sprache in der URI):

Einstellungen für die geografische Ausrichtung (Geotargeting). Mithilfe des Geotargeting-Tools in den Webmaster-Tools können Sie für Google angeben, dass Ihre Website auf ein bestimmtes Land ausgerichtet ist. Dies sollten Sie jedoch nur tun, falls Ihre Website eine gTLD (Generic Top-Level Domain) aufweist. Falls sich Ihre Website an mehrere Länder richtet, sollten Sie dieses Tool nicht verwenden. Es wäre beispielsweise sinnvoll, für eine Website über Restaurants in Montreal „Kanada“ als Ziel einzustellen. Hingegen ist dieses Ziel für eine Website, die sich an französischsprachige Nutzer in Frankreich, Kanada und Mali richtet, nicht geeignet.

Zuständlich sollte das Markup Linkelements „rel=“alternate“ hreflang  zur Auszeichnung verwendet werden:

<link rel="alternate" hreflang="es" href="http://www.example.com/" />
<link rel="alternate" hreflang="es-ES" href="http://es-es.example.com/" />
<link rel="alternate" hreflang="es-MX" href="http://es-mx.example.com/" />
<link rel="alternate" hreflang="en" href="http://en.example.com/" />

Anwendungsbeispiel für Österreich, Schweiz & Deutschland

URL: www.website.de/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />

URL: www.website.ch/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

URL: www.website.at/beispielseite/
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

Über hreflang wird also neben der Sprache auch die Region hinterlegt, in der die jeweilige Seite ausgespielt werden soll.

Quelle: googlewebmastercentral-de.blogspot.de/2011/12/neues-markup-fur-mehrsprachige-inhalte.html

Was meint Ihr zu diesem Thema?
Ich würde mich freuen wenn ihr eure Meinung als Kommentar schreibt.

 

Anwendungsbeispiel


URL: www.website.de/beispielseite/

<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />

URL: www.website.ch/beispielseite/
<link rel=“alternate“ hreflang=“de-AT“ href=“http://www.website.at/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

URL: www.website.at/beispielseite/
<link rel=“alternate“ hreflang=“de-CH“ href=“http://www.website.ch/beispielseite/“ />
<link rel=“alternate“ hreflang=“de-DE“ href=“http://www.website.de/beispielseite/“ />

Über hreflang wird also neben der Sprache auch die Region hinterlegt, in der die jeweilige Seite ausgespielt werden soll.

SEO: Tipps zur optimierung der Ladezeiten einer Webseite – Pagespeed optimieren – SEO Tipps

30. April 2012 at 12:49
speed ampel geschwindigkeit performance

© Steve Webel / piqs.de

Die Seitengeschwindigkeit (engl. Pagespeed) bzw. genauer die Ladezeit einer Webseite, ist seit 2010 laut Google ein wichtiges Ranking-Kriterium. Daher ist es wichtig diese regelmäßig zu überwachen (Monitoring), bei schlechten Werten zu analysieren und schlussendlich zu optimieren.

An dieser Stelle möchte ich hierzu ein paar Optimierungs-Tipps geben.

Gerne könnt ihr in den Kommentaren Ergänzungen oder Kritiken schreiben, wenn sinnvoll nehme ich diese gerne in den Artikel mit auf.

Test-Tools / Seitengeschwindigkeit analysieren

Google stellt dafür ein kostenloses Tool zum Performance evaluieren der Webseite zur Verfügung, zu erreichen über den folgenden Link.

https://developers.google.com/pagespeed

Das Tool gibt es auch als kostenloses Browser Plugin:

https://developers.google.com/speed/pagespeed/download

Ladezeit mit Google-Analytics messen

Ich empfehle ebenfalls die Ladezeiten auch mit Google-Analytics regelmäßig zu monitoren.
Detailierte Informationen hierzu unter Google-Analytics.

Ziel: regelmäßiges automatisches Monitoring der Ladezeit

Grafiken komprimieren

Die Ladezeit von Grafiken lässt sich durch automatische Komprimierung wesentlich verkürzen,
Qualitätsunterschiede sind für das menschliche Auge fast nicht erkennen. Ein guter Komprimierungs-Dienst ist z.B.:

Tipp:    JPEGmini.com

Ziel: Grafiken verkleinern ohne merklichen Qualitätsverlust – weniger Datenvolumen zwischen Client & Server

Gzip Komprimierung aktiveren

Die automatische Gzip komprimierung lässt sich über die .htaccess ggf. über den Webserver (Provider) konfigurieren und sollte entsprechend aktiviert sein.

Ziel: Datenvolumen zwischen Client & Server verringern

CSS + Javascript Dateien zusammenfassen

Oft werden mehrere CSS und/oder JS-Dateien verwendet. Durch das zusammenfassen dieser Dateien, vermindern sich die HTTP-Requests (aus verschiedenen wird nur noch einer), dadurch erhöht sich ebenfalls die Ladezeit der Webseite.

Ziel: Weniger HTTP-Requests

Cache aktivieren

Wenn möglich ein Cache-Module des Webservers einbinden und aktivieren (z.B. APC oder MemCache).

Ziel: Webseiten werden im Cache vorgehalten, dadurch verringert sich die Last & Ladezeit des Webservers

SEO: Microformats vs RDF vs Mikrodata – Microformats oder RDF oder Mikrodata verwenden?

28. März 2012 at 18:01

Manch einer nennt Microformats und RDFa die stille Revolution bzgl. semantic web.

Aber was ist am besten? RDFa oder microformats? Wer sich mit der Implementation des semantischen Webs beschäftigt, und z.B. die Umsetzungsempfehlungen aus den Google Webmaster Richtlinien liest, merkt schnell das es verschiedene Wege zur Umsetzung gibt. Aber was ist der besser Weg?

Die Antwort ist nicht so einfach.

Microformats

Gegründet wurde die ursprüngliche Bewegung unter dem Namen microformats.org und der zugehörigen Website im Juni 2005. Die Gründer waren Dan Cederholm und Tantex Çelik. Letzterer ist bei vielen Webentwicklern für seine teilweise hochkomplexen Internet-Explorer-Hacks bekannt, die mit den diversen Kommentarmöglichkeiten spielen. Tantek Çelik hat allerdings auch für Microsoft und Technorati gearbeitet.

Das Besondere an den Microformats von microformats.org ist, dass sie keine neuen Technologien und Standards benötigen. Sie verwenden vollständig die Funktionalität von XHTML. Während die Microformats also quasi jederzeit eingeführt werden konnten, schlug sich das eigentliche semantische Web mit komplexeren Problemen herum. Schon seit vielen Jahren gab es Bemühungen, Bedeutung in Tag-basierte Sprachen zu mischen.

Microformats (oder zu deutsch “Mikroformate”) verwenden bekannte HTML Attribute wie “class” und Hierarchien, um Auszeichnungen aus einer fest definierten Auswahl vor zu nehmen.

Vorteile

  • Einfach
  • Führt keine neuen HTML-Attribute ein, gültiges HTML4.

Nachteile

  • Nur eine fest definierte Auswahl an Formaten, nicht erweiterbar.
  • Keine definierte API zur Extraktion der Daten.
  • Keine definierte Internationalisierungs-Unterstützung.
  • Die Verwendung von “class” kann zu Konflikten mit CSS-Definitionen führen.

Microformats Beispiel

<p class="vcard">
<a class="fn email" href="mailto:mail@fly2mars-media.de">Vorname Name</a> arbeitet als
<span class="role">SEO-Berater</span> für
<span class="org">Fly2Mars-Media.de</a>.
</p>

RDF

RDFa erweitert den HTML-Standard um RDF-Daten in (X)HTML-Dokumente einzubetten.

Der vielleicht wichtigste Ansatz ist RDF, das Ressource Description Framework. Dabei handelt es sich nicht um einen Standard, sondern um eine ganze Standard- Familie. Verwaltet wird sie – wie HTML und XHTML – vom W3C. RDF bietet im Grunde eine Beschreibung von Objekten.

Ursprünglich hauptsächlich für Metadaten gedacht, wurde der Ansatz bald auf alle Arten von Daten ausgeweitet. Da RDF selbst allerdings recht umfangreich ist und nicht direkt mit Websites interagiert, hat das W3C den Microformats-Gedanken aufgegriffen und mit RDFa eine einfache RDF-Variante für die Integration in XHTML geschaffen.

Vorteile

  • Maximale Flexibilität, umfangreich erweiterbar, um eigene Vokabularien zu definieren.
  • Erlaubt Mashups verschiedener Vokabularien.
  • Prefixe erlauben kompakteren Code da URLs nicht immer voll ausgeschrieben werden müssen.
  • Erlaubt die beliebige Verkettung von Elementen.
  • RDFa Dom API

Nachteile

  • Hohe Komplexität.
  • Auf XML und XHTML ausgerichtet, wenn auch mittlerweile in HTML5 einbettbar.
  • Führt 8 neue HTML-Attribute ein.

RDF Beispiel

<p xmlns:v="http://rdf.data-vocabulary.org/#" typeof="v:Person">
<a href="mailto:mail@fly2mars-media.de" rel="v:url" property="v:name">Vorname Name</a> arbeitet als
<span property="v:role">SEO-Berater</span> für
<span property="v:affiliation">Fly2Mars-Media</span>.
</p>

Microdata

Microdata ist eine Erweiterung für HTML5, um semantische Annotationen einzubetten.

Vorteile

Nachteile

  • Erlaubt keine mehrfachen Eigenschaften für Elemente, wie z.B. Email und Name in einem einzigen Link-Element.
  • Führt 5 neue HTML-Attribute ein.

Mikrodata Beispiel

<p itemscope itemtype="http://schema.org/Person">
<a itemprop="email" href="mailto:mail@fly2mars-media.de">
<span itemprop="name">Vorname Name</span>
</a> arbeitet als <span itemprop="jobTitle">SEO-Berater</span> für <span>fly2mars-media.de</a>.
</p>

Fazit

RDF wird gut von Google erkannt, bietet mehr Möglichkeiten als Microformats. Validiert werden können die Seiten mit dem Rich Snippets Testing Tool von Google. Google empfiehlt Mikrodata, wohl auch weil mehr HTML5.

Deshalb verwende ich jetzt RDF und Mikrodata.

Google unterstützt Rich Snippets in der Anzeige der Suchergebnisse (SERPs). Neben Microformats und RDFa wird auch Microdata unterstützt, letzteres ist dabei das bevorzugtes Format und von Google empfohlen. Auf  Schema.org befindet sich eine gute Dokumentation, diese sollte befolgt werden.

Eure Erfahrungen & Ergänzungen?

Her damit, aktuell spannendes Thema, neben Bewertungen, Autoren-Infos, Kontaktdaten, etc. lässt sich vieles damit so auszeichnen das die Daten richtig von den Suchmaschinen (oder anderen Maschinen lesbaren Geräten) richtig erkannt und verarbeitet werden können. Web 3.0 kann kommen! 🙂

SEO optimierte 404-Fehler-Seiten in Magento – 404 error page in magento

21. März 2012 at 17:47

Bei der Migration / Relaunch eines bestehenden Webshops zu Magento oder bei Änderungen der Link-Struktur, Kategorien, CMS, etc. innerhalb Magentos, kann es beim Aufruf alter ungültiger Links zu einer 404-Fehlerseite kommen. Das ist weder für die Besucher, noch aus SEO-Gesichtspunkten optimal. Jeglicher Link-Juice würde so abhanden kommen, mögliche Käufer verschreckt, die Conversion sinkt unnötig.

Standardgemäß wird in Magento die unter Admin-Backend unter „System > Konfiguration > Web > Standardseiten > CMS keine Route Seite“  definierte Seite aufgerufen, allerdings wird dann bei einem Aufruf einer ungültigen Seite/URL der Header Statuscode 404 ausgeliefert. Hierdurch geht der Link-Juice auf diese Seite verloren was sich negativ auf das Google-Rankings auswirkt.

Eleganter ist es meiner Meinung nach, alle nicht mehr vorhandenen Seiten direkt per 301-Redirect, entweder auf die ermittelte (Unter-)Kategorie-Übersichtsseite, notfalls auf die Startseite weiter zu leiten.

Aus diesem Grund ist es notwendig den Magento eigenen NoRoute-Controller durch ein eigenes Modul zu überschreiben.

Die Magento noRouteAction befindet sich in der Klasse /app/code/core/Mage/Cms/controllers/IndexController.php .
Diese Klasse erweitern wir durch ein eigenes Module unter app/code/local/Fly2marsmedia/Redirect

Im Ordner „Redirect“ wird das Verzeichnis „etc“ und „controllers“ angelegt. Im Ordner „etc“ legt ihr die Datei config.xml an mit dem folgenden Inhalt:

<?xml version="1.0"?>
<config>
<modules>
<Fly2marsmedia_Cms>
<version>0.0.1</version>
</Fly2marsmedia_Cms>
</modules>
<frontend>
<routers>
<fly2marsmedia_cms>
<use>standard</use>
<args>
<module>Fly2marsmedia_Cms</module>
<frontName>redirect</frontName>
</args>
</fly2marsmedia_cms>
<cms>
<args>
<modules>
<Fly2marsmedia_Cms before="Mage_Cms">Fly2marsmedia_Cms</Fly2marsmedia_Cms>
</modules>
</args>
</cms>
</routers>
</frontend>
</config>

Anschließend legt ihr im Ordner /controllers die Datei IndexController.php mit folgendem Inhalt ab:

class Fly2marsmedia_Cms_IndexController extends Mage_Cms_IndexController
{
public function noRouteAction($coreRoute = null)
{
  $path = '/';
  $targetUrl = Mage::getUrl($path);
  if($targetUrl != '') {
  Mage::app()->getFrontController()
  ->getResponse()
  ->setRedirect($targetUrl, 301)
  ->sendResponse();
  exit();
}
return $this;
}
}

Final muss das Module noch aktiviert werden. Dazu im Ordner /app/etc/modules eine Datei Namens Fly2marsmedia_Redirect.xml mit folgendem Inhalt ablegen:

<?xml version="1.0" encoding="UTF-8"?>
<config>
<modules>
<Fly2marsmedia_Template>
<active>true</active>
<codePool>local</codePool>
</Fly2marsmedia_Template>
</modules>
</config>

Firefox: User Agent Switcher (mobile & SEO)

22. Juni 2011 at 09:53

Für Webentwickler ist es oft nützlich den User-Agent (Client / Browser / Device) zu ändern, um die Webseite auf anderen Geräten oder für z.b. Google Bot zu evaluieren. Da in der Regel nicht von alle möglichen Geräten (iPhone, Android, iPad, etc.) zum testen verfügbar sind und auch der Google-Bot nicht mal eben im Büro sitzt, sind entsprechende Emulatoren von Vorteil.

Eine gute Variante ist das User Agent Switcher Plugin für Firefox.

Nach der Installation kann bequem über ein Menü der gewünschte Client gewählt werden.

user-agent-switcher-firefox-plugin

SEMSEO Konferenz am 27.05.2011 im Congress Centrum in Hannover

20. Mai 2011 at 20:55

Am 27. Mai 2011 findet im Congress Centrum in Hannover die mittlerweile fünfte SEMSEO Fachkonferenz für Suchmaschinenoptimierung, Suchmaschinenmarketing und Social-Media-Marketing statt. Die Veranstaltung richtet sich an alle SEOs, Webmaster, oder sonstige Fachleute aus den Bereichen Suchmaschinenoptimierung, Web-Marketing, Web-Werbung, Social-Media oder E-Commerce. Die international ausgerichtete Veranstaltung bietet eine Basis zum Austausch unter Profis, hinzu werden dreißig Sprecher, unter anderem Vanessa Fox, Macherin der Google Webmaster Tools, auf der SEMSEO erwartet.

Auch ich (Daniel) bin mit dabei und freue mich darauf alte und neue Bekanntschaften zu treffen. Natürlich werdet ihr hier im Blog eine kurze Zusammenfassung als Bestof finden, sowie live Infos über Twitter & Facebook.

Die Themen der SEMSEO sind unter anderem:

  • Inhouse SEO vs. Agency SEO
  • SEO Trends
  • SEM advanced
  • Global Search & International Linkbuilding
  • Global In-house SEO Challenges
  • Conversion Rate Optimierung
  • SEO Tools
  • Universal Search: Local, News & Images
  • Mobile SEO
  • Build, Seed & Rank – SEO & Social Media
  • Linkbaiting
  • SEO-Klinik
  • Ask the experts