HTML5 & CSS 3 Tutorial – HowTo – Example Page
Ein paar Tipps zur Nutzung verschiedener HTML5 & CSS3 Techniken findet ihr unter folgendem Link:
Ein paar Tipps zur Nutzung verschiedener HTML5 & CSS3 Techniken findet ihr unter folgendem Link:
Ihr möchtet eine Magento Extension ohne Magento-Connect laden?
Über die Webseite connect.get-the-code.de ist dies möglich. Es gibt keine Garantie dass ihr alle Module findet, meine Tests waren bisher viel versprechend positiv und die Trefferquote bisher 100%!
Mit dem folgenden Code könnt ihr in Magento eine Liste aller Attribute und deren Optionen ausgeben.
require_once $_SERVER['DOCUMENT_ROOT'] . '/app/Mage.php'; umask(0); Mage::app(); $product = Mage::getModel('catalog/product'); $collection = Mage::getResourceModel('eav/entity_attribute_collection') ->setEntityTypeFilter($product->getResource()->getTypeId()); echo "<pre>\n"; foreach ($collection as $attribute) { echo $attribute['attribute_code'] . "\n"; $collection = Mage::getResourceModel('eav/entity_attribute_collection') ->setEntityTypeFilter($product->getResource()->getTypeId()) ->addFieldToFilter('attribute_code', $attribute['attribute_code']); $_attribute = $collection->getFirstItem()->setEntity($product->getResource()); $attribute_options = $_attribute->getSource()->getAllOptions(false); if ($attribute_options) { foreach ($attribute_options as $option) { if ($option['label']) { echo "\t" . $option['label'] . "\n"; } } } } echo "</pre>\n";
Um zu verhindern dass durch verschiedene Schreibweisen von URLs duplicate content entsteht, ist es ratsam einheitliche URLs zu erzeugen (z.B. nur die kleinschreibweise zu akzeptieren).
Aus gründen der besseren Benutzbarkeit (usability) ist es natürlich von Vorteil auch verschiedene Schreibweisen der URL zu berücksichtigen, im Detail:
http://www.fly2mars-media.de/seoblog/
sollte genauso berücksichtigt werden wie
http://www.Fly2Mars-Media.de/SeoBlog/
allerdings soll für Google nur eine Schreibweise verwendet werden, da sonst ggf. ein duplicate content problem entsteht.
Die Lösung ist ein rewrite der URL über mod_rewrite, hier die Lösung:
RewriteEngine On # lowercase request_uri and redirect 301 RewriteMap lc int:tolower RewriteCond %{REQUEST_URI} [A-Z] RewriteRule (.*) ${lc:$1} [R=301,L]
Beachtet auch diesen Tipp: Apache: RewriteMap not allowed here Problem
Möchtet ihr bestimmte Ordner ausschließen, so könnt ihr dies z.b. für die Ordner tmp und cache wie folgt:
RewriteCond %{REQUEST_URI} !^/(tmp|cache)
Wenn ihr vom Apache die Fehlermeldung „RewriteMap not allowed here“ bekommt, dann solltet ihr die RewriteMap nicht in die .htaccess anlegen. Selbst bei AllowOveride All dies nicht in der .htaccess möglich.
Um das Problem zu lösen, müsst ihr die Rewrite-Anweisungen in die vhost.conf (bzw. dort wo ihr euren vhost definiert habt) schreiben.
Als SEO ist es manchmal für Tests notwendig sich als Googlebot auszugeben.
Dies geht mit diversen Tools, allerdings auch durch ändern der Konfiguration des Firefox.
Dieser bietet die Möglichkeit, den User Agent frei zu wählen und den Browser als Googlebot auszugeben.
Und so geht’s:
In der Adressleiste des Browsers eingeben: about:config -> Rechte Maustaste -> Neu -> String -> Eigenschaftsname: general.useragent.override -> Wert: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Danach gibt sich der Webbrowser Firefox als Googlebot aus.
Um die Änderung rückgänig zu machen, sucht ihr anhand der Filter den Wert „general.useragent.override“, klickt mit der rechten Maustaste auf diesen und bestätigt das Feld zurücksetzen.
Es kann übrigens zu Schwierigkeiten kommen, wenn man sich dauerhaft als googlebot ausgibt und mit dieser Einstellung im Internet surft. Z.B. beim speichern des Artikels in WordPress gibt es Probleme, solange der Firefox sich als Google-Bot identifiziert. Wahrscheinlich funktioniert eine Javascript-Weiche nicht richtig.
Mit der folgenden Funktion könnt ihr heraus finden ob es sich beim dem Besucher um ein Googlebot oder -Spider handelt:
public function isSpider() { if (strpos($_SERVER['HTTP_USER_AGENT'],"Googlebot")) return true; else return false; }
Google geht weiter gegen SPAM und manipulativen Linkaufbau vor. Der neue Algorithums der Suchmaschine Google wertet ab sofort nur noch Links aus Blogkommentaren ab einer Länge von 250 Zeichen. Bei kürzeren Kommentaren sowie wenn die Kommentaren keine inhaltliche Übereinstimmung mit dem Blogbeitrag aufweisen, werden die enthaltenen oder mit dem Nutzernamen verlinkte URLs nicht länger für das Ranking als Backlinks gewertet.
Google selbst schreibt dazu:
If you’re a blogger, you’re painfully familiar with people who try to raise their own websites search engine rankings by submitting linked blog comments like “Wow, thanks for that great article”. From now on, those links won’t get any credit when the comment is shorter than 250 characters or not includes relevant keywords on topic of the blogpost. It’s just a way to make sure that spammers get no benefit from abusing public areas like blog comments, trackbacks, and referrer lists.
Ob die Änderung auch für die Wertung von Links aus alten Blogkommentaren gelten ist nicht bekannt. Die Änderung wird viele Blog-Betreiber eine erfreuliche Nachricht sein, hat der Blog-Kommentar-SPAM in den vergangen Monaten doch arg zugenommen.
Mit diesem kostenlosen dem Reverse IP Lookup Tool ist es einfach möglich seine IP-Nachbarn zu finden um diese auszuwerten: www.yougetsignal.com/tools/web-sites-on-web-server
Google arbeitet auch auf IP-Basis, ein Bad-Neighbour auf dem gleichen Server (gleiche IP, aber über ein anderen Domain-Name zu erreichen, bei shared-hoster üblich) kann das Ranking sehr negativ beeinflussen. Bad-Neighbour sind z.B. Webseiten mit Pornografischen- oder SPAM-Inhalten (Linkfarm, etc.).
Ein weiterer Mehrwert ist heraus zu finden ob der IP Nachbar vielleicht sehr viel Traffic verursacht und damit den Server und somit auch meine eigene Seite gebremst wird (Performancerecherche).
Gerne könnt ihr weitere Webseiten in den Kommentaren veröffentlichen welche ähnlichen Service kostenlos anbieten. Ich werde diese dann mit in die Liste aufnehmen.
Ihr möchtet unter Windows Euer eigenes SSL Zertifikat erstellen? Zum Beispiel um die Verbindung seines FTP oder Webservers zu verschlüsseln.
Mit der Hilfe von FileZilla FTP Server ist dies mit wenigen klicks unter Windows möglich.
Nach der Installation zuerst die FileZilla Server.exe starten. Danach die FileZilla Server Interface.exe, klickt dort in dem kleinen Fenster auf ok, ohne weitere Werte einzugeben und ihr landet im Hauptfenster der Serverkonfiguration. Jetzt ein Klick auf Edit, dann auf Settings.
Unter SSL/TLS Settings verbirgt sich der Generate new certificate Button.
Das Zertifikat läßt sich zum Beispiel auch für den ZendServer oder Xampp (Apache-Webserver für Windows) verwenden.
Kopiert die erzeugte crt-datei in das apache ssl.crt-Verzeichnis, z.B.:
C:\programme\apache\conf\ssl.crt\server.crt
Dass selbe mit dem server.key, z.B.:
C:\programme\apache\conf\ssl.key\server.key, dort muß der Inhalt der eigenen .pvk Datei reinkopiert werden.
Ein Server.key könnt ihr auch mit dem folgenden Befehl erstellen (setzt installierten openssl voraus) :
openssl.exe genrsa -des3 -out server.key 1024