Kostenlose SEO Programme (Freeware)

6. November 2009 at 13:22

Bei der Suchmaschinenoptimierung (SEO) gibt es immer wieder kehrende Tätigkeiten welche es zu automatisieren gilt. Vor allem kostenlose Programme vereinfachen die Arbeit enorm. Hier finden Sie eine Übersicht an kostenlosen Freeware Tools, die Sie herunterladen und auf Ihrem Rechner installieren können.

Xenu

Ein sehr gutes Freeware Programm zur Analyse von Webportalen. Mit Analyse der Downloadgröße, eingehender und ausgehender Links jeder Seite, Gesamtanzahl der internen Links etc.

Download Xenu

Free Monitor for Google

Ein kostenlose Tool um für Ihre Webseiten die aktuelle Platzierung in der Suchmaschine Google anhand definierter Keywords heraus zu finden.

Download Free Monitor for Google

Online Tool von Seitenreport

Online bietet die Seite Seitenreport ein kostenlosen Online-Live-Check der Webseite, einfach URL eingeben und nach ein paar Sekunden erscheint die Auswertung!

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Google Leitpfaden für Suchmaschinenoptimierung (SEO) – Teil 1

6. November 2009 at 09:00

Hier eine Zusammenfassung der offiziellen Aussagen aus dem Webmaster Zentrale Blog bzw. des Google Verantwortlichen Matt Cutts für den Bereich Suchmaschinenoptimierung (SEO). – Teil 1

Sind Produktbeschreibungen auf E-Commerce-Seiten Duplicate Content, falls die gleichen Produktbeschreibungen auf anderen Seiten auftauchen? Dies passiert bei vielen Markenartikeln.

Google (Matt Cuts) sagt:

Man sollte sich fragen:
„Wo ist bei mir der Mehrwert? Was hat meine Affiliate-Site oder Site ohne eigenen Content an Mehrwert im Vergleich zu den hunderten anderer Sites?“

Wenn möglich, versucht eigenen Content zu erstellen und einen einzigartigen Mehrwert zu bieten. Nehmt nicht einfach einen Affiliate-Feed und schustert damit eine billige Site zusammen. Sowas möchte doch eigentlich niemand sehen. Im Allgemeinen ist es also am Besten, wenn ihr einen eigenen Blickwinkel bietet und nicht bloß genau das Gleiche, was alle anderen auch haben.

Quelle

Es scheint von geringer Bedeutung für Besucher zu sein, wo genau sich eine Seite innerhalb der Sitestruktur befindet. Ist es besser, Content-Seiten nahe an der Root zu platzieren, oder sollten sie in eine tiefere, Themen bezogene Struktur eingeordnet sein?

Google (Matt Cuts) sagt:

Dies ist kein SEO-Tipp. Dies ist ein rein praktischer, allgemeiner Tipp. Je weniger Klicks benoetigt werden,
um eine Seite von der Root aus zu erreichen, desto wahrscheinlicher ist es, dass Besucher sie finden. Falls jemand achtmal klicken muss, um die Registrierungsseite für eure Konferenz zu finden, anstatt sich gleich auf der Hauptseite registrieren zu können, dann werden weniger Leute diese durch so viele Klicks entfernte Seite finden.

Quelle

Wie genau geht Google beim Backlink-Check mit [link:…] vor? Werden alle Nofollow-Backlinks ausgefiltert oder warum zeigen Yahoo/MSN mehr Backlinks oder Ergebnisse?

Google (Matt Cuts) sagt:

Früher hatten wir nur für einen kleinen Anteil der Backlinks Platz, weil die Websuche im Mittelpunkt stand und wir nicht so viele Server für diese Link-Doppelpunkt-Anfragen hatten. Im Laufe der Zeit haben wir die Anzahl der Backlinks, die wir mit Link-Doppelpunkt anzeigen, stark vergrößert. Es ist aber immer noch nur ein Ausschnitt, ein relativ kleiner Anteil.

Quelle

Ist eine Website mit einem CSS-basierten Layout SEO-freundlicher als eine Site mit einem tabellenbasierten Layout?

Google (Matt Cuts) sagt:

Ich würde mir, ehrlich gesagt, nicht so viele Gedanken darüber machen.
Wir erkennen Tabellen, wir erkennen CSS – wir können mit beidem umgehen.
Wir versuchen beides zu bewerten, egal welche Art von Layout ihr nun verwendet.

Ich würde das nehmen, was für euch am besten funktioniert.

Quelle

Wenn man eingehende Links von Websites mit gutem Ruf kriegt, aber diese Websites nicht in einer Suche mit [link:webname.com] auftauchen, heißt das, dass aus der Perspektive von Google diese eingehenden Links nicht zählen?

Google (Matt Cuts) sagt:

Nein, das tut es nicht. Link-Doppelpunkt zeigt nur einen Ausschnitt, einen Teilausschnitt von den Backlinks, die wir kennen. Und es ist ein zufälliger Ausschnitt. Deshalb zeigen wir nicht nur die Backlinks mit hohem PageRank. Das haben wir früher so gemacht – und dann konnten alle mit PageRank 4 oder darunter ihre Backlinks nicht sehen, weil sie nicht als hoher PageRank zählten. Deshalb haben wir es fairer gestaltet, indem wir zufällig bestimmen, welche Backlinks wir zeigen.

Quelle

Wie mit ungewollten Links Umgehen (schlechte Nachbarschaft)

Google (Matt Cuts) sagt:

Falls eure Site von dubiosen Quellen angelinkt wird, besteht kein Grund zur Panik… lest einfach weiter!

Es trifft zu, dass Verlinkung für den Google-Algorithmus eine sehr wichtige Rolle spielt, allerdings ist es nur einer von vielen Faktoren. Hochwertige Inhalte – wir sagen das sehr oft und gern – und nützliche Tools oder Services spielen eine große Rolle. Die Struktur der Website, zum Beispiel das Vorkommen von Keywords im Seitentitel oder die Keyword-Dichte einer Seite, ist ein weiterer Faktor. Wenn ihr also seht, dass eine Website von schlechter Qualität zu eurer Site linkt, dann denkt auch daran, dass es neben Links noch viele andere Kriterien gibt, die dazu beiträgen, wie Google eine Website bewertet. Aus der Perspektive der User sind regelmäßige Aktualisierungen und guter Contet die ausschlaggebenden Dinge.

Quelle

Frage: Wird Anchor-Text durch alle 301-Weiterleitungen übernommen? Gibt es eine Penalty für Websites, die beim Linkaufbau nur darauf setzen?

Google (Matt Cuts) sagt:

Normalerweise wird der Anchor-Text übernommen, wenn eine 301-Weiterleitung stattfindet, aber wir versprechen nicht, dass dies jedesmal geschieht.

Die Frage ist ja: wird er immer übernommen? Nicht unbedingt. Wir behalten uns das Recht vor, nicht nur Links zu werten und wie wir die Bedeutung und den Trust von Links bestimmen, sondern ebenso den Trust, den wir Redirects zuordnen. Ich kann verraten, dass, falls ihr beim Linkaufbau nur auf 301-Redirects setzt, das ziemlich auffällig ist, weil wir alle Redirects, die uns unterkommen, loggen, genauso wie wir alle Links loggen.

Quelle

Was ist deine Meinung zu ‚PR-Sculpting‘ (also PR-Formung)? Nützlich und zu empfehlen, falls richtig gemacht oder doch unmoralisch?

Google (Matt Cuts) sagt:

Nun, ich würde nicht sagen, dass es unmoralisch ist, denn es ist ja alles auf eurer Website – ihr könnt natürlich bestimmen, wie der PR innerhalb eurer Site fließen soll. Ich würde sagen, dies ist nicht das Erste, an dem ich arbeiten würde.
Ich würde daran arbeiten, mehr Links zu bekommen und hochwertigen Content zu bieten – das sind immer die Dinge, die ihr als Erstes beachten solltet. Aber wenn ihr bereits einen bestimmten Stand an PR erreicht habt, dann könnt ihr natürlich daran arbeiten, den PageRank zu „formen“.

Quelle

Betrachtet Google das Yahoo!-Verzeichnis oder Best of the Web als Quellen bezahlter Links? Falls nicht, weshalb ist dies dann anders als bei anderen Sites, die Links verkaufen?

Gute Redaktionell betreute Verzeichnisse wie z.B. beim Yahoo!-Verzeichnis, wo Einträge auch abgelehnt werden, ist ein Eintrag durch aus positiv. Verzeichnisse wo Einträge bezahlt werden müssen, eher negativ weil deren Mehrwert für den Benutzer geringer ist.

„Wann immer wir danach schauen, ob ein Verzeichnis nützlich für User ist, fragen wir uns, o.k., was ist der eigentliche Nutzen dieses Verzeichnisses.“

Quelle

Content oder Links? Was ist wichtiger?

Google (Matt Cuts) sagt:

Googles Algorithmus wird ständig weiterentwickelt. Ist es da besser, außergewöhnliche Links und mittelmäßigen Content zu haben oder außergewöhnlichen Content und mittelmäßige Links?

Guter Content muss die Grundlage jeder guten Website sein, weil mittelmäßiger Content eben keine außergewöhnlich guten Links anzieht, und wer versucht solche Links für wirklich schlechten Content zu gewinnen, macht es sich echt schwer. Ihr würdet zu Techniken greifen müssen, die wir als anrüchig oder schlecht fürs Web halten: beispielsweise Linkkauf.
Deshalb ist es viel besser, guten Content zu erstellen, um diese Links auf natürliche Art und Weise zu erhalten und so beides zu haben: guten Content und dadurch gute Links.

Quelle

Welches Suchmedium liefert verlässlichere Ergebnisse: Google oder Twitter?

Google (Matt Cuts) sagt:

Twitter ist toll, um Nachrichten in Echtzeit zu erfahren und fantastisch, um Fragen an eure Freunde zu stellen. Und in Google versuchen wir hingegen, wirklich verlässliche und seriöse Informationen zu liefern. Wenn ihr also nach dem Datum sortiert, dann ist Twitter fantastisch.
Wenn ihr eine Antwort auf eine Frage sucht, die seit einiger Zeit besteht, dann ist Google großartig dafür.

Quelle

Hier geht es weiter zu Teil 2

Sie Benötigen Unterstützung bei der Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Was ist Black Hat SEO?

23. Oktober 2009 at 15:23

Gerade für unerfahrene SEOs ist jedes Mittel recht welches dazu hilft innerhalb kürzester Zeit die Webseite in die Top10 der Suchmaschinen zu katapultieren.

Als SEO sollte man wissen welche Methoden erlaubt sind und welche gegen die Richtlinien der Suchmaschinen verstoßen. Z.B. die Google Webmasterrichtlinien sollten einem geläufig sein! So besteht keine Gefahr dass die Seite ab gestraft oder gar aus dem Index der Suchmaschinen fliegt.

Black Hat SEOs fallen häufig durch übermäßige SPAM-Einträge auf um schnellstmöglich eine Link-Struktur zur Webseite aufzubauen. Sei es in Blogs, Foren oder durch Landing-Pages.

Die folgenden Punkte sollen keines Wegs dazu animieren sie einzusetzen, sondern werden als Beispiele aufgezählt welche Methoden NICHT benutzt werden sollten! Die Benutzung dieser Methoden kann neben der Abstrafung der eigenen Webseite durch die Suchmaschinen, auch rechtliche Folgen mit sich bringen.

Black Hat Techniken sind z.B.

  • Doorway Pages bauen: Doorway Pages sind im Prinzip für den Nutzer einer Site sinnlos. Sie werden deshalb auch nicht von der eigentlichen Website aus verlinkt und sind nur über Suchmaschinen zugänglich. Durch einfache Methoden der Link-Analyse erkennen heutige Suchmaschinen Doorway Pages recht einfach, so dass zumindest die einfache Form nicht mehr sinnvoll eingesetzt werden kann.
  • Blogs, Foren, etc. mit eigenen SPAM und Backlinks füllen
  • Meta Tag Stuffing: Keywords in dem HTML Meta Tag describtion unterbringen
  • endlose Wiederholungen der Meta Keywords
  • Sich in Linkfarmen einkaufen oder selbst erstellen
  • Hidden Content (unsichbarer Text): Verstecken von unrelevanten Texten mit so einfachen Mitteln, wie weiße Schrift auf weißem Grund oder per CSS die Sichtbarkeit ausblenden

Weitere Möglichkeiten der Black SEO ist es zu versuchen dass die Konkurrenzseiten aus dem Index der Suchmaschinen fliegen oder einfach im Ranking abstürzen zu lassen!

Gängige Methoden sind:

  • Google Bowling: Um eine Webseite im Google-Ranking abstürzen zu lassen, werden Maßnahmen getroffen, welche Google mit Index-Sperrung beantwortet.
  • Tattling: Google mag keine bezahlten Links. Somit genügt es die bezahlten Links, welche der Betreiber der Zielwebsite geschaltet hat, einfach Google zu melden. Alterantiv können auch einfach selber bezahlte Links geschaltet und anschließend gemeldet werden.

Fly2Mars-Media unterstützt Sie bei der Optimierung (SEO) Ihrer Webseite nach den gängigen Google Webmaster Richtlinien, sowie bei der Optimierung der Inhalte. Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Wie wichtig ist SEO Software ?

20. Oktober 2009 at 22:14

Viele SEO-Agenturen und Berater konzentrieren sich, gerade in der Vorab-Analyse, auf SEO Software und deren „Reports“. Auf dem Markt gibt es Einige, SISTRIX Tools, Searchmetrics Suite™, Seolytics, Linkmoz Tool Membership, Majestic SEO oder als Offline-Tool auch das Programm IBP – Internet Business Promoter.

Die Preise der Tools variieren ist je nach Version teilweise zwischen 300-700 Euro.

Top 10 Positionen bei Google kann keine dieser Software garantieren. Eine Analyse ist nur die halbe Miete, auf die richtige Auswertung und Umsetzung kommt es an. Die Tools überprüfen die Webseite und auch die Konkurrenz wird dabei durchleuchtet. Eine Analyse der Keywords findet statt und es werden Tipps für die Optimierung ausgegeben.

Professionelle SEOs kennen die erfolgreichen und aktuellen SEO Massnahmen und setzen diese richtig um. Da stellt sich natürlich die Frage „Benötige ich für die professionelle SEO Arbeit wirklich eine SEO-Software ?“

Wie ist Eure Meinung zu dem Thema „benötige ich kostenpflichtige SEO-Software?“

robots.txt vs. noindex

13. Dezember 2013 at 17:51

seokanzler contest

Des Öfteren werde ich gefragt welche die Beste Möglichkeit ist die indexierung einer Seite durch Google zu unterbinden.

Methoden um die indexierung von webseiten zu unterbinden

Dazu gibt es bekannterweise verschiedene Möglichkeiten, am interessantesten ist hierbei der Einsatz der robots.txt sowie den meta noindex-Metatag .

Klingt erst mal einfach, ist es aber nicht! 😉

Der Irrglaube

Weit verbreitet ist der Irrglaube dass eine in der robots.txt mit disallow markierte URL nicht indexiert werden kann. Das ist schlichtweg falsch! Die robots.txt dient nur zur Steuerung des jeweiligen Crawlers der Suchmaschinenanbieter. In der Regel halten sich diese an die Einträge in der robots.txt, eine Pflicht dazu gibt es allerdings nicht. Praxis Erfahrungen zeigen das selbst Google sich nicht immer an diese Einträge hält.

Übrigens der historische Zweck der robots.txt war, den Crawler von den Bereichen der Website fern zu halten, die eine besonders hohe Serverlast erzeugten. Der Nebeneffekt dabei: die per robots.txt “geschützten” URLs konnten nicht in den Index gelangen.

Aktuell ist es allerdings so, das Google selbst eintscheidet welche Links sie verfolgen und indexieren und welche nicht. Hat ein Link bzw. eine Seite für Google eine sehr hohe Bedeutung, so kann bereits ein Link auf eine URL reichen um die URL in den Index mit aufzunehmen. Dabei nimmt Google so gar Seiten auf, wenn sie vom Crawler noch nicht einmal besucht wurden.

Und schwups sind Seiten im Index die per robots.txt gesperrt sind.

Die Praxis-Falle

In der Praxis würde jetzt der Webseitenbetreiber nachträglich ein meta-tag mit noindex setzen – <meta name=“robots“ content=“noindex“>. Gut gemeint aber jetzt passiert folgendes: nix

???

Da die Seite per Disallow-Anweisung in der robots.txt-Datei für den crawler gesperrt ist, besucht dieser die Seite nicht und z.B. Google kennt diesen Meta-Tag auf dieser Seite nicht, da die Seite selbst nicht besucht wird.

Der Einsatz von robots.txt und des Noindex-Metatags widerspricht sich hiermit und deshalb sollten die Einträge abgestimmt werden!

robots.txt und metatag-nofollow richtig einsetzen

Wie lösen wir jetzt das Problem bzw. wie setzen wir die beiden „Tools“ korrekt ein?

Die robots.txt sollte immer nur dann verwendet werden, wenn es erwünscht ist dass ein Crawler auf eine geschützten URLs nicht zugreifen soll oder einfach die Last des Servers gesenkt werden soll. Das kann sein z.b. der Login-Bereich, bestimmte Bilder, Dateien, etc. pp, auch das duplicate Content Problem kann damit angegangen werden.

So erreichen wir dass der Crawler sich nicht mit unnötigen URLs verlustiert und anschließend keine Ressourcen mehr für die wichtigen Seiten übrig hat. Aus SEO-Sicht müssen wir ggf. damit leben, dass manche URLs trotzdem im Google-Index gelistet werden.

Wollen wir definitiv das Listing einer Seite im Google-Index verhindern, so kommen wir um den Einsatz eines noindex-Metatag nicht herum. Dabei ist zu berücksichtigen dass die Suchmaschinen Zugriff auf diese Seite haben und sie NICHT per robots.txt als disallow markiert ist.

Übrigens, der Einsatz des nofollow-attributes für links ist nur eine Empfehlung für die Suchmaschinen diese Seite nicht zu indexieren. In der Praxis hält sich Google sowieso nicht daran, bewertet die Links nur schlechter beim Ranking. Hinzu kommt das Google seiten auch negativ sieht welche nur nofollow-tags haben. Ist ja klar, die Seite erlaubt Google keine ausgehenden Links zu scannen und ist für den Crawler eine Sackgasse.

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

Content Marketing: Darauf sollten Website-Betreiber achten

5. Dezember 2013 at 15:56

Dies ist ein Gast-Artikel von Fabian Heyer von seosupport.de

Die inhaltliche Aufstellung des eigenen Web-Angebots ist naturgemäß ausgesprochen wichtig. Ganz klar, der gebotene Content, also Texte, Bilder und Videos, ist eines der ausschlaggebenden Kriterien, geht es um eine anständige Konversionsrate.

Um aber erst einmal für gute Besucherzahlen zu sorgen, braucht es ebenfalls entsprechenden Inhalt, denn für die Suchmaschinenoptimierung (SEO) ist neuer und frischer Content so wichtig wie eh und je.

In einigen Fällen kollidieren allerdings diese beiden Aspekte des Onpage-Contents. Denn der bereits erstelle und veröffentliche Inhalt mag zwar ideal sein, um Besucher zu einem Kaufabschluss zu bewegen, weißt aber nicht zwangsläufig alle relevanten Merkmale auf, die für die SEO-Arbeit wichtig sind. Einige Website-Betreiber tun sich schwer damit, vorhandene Texte entsprechend umzuschreiben, so dass auch der Suchmaschinenoptimierer glücklich ist. Hier lohnt es sich, den vorhandenen Content durch weiteren Inhalt zu ergänzen, der diesen Vorgaben entspricht.

Der schwere Weg zum „unique content“

Seit schon längerer Zeit predigen die SEOs „Content, Content, Content“, denn Google wertet neuen Inhalt erst einmal positiv. Schließlich kann nur ein gerade erst eingestellter Beitrag etwas Neues und somit Interessantes für die User bereithalten, so die Annahme. Eine regelmäßige Erstellung von neuen Beiträgen ist also ein großes Plus für die SEO-Arbeit einer Seite.

Was viele Webmasters dabei immer wieder missachten: Der Content muss unbedingt „unique“, also absolut einzigartig sein! Einen Beschreibungstext zu einem bestimmten Produkt von der Website des Herstellers zu übernehmen, ist so genannten duplicate content (etwa: doppelter, duplizierter Inhalt). Google wertet dieses nicht nur als nutzlos, sondern unterstellt sogleich auch noch den Versuch, die Website absichtlich interessanter zu machen als sie eigentlich ist. Eine Herabstufung bei den Suchergebnissen ist die Folge.

Selbstgemacht muss nicht unbedingt aufwendig sein

Es bleibt also nichts anderes übrig, als immer wieder für neuen, eigenen Inhalt zu sorgen. Es muss nicht immer gleich ein langer Beitrag sein, ein neues Video oder eine Bildershow (gerne mit Beschreibungstext) sind ebenfalls eine gute Sache.

Hier ein paar Anhaltspunkte, die man bei der Erstellung und Nutzung von Content für die Suchmaschinenoptimierung berücksichtigen sollte:


Content-Marketing:21 neue Regeln

Wenn euch der Tipp geholfen hat, bitte diesen Artikel auch bei Google+ und Facebook teilen, danke für euren Support!

Robots.txt in Magento

5. März 2013 at 15:32

Die Robots.txt dient zur Steuerung der Webcrawler diverse Suchmaschinen, primär wird dort fest gelegt welche Seiten nicht gecrawlt werden sollen.

Magento hat viele Ordner und Dateien sowie Parameter/Filter, etc. welche nicht gescannt werden sollten, sei es aus Sicherheitsgründen als auch um das Duplicate Content Problen in den Griff zu bekommen:

## robots.txt for Magento Community and Enterprise

## GENERAL SETTINGS

## Enable robots.txt rules for all crawlers
User-agent: *

## Crawl-delay parameter: number of seconds to wait between successive requests to the same server.
## Set a custom crawl rate if you’re experiencing traffic problems with your server.
# Crawl-delay: 30

## Magento sitemap: uncomment and replace the URL to your Magento sitemap file
# Sitemap: http://www.example.com/sitemap/sitemap.xml

## DEVELOPMENT RELATED SETTINGS

## Do not crawl development files and folders: CVS, svn directories and dump files
Disallow: CVS
Disallow: .svn
Disallow: .idea
Disallow: .sql
Disallow: .tgz

## GENERAL MAGENTO SETTINGS

## Do not crawl Magento admin page
Disallow: /admin/

## Do not crawl common Magento technical folders
Disallow: /app/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /lib/
Disallow: /pkginfo/
Disallow: /shell/
Disallow: /var/

## Do not crawl common Magento files
Disallow: /api.php
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /get.php
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /README.txt
Disallow: /RELEASE_NOTES.txt

## MAGENTO SEO IMPROVEMENTS

## Do not crawl sub category pages that are sorted or filtered.
Disallow: /*?dir*
Disallow: /*?dir=desc
Disallow: /*?dir=asc
Disallow: /*?limit=all
Disallow: /*?mode*

## Do not crawl 2-nd home page copy (example.com/index.php/). Uncomment it only if you activated Magento SEO URLs.
## Disallow: /index.php/

## Do not crawl links with session IDs
Disallow: /*?SID=

## Do not crawl checkout and user account pages
Disallow: /checkout/
Disallow: /onestepcheckout/
Disallow: /customer/
Disallow: /customer/account/
Disallow: /customer/account/login/

## Do not crawl seach pages and not-SEO optimized catalog links
Disallow: /catalogsearch/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/

## SERVER SETTINGS

## Do not crawl common server technical folders and files
Disallow: /cgi-bin/
Disallow: /cleanup.php
Disallow: /apc.php
Disallow: /memcache.php
Disallow: /phpinfo.php

## IMAGE CRAWLERS SETTINGS

## Extra: Uncomment if you do not wish Google and Bing to index your images
# User-agent: Googlebot-Image
# Disallow: /
# User-agent: msnbot-media
# Disallow: /

Verschiedene versionen der robots.txt pro domain/store per htaccess ausliefern – so geht’s

Mit hilfer der folgenden Einträge in der .htaccess-Datei könnt ihr anhand der Domain/Subdomain verschiedene robots.txt ausliefern:

 RewriteEngine on

RewriteCond %{HTTP_HOST} ^.*?domain2\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version1.txt

RewriteCond %{HTTP_HOST} ^.*?domain1\.tld$ [NC]
RewriteRule ^robots\.txt$ robots.version2.txt

Home Office vs Büro – Vor- und Nachteile der Arbeit von zu Hause vs. Arbeiten im Büro

25. September 2012 at 16:32

Gerade im technischen IT-Bereich stellen sich, z.B. Softwareentwickler oder IT-Berater, aufgrund der Ortsunabhängigkeit oft die Frage: „Im Büro arbeiten oder doch lieber im Home-Office?“.

Die Frage ist berechtigt, denn haben beide Arbeitsplätze ihre Vor- und Nachteile und ihren ganz eigenen Charme. Auch der Kostenfaktor und die Familie ist dabei nicht zu vernachlässigen.

Im IT-Bereich sind viele Ortsunabhängig

Da ich beides kenne, möchte ich euch mit diesem Artikel die Unterschiede sowie die Vor- und Nachteile der beiden Varianten aufzeigen und gerne mit euch im Nachgang diskutieren (schreibt dazu etwas als Kommentar oder eröffnet eine Diskussion bei Facebook oder Google+, danke!).

Gerade Entwickler oder Administratoren, welche ihre Systeme remote verwalten können, arbeiten meist eigenständig und sind völlig Ortsunabhängig. Die Kommunikation erfolgt fast vollständig digital per Email, Facetime, Skype oder wenn notwendig auch per Telefon. Meetings werden ebenfalls per Telko abgewickelt, Vor-Ort-Termine sind fast gar nicht notwendig.

Diese Punkte sprechen für das Home Office

Geringer Kosten bei Selbständigkeit: Die Kosten beim Arbeiten in den eigenen vier Wänden ist def. geringer als in einem gemieteten Büro. Dieser Vorteil existiert allerdings nur bei Selbständigen. In einer Festanstellung ist es genau umgekehrt, denn in diesem Fall erfolgt eine Verschiebung der allg. Fixkosten (Strom, Nebenkosten im allg., etc.) vom Arbeitgeber auf den Arbeitnehmer. Diese können allerdings steuerlich abgesetzt werden.

Büro ist Krieg

Freiheiten: Im Büro gibt es meist feste Regeln und feste Arbeitszeiten, hinzu kommt dass das Arbeiten im Büro oft nicht stressfrei und ohne Ablenkung über längere Zeit möglich ist. Gerade in Großraumbüros existiert ein ständiger Lärm und damit nerviger Stresspegel. Lärm lenkt ab, Lärm ist Stress, Lärm macht krank! Kollegen lenken ab, langes konzentriertes Arbeiten kann deshalb im schlimmsten Fall gar verhindert werden. Sei es sinnvolle regelmäßige Fachgespräche der nahen Kollegen, private Probleme die diskutiert werden, Telkos im Büro anstatt im Meetingraum, viel telefonierende Kollegen oder andere ungewollte Ablenkungen. Für einen Projektmanager ist es ebenfalls meist verlockender direkt seinen Kollegen aus seiner konzentrierten Arbeit heraus zu katapultieren, anstatt ihm eine Email zu senden, welche er in einer Ruhephase ohne Ablenkung beantworteten kann.

effektives Zeitmanagement?

Oft wird von den Mitarbeitern effektives Zeitmanagement gefordert. Doch wozu eigentlich? Unter den genannten Bedingungen ist es fast nicht möglich dieses effektiv umzusetzen.

Die Wahl der Arbeitszeit eine wichtige Freiheit

Eine weitere wichtige Freiheit ist die Wahl der Arbeitszeit. Gerade bei familiären Selbständigen oder Arbeitnehmern, ist es oft sehr schwer seine familiären Verpflichtungen unter einen Hut mit der vielen Arbeit zu bekommen. Dabei ist egal ob Gleitzeit oder nicht. Sind Kleinkinder in der Familie, so fehlt einfach die Zeit. Kinder stehen früh auf und gehen ebenfalls früh ins Bett. Wer erst nach 18/19 Uhr aus dem Büro nach Hause kommt hat kaum Chancen sein Kleinkind noch wach zusehen. Gerade in den ersten Jahren kann dadurch das Verhältnis zum Kind leiden. Und wer möchte nicht sein Kind aufwachsen sehen?

Familie und Arbeit lässt sich im Home-Office perfekt kombinieren. Arbeitszeiten können soweit möglich beliebig gestaltet werden und perekt mit der Familie abgestimmt werden. Schul-, Kindergarten- oder Schlafenszeiten der Kinder können als Arbeitszeit geplant werden, andere Zeiten für die Familie genutzt werden. Die Frau und das Kind werden es einem def. mehr als danken!

An- und Abfahrtsweg zum Büro entfällt

Kurze Wege zum Büro: Die tägliche An- und Abfahrt zum Büro entfällt im Homeoffice , da es sich ja in unmittelbar Nähe zur Wohnung befindet. Lange Fahrten zum Büro werden dadurch verhindert, das spart nicht nur Kosten sondern auch enorm Zeit! Die Familie und Umwelt werden es danken!

Hohe Flexibilität: Bei einem Homeoffice ist die persönliche Flexibilität enorm. So kann z.B. die Arbeit, wenn es der Zeitplan erlaubt, zu jeder Zeit unterbrochen werden und zu einer besseren Zeit, z.B. auch spät am Abend wenn die Familie schläft, fortgesetzt werden.

Diese Punkte sprechen für das Büro

Die Vorteile des Home-Office scheinen unschlagbar zu sein, doch auch das Büro hat seine Vorteile welche ich euch kurz aufzeigen möchte:

Bessere Seriösität: Das Erscheinungsbild eines Unternehmen ist ein wichtiger Faktor bei der Öffentlichkeitsarbeit. Ein eigenes Büro mit einer eigenen Adresse, Telefonnummer, etc. wirkt definitiv seriöser und professioneller.

Optimalere Infrastruktur: In Bürozentren gibt es oft zusätzliche Räume für Konferenzen, Schulungen, Kopierräume, Parkplätze, etc.

Trennung Privat und Beruf: Ist das Büro vollständig von der Privat-Wohnung getrennt, so ist die Trennung zwischen privat und beruflich besser möglich. Einigen fällt es schwer Privat und Beruflich zu trennen, deshalb wäre die Arbeit im Home-Office nicht so effizient wie im Büro.

Besseres Networking unter Kollegen: Wissenstransfer und allg. Austausch bei der Findung von Lösungen bei Problemen ist im Büro teilweise effizienter Möglich da direkter Kontakt besteht. Dieser Vorteil kann sich allerdings dahin gehend aufheben, dass hierdurch eine Ablenkungsgefahr besteht.

Fazit

Jeder sollte für sich selbst eintscheiden welche Form des Arbeitsplatzes am Besten für ihn geeignet ist.
Folgende Fragen helfen hierbei:
Lade ich Kunden und oder berufliche Kontakte zu mir ein? (es müssen nicht immer nur Kunden sein)
Kann ich mir ein Büro preislich leisten? (Diese Frage sollte nur am Anfang der Selbständigkeit wichtig sein)
Benötige ich zusätzliche Infrastruktur/ Räume? (z.B. Schulungsräume)
Wie sieht die private Situation aus? (Kinder vorhanden?)
Wird geplant Mitarbeiter einzustellen?

Und wo arbeitet ihr? Seit ihr selbständig? Habt ihr noch weitere Vor- oder Nachteile welche ich mit aufnehmen soll?

Wenn dir der Artikel gefallen hat bzw ein Mehrwert für dich war, wäre ich dankbar wenn du diesen Artikel in den Sozialen-Medien teilen und “liken” könntest, danke!

Google gegen sexuelle Aufklärung und Gesundheitstipps – Verbot dieser Themen bei Google Adsense Schaltung

14. Juni 2012 at 10:23
Walpurgisnacht in Bad-Grund

© Rainer Dollichon / piqs.de

Im Jahr 2012 unglaublich, aber wahr.

Google bzw. Google Adsense verbietet Webseitenbetreiber jegliche Artikel zum Thema sexuelle Aufklärung oder Gesundheitstipps. Im Detail schreiben Sie:

Sehr geehrte AdSense-Kundin, sehr geehrter AdSense-Kunde, bei der letzten Überprüfung Ihres Kontos haben wir festgestellt, dass Sie derzeit Google-Anzeigen auf eine Art und Weise schalten, die gemäß unseren Programmrichtlinien nicht zulässig ist (https://www.google.com/support/adsense/bin/answer.py?hl=de&answer=48182&stc=aspe-1pp-en).

 

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.
Weitere Informationen zu dieser Richtlinie erhalten Sie in der
AdSense-Hilfe
(https://www.google.com/adsense/support/bin/answer.py?hl=de&answer=105957).

GEFORDERTE AKTION: Bitte nehmen Sie alle erforderlichen Änderungen
innerhalb der nächsten 72 Stunden vor.

Wenn die Verstöße innerhalb des genannten Zeitraums behoben werden, wird
die Anzeigenschaltung nicht beeinträchtigt. Sollten keine Änderungen
vorgenommen bzw. andere Richtlinienverstöße während des Freigabeverfahrens
festgestellt werden, wird die Anzeigenschaltung für Ihre Website
deaktiviert.

Das hätte der Papst bzw. die katholische Kirche nicht besser schreiben können.

Da es so unglaublich ist, hier noch einmal:

GEFUNDENE VERSTÖSSE:

NICHT JUGENDFREIE THEMEN / SEXUELLE GESUNDHEIT / TIPPS BEZÜGLICH
SEXUALITÄT: Gemäß unseren Programmrichtlinien dürfen AdSense-Publisher
keine Google-Anzeigen auf Seiten mit nicht jugendfreiem Content bzw.
Content für Erwachsene schalten. Dies gilt möglicherweise auch für Themen
wie sexuelle Gesundheit und Tipps oder Ratschläge bezüglich Sexualität.

Keine Aufklärung zu Themen wie sexuelle Gesundheits oder Tipps oder Ratschläge bezüglich Sexualität.

Nee is klar … Hier wird wohl sehr negativ ersichtlich dass Google ein amerikanischens und daher arg prüdes Unternehmen ist.
Sexuelle Aufklärung ist da nicht erwünscht, Krankheiten werden generell tot geschwiegen und die Welt ist schön.

Armes Google ….armes Internet …

Résumé: google is evil!

Google Drive – der neue Google Cloud Dienst

26. April 2012 at 14:51

Google-logo-wikipediaMeine ersten Erfahrungen mit dem neuen, bis zu 5GB kostenlosen Cloud Dienst „Google Drive“ sind bisher positiv.
Neben dem Zugriff über den Webbrowser gibt es ein direkten Client für Windows  & Mac (Linux folgt sicher zeitnah).
Hoch geladene Dateien können entweder per Freigabe oder per Anhang als E-Mail geteilt werden.
Mein DropBox-Account nutze ich aktuell nicht mehr …

Auch positiv zu erwähnen ist, dass die bei Google-Docs hoch geladenen Dokumente ebenfalls gleich bei Google-Drive auftauchen (wenn über selbiges Konto).

Schön wäre wenn die kostenlose Grenze von 5GB noch erhöht wird. Aus Datenschutzgründen werde ich dort keine sensiblen Daten hoch laden, weder von mir noch vom Kunden. Dies bzgl. rate ich natürlich auch allen Anwendern davon ab. Allerdings zum speichern von allg. Dokumenten, Bildern, Videos, etc. ist der kostenlose  Dienst eine schöne Erweiterung im stetig wachsenden Google-Portfolio.