ICO-Datei/Icon erzeugen

11. November 2009 at 11:43

Ihr möchtet ein ICO-Icon auf eurer Webseite für den Webbrowser hinterlegen (Symbol welches neben der URL-Eingabezeile angezeigt wird) und wisst nicht wie?

Hier könnt ihr eine Bild-Datei direkt online im Format PNG, JPEG, GIF, BMP, 2 Mb max. in eine ICO-Datei konvertieren.

Hier könnt ihr ein PNG direkt online hoch laden und entsprechend in eine ICO-Datei konvertieren.

Guide to CSS Support in Email-Clients

5. November 2009 at 09:25

HTML-Emails eigenen sich super zur erweiterten Formatierung. Dabei ist zu beachten dass nicht alle E-Mail-Clients (egal ob Web oder Desktop-Anwendung) die selben CSS-Styles unterstützen. Um Überraschungen zu vermeiden sollte dies berücksichtigt werden.

Eine Übersicht der von den einzelnen E-Mail-Client unterstützten CSS-Styles findet ihr hier.

Joomla 1.6 – Was gibt es Neues?

2. November 2009 at 18:57

joomla-1-6Das bekannte Joomla Content-Management-System (CMS) ist aktuell in Version 1.5.x verfügbar. Version 1.6 befindet sich aktuell im Status Alpha 2 und kann bereits herunter geladen werden.

Was ist neu in Joomla 1.6?

  • Einer der größten Änderungen in der 1.6 ist das Rechte-Management welches auf verbesserten Zugriffssteuerungslisten (Access Control List, kurz: ACL) basiert. Damit ist es möglich individuell fest zu legen welcher Benutzer was darf. Damit wird das derzeitig starre Rollenschema von Autor, Publisher und Administrator mit den vorgegebenen, nicht frei konfigurierbaren Rollen, aufgehoben.
  • Die Beschränkung auf eine zweistufige Hierarchie mit Bereichen und Kategorien fällt weg. Zukünftig können Kategorien beliebig tief ineinander verschachteln werden.
  • Die URLs welche Joomla erzeugt, werden für Menschen und Suchmaschinen besser lesbar. Mit diesen  suchmaschinenfreundlichen URLs (Search Engine Friendly, SEF) trägt Joomla zur Suchmaschinenoptimierung (Search Engine Optimization, SEO) der Website bei. Bisher ist die Suchmaschinenoptimierung von Joomla im Vergleich zu anderen Web-CMS eher mäßig und nur mit Erweiterungen auf dem Stand der Technik gehalten.
  • Bei Kontaktformularen ist es jetzt möglich selbiges durch frei wählbare Felder zu ergänzen.
  • Der Quelltext wurde aufgeräumt und einige Erweiterungen wie z.B. die PDF-Ausgabe, wurden aus Joomla entfernt. Damit schrumpft die Dateigröße des Joomla-Downloads um etwa 30 Prozent und das Risiko von Sicherheitslücken sinkt – allerdings kann es dadurch passieren, dass einige für Joomla 1.5 geschriebene Erweiterungen nicht ohne Anpassung mit Joomla 1.6 laufen.
  • Ähnlich WordPress werden jetzt die Erweiterungen automatisch aktualisiert. Dadurch kann eine Erweiterungen mit nur wenigen Klicks aktualisieren werden. Geplant ist sogar ein Joomla-Auto-Update, so dass auch Joomla selbst mit nur wenigen Klicks aktualisiert werden kann.
  • Inhalte der Website können versioniert werden. Das bedeutet, bestimmte Stände eines Inhalts werden als jeweils eine Version gespeichert, die jederzeit wiederhergestellt oder mit der aktuellen Version verglichen werden kann (bekannt aus z.B. WordPress oder Wikipedia).
  • Joomla 1.6 wird nur noch zur Skriptsprache PHP in Version 5.2 und aufwärts kompatibel sein. Dadurch steigt die Sicherheit Ihrer Website, denn PHP 4 gilt mittlerweile als veraltet und unsicher.

Viele Änderungen waren schon lange hinfällig und wurden meist durch Plugins nachgerüstet, welche nun überflüssig werden.

Seit 24.10.22009 steht die Alpha 2 zum Download bereit.

Sie Benötigen Unterstützung bei der Erstellung, Anpassung oder Migration einer auf dem Joomla CMS basierten Webseite?

Fly2Mars-Media unterstützt Sie in diesem und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Aufbau der Datei robots.txt – Seiten für die Robots konfigurieren

29. Oktober 2009 at 14:04

Oft ist es sinnvoll bestimmte Seiten oder gar Bereiche einer Web-Seite vor der Indizierung von Suchmaschinen zu schützen. Zum Beispiel wenn es sich um Administrative, oder Seiten an denen noch gearbeitet wird, handelt.
Ggf. wollen Sie auch bestimmte Bilder, Logfiles oder Programmdateien vor der Indizierung der Suchmaschinen schützen damit diese nicht in den Suchergebnissen angezeigt werden.

Um dem gerecht zu werden wurde der Robots Exclusion Standard eingeführt, an den sich seriöse Suchmaschinen wie Google, Bing oder Yahoo! orientieren.

Nach diesem Standard muss eine Textdatei mit dem Namen robots.txt erstellt und diese im Stammverzeichnis der Domain platziert werden, so dass die Robots sie finden und beachten können.

<pre>http://www.beispiel.de/robots.txt
http://download.beispiel.de/robots.txt
http://beispiel.de:8080/robots.txt
</pre>

Der Aufbau der robots.txt erfolgt nach dem folgendem Shema. Zuerst gibt man an für welchen Crwaler eine Anweisung gelten soll, gefolgt von den einzelnen Anweisungen:

# robots.txt fuer http://www.beispiel.de/
User-agent: BeispielRobot
Disallow: /temp/       # Die Dateien sind nur Temporär und nicht von Bedeutung
Disallow: /logfiles/   # Sollen nicht allg. Verfügbar sein
Disallow: /bilder/     # Bilder sind teilweise geschützt und nicht zum download bestimmt
Disallow: /cgi-bin/    # CGI Ausgaben nicht indizieren
Disallow: /privat.html # Die pirivat.html soll nicht über die Suchmaschine gefunden werden

Mit User-agent: BeispielRobot bestimmt man, dass die Anweisungen nur für den genannten Crawler (BeispielRobot) gelten. Mit Hilfe der einzelnen Disallow Einträgen werden Verzeichnisse und Dateien bestimmt, welche nicht indiziert werden sollen. Mit Hilfe des Raute-Symbol (#)können Kommentare definiert werden, diese werden von den Robots ignoriert.

Ein Ausschluss aller Crawler ist mit Hilfe des sog. Wildchar * möglich:

# Alle Robots ausschließen
User-agent: *
Disallow: /temp/

Sollen nur bestimmte Crawler ausgeschlossen werden, sondern kann man diese wie folgt realisieren:

# Download-Tools vom CGI Verzeichnis fernhalten
User-agent: webmirror
User-agent: webzip
User-agent: webcopy
User-agent: wget
Disallow: /cgi-bin/

Eine Seite ganz von der Indizierung durch Suchmaschinen auszuschließen geht wie folgt:

# Komplette Webseite für alle Robots sperren
User-agent: *
Disallow: /

Durch entfernen des Slash (/) wird die Seite ganz für die Indizierung frei gegeben:

# Ganze Seite für Robots freigeben
User-agent: *
Disallow:

Die Groß- und Kleinschreibung wird bei Disallow Einträgen nicht durch die Robots berücksichtigt.

Sie Benötigen Unterstützung bei der Anpassung Ihrer robots.txt oder Optimierung (SEO) Ihrer Webseite bzw. Optimierung der Inhalte?

Fly2Mars-Media unterstützt Sie in diesen und vielen anderen Bereichen rund um das Thema Internet & IT!

Für ein individuelles Angebot nehmen Sie noch heute Kontakt mit uns auf.

Photoshop Tutorial: Bild vektorisieren

28. Oktober 2009 at 10:01

Hier findet ihr eine Anleitung wie ihr in Photoshop ein Bild vektorisiert.

Paypal Direct endlich in Deutschland verfügbar – Zahlung ohne Paypal Konto

28. Oktober 2009 at 09:04

Ab sofort ist die schon lange erwartete Funktion „Paypal Direct“ auch in Deutschland unter den Namen „Paypal-Gastzahlung“ verfügbar.
Damit ist die Bezahlung für Käufer ohne PayPal-Konto möglich. Ein großer Mehrwert für Shopbetreiber und eine starke Konkurenz auf dem Markt der Bezahldienst-Anbieter im Kreditkarten-Bereich.

Mehr Infos bei Paypal (Link 1)

Mehr Infos bei Paypal (Link 2)

Pro & Kontra des cloud computing

23. Oktober 2009 at 11:03

Cloud Computing ist einer der Top-Themen 2009! Das Konzept dahinter ist nicht wirklich neu, gerade große Unternehmen setzen dieses oder ähnliche Konzepte seit Jahren ein zwecks Lastenverteilung, Ausfallsicherheit oder als Backup-Strategie.

Aber wie sicher ist Cloud Computing? Lohnt sich ein Umstieg? Was sind die Pro & Kontra?

Das „Sidekick-Desaster“ in der vergangenen Woche hat nicht nur den beteiligten Firmen Microsoft, Danger und T-Mobile schlechte Presse beschert, sondern auch dem Thema Cloud Computing. Alle Daten der Sidekick-Nutzer waren auf Servern innerhalb der Cloud gespeichert und gingen durch ein misslungenes Update verloren. Und zum Spot für die Kritiker war kein Backup vorhanden. Dabei werden die Ausfall- und Backup-Sicherheit mit als die Stärken des Cloud Computing verkauft.

Hier möchten wir Euch eine kurze Übersicht der Pro & Kontras geben:

pro

  • Durch Cloud Services ist der Zugriff auf Anwendungen und damit das Arbeiten von überall möglich – Der Designer kann von zu Hause genauso auf die Applikationen zu greifen wie von einem Internet-Café im Urlaub. Dadurch werden Fixkosten gespart da z.B. nicht für jeden Client eine Lizenz erforderlich ist.
  • Sehr hohe Erreichbarkeit. Teilweise wird mit 100% Uptime geworben, allerdings kann diese Zahl wohl nicht immer gewährleistet sein. Z.B. bei Server-Ausfall können einzelne Knoten ausfallen oder überlastet sein bis der Ausfall der Server oder die Wiederherstellung des Backup abgeschlossen ist.
  • Cloud Computing erfordert nur geringe Investitionen. Gerade kleinere Unternehmen/Webseiten verfügen nur über ein geringes Eigenkapital. Anstatt Zeit und Geld in Technik zu investieren können sie sich auf ihr Produkt konzentrieren.

Contra

  • Abhängigkeit des Anbieters der Cloud-Applikation bzw. des Dienstes. Hat dieser technische Probleme oder geht gar in die Insolvenz, so ist es selten möglich „mal eben“ selbst ein Cloud-Server-Dienst zur Verfügung zu stellen (im Vergleich zu einem auf Apache & Linux basierten Webserver).
  • Datenschutz und Sicherheit: Die Daten liegen verteilt auf verschiedene Server & Standorte . Teilweise nicht durchschaubar wer auf diese Daten Zugriff hat, wo deren Standorte sind, wie das Backup-Konzept läuft, etc.! Es bleibt meist nur dem Anbieter zu vertrauen, dass er Informationen ausreichend vor Missbrauch schützt und ein gutes Backup-Konzept fährt.
  • Die Performance von Cloud-Diensten und vor allem Anwendungen welche Offline-Client-Applikationen ablösen, hängt von der Geschwindigkeit des Internet-Zugangs ab. Bei lokalen Anwendungen gibt es das Problem nicht!
  • Der Zugriff auf den Dienst hängt von der Verfügbarkeit des Dienstes/Anbieters ab. Bei z.B. Wartungsarbeiten, ist der Dienst nicht verfügbar. Zeitkritische Aufgaben können in diesem Fall ggf. nicht fertig gestellt werden.
  • Durch Cloud Services ist zudem ein verteiltes Arbeiten möglich. Der Redakteur kann im Internet-Café im Himalaya sitzen und dort an seinen Texten arbeiten. Präsenzarbeit ist überflüssig und es werden Fixkosten eingespart.

Urheberrechtsfibel – nicht nur für Piraten

20. Oktober 2009 at 21:34

Die Urheberrechtsfibel von Klaus Graf steht zum kostenlosen download als ebook bereit. Das in gedruckter Form immerhin 300 Seiten starke Werk stellt eine Art Kurzkommentar zum UrhG dar. Der Autor ist kein Jurist, beschäftigt sich aber seit vielen Jahren, z.T. leidenschaftlich mit dem Urheberrecht und hält es für grundlegend reformbedürftig.

Der Verlag kündigt das Werk so an:

„Das deutsche Urheberrecht entspricht nicht mehr dem digitalen Zeitgeist, den Bedürfnissen der Netzbürgerinnen und Netzbürger. Nicht nur die Piratenpartei bezweifelt, dass es zukunftstauglich ist. Dieses Buch ist eine bissige Abrechnung mit dem Urheberrechtsgesetz, das den Text vom ersten bis zum letzten Paragraphen allgemeinverständlich erläutert und kritisch auseinander nimmt. Es ist kein gelehrter akademischer Kommentar, sondern eine Streitschrift für digitale Freiheiten und freie Inhalte, die sich vehement gegen eine Verschärfung des Urheberrechts und für eine radikale Reform ausspricht.“

Ein Download lohnt sich.

Quelle: www.internet-law.de

Wo Blog bekannt machen? (Übersicht Verzeichnisse)

20. Oktober 2009 at 21:05

Ihr habt ein neuen Blog und wollt diesen bekannt machen?
Ein Eintrag in einem der folgenden Blog Verzeichnisse kann sich durch aus positiv auf die Besucherzahlen auswirken.

http://www.blog­geramt.de (Kein Backlink erforderlich!)
http://www.lis­tenhits.de (Kein Backlink erforderlich!)
http://blogalm.de (Anmeldung erforderlich)
http://www.blo­glinx.de
(Kein Backlink erforderlich!)
http://www.ta­gebuch-verzeichnis.de
http://www.blog­scene.de (Kein Backlink erforderlich!)
http://www.blog­soft.de
http://blogmap­.wordpress-deutschland.org (Nur WordPress Blogs)
http://www.we­blogliste.de (Kein Backlink erforderlich!)
http://www.blo­gato.de (Einfach URL anmelden)
http://www.blo­galog.de (Kein Backlink erforderlich!)
http://www.blog-eintragen.de (Kein Backlink erforderlich!)
http://blogweb­katalog.de
http://www.fris­chgebloggt.de/
http://www.gnil­he.de (Kein Backlink erforderlich!)

Mit mod_rewrite das www hinzufügen oder löschen

14. Oktober 2009 at 13:11

Um doppelten Inhalt auf verschiedenen Domains zu vermeiden ist es ratsam, sich auf eine Domain zu beschränken.
Dabei ist zu beachten dass die Domain „www.fly2mars-media.de“ nicht gleich „fly2mars-media.de“ ist.

Das „www“ am Anfang ist eine Subdomain, die in früheren Zeiten des Internets anzeigen sollte, daß der WorldWideWeb Teil der Domain aufgerufen werden soll, im Gegensatz zu z.B. ftp / gopher / irc usw. In der heutigen Zeit ist dies hinfällig, aber viele Websurfer sind es immer noch gewohnt, stur das „www“ vor die Domain zu tippen.

Auch eine Subdomain gilt für Suchmaschinen als eigenständige Domain und wird ggf. negativ in Bezug auf Doppelten Inhalt (Duplicate Content) gewertet.

Um die Domain auf eine der beiden Möglichkeiten zu beschränken und die Besucher auf diese weiter zu leiten, kann man sich des mod_rewrite Moduls vom Apache bedienen. Dazu wird einfach eine Datei .htaccess im Hauptordner der Webpräsenz (Document Root) anlegen und einen der folgenden Code-Zeilen  einfügen.

per .htaccess-file:

RewriteCond %{HTTP_HOST} !^www\.fly2mars-media\.de [NC]
RewriteRule ^(.*)$ http://www.fly2mars-media.de/$1 [L,R=301]

Weiterleitung aller ankommenden Anfragen auf eine www-Domain:

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.meine-domain\.de$
RewriteRule ^(.*)$ http://www.meine-domain.de/$1 [L,R=301]
</IfModule>

Weiterleitung aller www-Domains auf ihr Nicht-www Pendant:

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www\.(.*)$
RewriteRule ^(.*)$ http://%1/$1 [L,R=301]
</IfModule>

Weiterleitung aller Nicht-www Domains auf ihr www-Pendant:

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.(.*)$
RewriteRule ^(.*)$ http://www.%1/$1 [L,R=301]
</IfModule>

Eine Weiterleitung ist auch über PHP möglich, sollte aus irgend welch Gründen eine Weiterleitung über mod_rewrite nicht möglich sein, so realisiert ihr das über PHP wie folgt (mod_rewrite Variante ist klar vorzuziehen!!!):

if ( $_SERVER['HTTP_HOST'] == 'projekt.de' ) {
  header("HTTP/1.1 301 Moved Permanently");
  header("Location: http://www.projekt.de");
exit;
 }