SitemapCompiler

Version 1.o | 31.10.2009

Der SitemapCompiler generiert eine XML-Sitemap einer Website für die Robots der Suchmaschinen Google, Yahoo und Bing. Er berücksichtigt dabei die Wünsche des Benutzers wie spezifische Angaben der Priorität oder der Wechsel-Frequenz, sowie den Robots-Exclusion-Standard.
Da das Script auf demselben Server liegt wie die Website selbst, wird die Sitemap auch entsprechend schnell erstellt. So kann ebenfalls ein Cronjob auf das Script angesetzt werden und der Inhalt aktuell gehalten werden.
Zudem wird die Möglichkeit angeboten, eine Sitemap nur für einen bestimmten Bereich (Verzeichnis) der Website zu erzeugen.
Nebst der XML-Sitemap selbst liefert der SitemapCompiler auch Meldungen über blockierte Dateien, über fehlerhafte Links (z.B. 404 Not Found) oder über verlinkte Nicht-HTML-Dateien, wie ZIP-Archive.

► Download (zip · 12 KB)
► Infos zur Installation weiter unten

Programmiersprachen

  • PHP
  • (XML)

Mindestanforderungen

  • PHP 5.1
    • Extensions: cURL

Installation

  1. Lade das Zip-Archiv herunter und entpacke es.
  2. Speichere die Datei sitemapcompiler.php in das gewünschte Verzeichnis deiner Webseite, vorzugsweise in das Root-Verzeichnis der Domain.
  3. Rufe nun die Datei sitemapcompiler.php im Browser auf und folge den Anweisungen.

Möglichkeiten

  • Ausschliessen von bestimmten URL-Parametern (z.B. PHPSESSID).
  • Den Robots-Exclusion-Standard beachten (robots.txt und "robots"-Metatag).
  • Eintragen der URL der Sitemap in die robots.txt.
  • Spezifische Angaben von changefreq und priority zu bestimmten Dateien oder Dateigruppen.
  • Generieren einer Sitemap für nur ein bestimmtes Verzeichnis und dessen Unterverzeichnisse.
  • Erstellen eines XSLT-Dokuments für die XML-Sitemap.
  • Anschliessende Bearbeitung der Sitemap-Einträge von Hand.

Tipps

  • Aus Sicherheitsgründen ist es empfehlenswert, die Datei sitemapcompiler.php mittels Passwort zu schützen (.htaccess) oder sie so umzubenennen, dass sie von aussenstehenden nicht gefunden wird.