SitemapCompiler
Version 1.o | 31.10.2009
Der SitemapCompiler generiert eine XML-Sitemap einer Website für die Robots der Suchmaschinen Google, Yahoo und Bing. Er berücksichtigt dabei die Wünsche des Benutzers wie spezifische Angaben der Priorität oder der Wechsel-Frequenz, sowie den Robots-Exclusion-Standard.Da das Script auf demselben Server liegt wie die Website selbst, wird die Sitemap auch entsprechend schnell erstellt. So kann ebenfalls ein Cronjob auf das Script angesetzt werden und der Inhalt aktuell gehalten werden.
Zudem wird die Möglichkeit angeboten, eine Sitemap nur für einen bestimmten Bereich (Verzeichnis) der Website zu erzeugen.
Nebst der XML-Sitemap selbst liefert der SitemapCompiler auch Meldungen über blockierte Dateien, über fehlerhafte Links (z.B. 404 Not Found) oder über verlinkte Nicht-HTML-Dateien, wie ZIP-Archive.
► Download (zip · 12 KB)
► Infos zur Installation weiter unten
Programmiersprachen
- PHP
- (XML)
Mindestanforderungen
- PHP 5.1
- Extensions: cURL
Installation
- Lade das Zip-Archiv herunter und entpacke es.
- Speichere die Datei
sitemapcompiler.php
in das gewünschte Verzeichnis deiner Webseite, vorzugsweise in das Root-Verzeichnis der Domain. - Rufe nun die Datei
sitemapcompiler.php
im Browser auf und folge den Anweisungen.
Möglichkeiten
- Ausschliessen von bestimmten URL-Parametern (z.B. PHPSESSID).
- Den Robots-Exclusion-Standard beachten (robots.txt und "robots"-Metatag).
- Eintragen der URL der Sitemap in die robots.txt.
- Spezifische Angaben von
changefreq
undpriority
zu bestimmten Dateien oder Dateigruppen. - Generieren einer Sitemap für nur ein bestimmtes Verzeichnis und dessen Unterverzeichnisse.
- Erstellen eines XSLT-Dokuments für die XML-Sitemap.
- Anschliessende Bearbeitung der Sitemap-Einträge von Hand.
Tipps
- Aus Sicherheitsgründen ist es empfehlenswert, die Datei
sitemapcompiler.php
mittels Passwort zu schützen (.htaccess) oder sie so umzubenennen, dass sie von aussenstehenden nicht gefunden wird.