Die 200 Google-Kriterien und deren Interpretation

06.01.2010, 21:24

Kürzlich wurde eine Liste der 200 Parameter des Google-Algorithmus veröffentlicht, welche selbstverständlich für helle Begeisterung gesorgt hat, wodurch die Website zeitweise sogar unter dem Slashdot-Effekt gelitten zu haben scheint, da sich der Artikel u.a. innert kürzester Zeit auf die Startseite von Mister Wong vorgekämpft hat.
Diese Aufzählung bringt wieder Tumult in die SEO-Szene, doch scheint es ja immer wieder Widersprüche zu geben, denn da steht nur, was von Herrn Google beachtet wird und nicht, wie es beachtet wird.
Die meisten verstehen unter SEO das Verbessern der SERPs (Platzierung bei den Such-Ergebnissen), was auch dazu führen kann, dass man sich auf das falsche konzentriert. Die Top-Level-Domain, der Serverstandort, die robots.txt, das Robots-Metatag, die XML-Sitemap, etc. haben grundsätzlich nichts mit dem Verbessern des Rankings zu tun. Die Angaben Robots-Excusions-Standards und die Sitemap könnte man genauso weglassen, ohne dass dies einen Einfluss auf die SERPs hat. Deshalb mag ich persönlich gewisse Online-Tools nicht, welche die robots.txt und das Robots-Metatag auf ihr Vorhandensein prüfen und dann (indirekt) sagen, es sei nicht gut, wenn sie fehlen.
Nun denn, ich werde jetzt ein paar der in der Liste genannten Kriterien durchkauen.
Da wird zum Beispiel gefragt, ob es sich bei der Domain um eine Subdomain oder Root-Domain handelt. Da habe ich sogar persönliche Erfahrung und muss sagen, dass Subdomains eine schlechtere Chance auf gutes Gelingen haben, als Root-Domains. Bei Sub-Subdomains ist es gar noch extremer. Ausgenommen von dieser Regelung sind wohl Subdomains, welche auf die Sprache hinweisen (de.wikipedia.org) und Subdomains, welche dreimal demselben Buchstaben, dem „W“, bestehen. Folglich ist man mit einer kostenlosen Subdomain schlechter am SEO-Start.
Weiter scheint neben der TLD auch der Serverstandort eine Rolle in der Lokal-Suche zu spielen. „floern.com“ endet auf .com, doch wird meine Website in der Suche nach „Seiten in der Schweiz“ angezeigt (und das ist auch gut so), obwohl ich mich nie irgendwo für die Schweiz gemeldet habe. An der TLD kann’s nicht liegen. Da bleibt nur noch der Serverstandort, und der lautet Basel.
Das wichtigste SEO-Kriterium sind wohl oder übel die Backlinks. Da steht beispielsweise, dass die Autorität des Backlinks eine Rolle spielt. Ein Link von einer (wirklich) sehr bekannten Website dürfe da mehr Wert sein als ein Link aus einer mickrigen Privat-Präsenz. Dass da auch die TLD des Backlinks eine Rolle spielt, dürfe uns Europäern mehr oder weniger nebensächlich sein, denn in Europa gibt es keine .gov- oder .edu-Websites. Und einen Link von einer womöglich nicht-deutschsprachigen, hochstehenden, US-Amerikanischen Site zu bekommen, ist ein zu vernachlässigender Ausnahmefall. Backlinks aus dem Open Directory Project und Wikipedia dürften ebenfalls wertvoll sein, auch wenn viele meinen, Backlinks aus der Wikipedia würden wegen dem „Nofollow“ nicht zählen. Meiner Meinung nach bekommt Wikipedia eine Sonderbehandlung bei Google.
Weiter sind die besucherspezifischen Kriterien interessant, wie Besucherzahl, demografische Werte oder Bounce-Rate. Da fragt man sich dann, wie Google an diese Werte kommen will. Manche behaupten, Google kooperiere mit Alexa, bzw. deren Betreibern, doch dies dürfte gerade bei Google ein Witz sein. Ich lege meine Hand ins Feuer, dass die Google-Toolbar weiter verbreitet ist, als die Alexa-Toolbar, wodurch die Statistiken von Alexa für Google im Grunde eine Witzfigur darstellen dürften, denn es ist halt Google und das sagt alles (Stichwort „Datenkrake“, nur mit wesentlich mehr Armen). Google Analytics könnte bei der Datenerfassung auch eine Nebenrolle spielen.
Ein anderes spannendes Kapitel dürfte die Liste der Negativ-Einflüsse sein, auch bekannt unter dem Wort „Abstrafung“. Allerdings sollte man sich dadurch nicht verängstigen lassen, denn gekaufte und verkaufte Link können von Google nur schwer nachgewiesen werden, es sei denn, man beschriftet diese offensichtlich als „bezahlte Links“ oder ähnlichem, oder man lässt sich melden. Die Grenze für die „übertriebene Keyword-Verwendung“ ist vermutlich auch recht weitläufig angesetzt, damit es keine Kollateralschäden gibt und Dasselbe dürfte auch für den „versteckten Text“ gelten, denn auf manchen Sites mit JavaScript-Features könnte es „versteckten“ Text geben. Die weiteren Kriterien wie Cloaking oder als Spammer bekannt zu sein, sollten eigentlich nicht aus Versehen passieren. Infolgedessen bekommt man auch kein „Vorstrafenregister“, welches längerfristig negative Einflüsse haben könnte.
 


Andere Einträge


Kommentare

#1
von Matthias am 07.01.2010, 21:35
Etwas stutzig hat mich aber an der Liste der Eintrag mit den Verlinkungen aus schlechter Nachbarschaft aber gemacht. es behaupten ja alle dass solche Links nicht zählen, da man sonst ganz einfach die Konkurrenz schädigen könnte.

#2
von Lucas am 09.01.2013, 15:56
Hi, Coole Webseite, bin leider erst jetzt auf sie gestoßen.
Hab spannende Beiträge von dir gelesen.
Leider finde ich nichts neues mehr.
Anderes Projekt?
Die Artikel zum Thema SEO sind zwar noch informativ aber leider teilweise veraltet.