QUOTE google machte die tage ein update, welches unteranderem dc seiten besser filtert. insgesammt für viele viele unique seites ein vorteil. für amazone und wikiklone der absturz auf breiter linie.
Es geht wohl nicht mehr primär um das, wir sind eine Stufe weiter. DC wird unteranderem wegen den verbesserten Link-Netzwerkerkennungs-Algorithmen erfolgreicher bekämpft. Dies, weil es einfach ist Text zu vergleichen, wenn man weiss, was man vergleichen möchte ;-)
Um es mal in IR-Zeitaltern zu formulieren.
1. Meta-Daten (Könnt ihr euch noch an Altavista erinnern ;-)
2. Full-Text (und Meta)
3. Link-Analysis (und Full-Text und .., das hat Google zum Durchbruch verholfen, PR und so ;-)
3.a Spam-lern-Phase
4. Historische Daten (und noch einiges mehr) zu allen vorangenannten Punkten.
Wir sind jetzt im Zeitalter 4. Schaut euch doch mal eure Logfiles an, und dann lässt sich überlegen, wie viel Google alles schon weiss. Sie wissen etwa alles. Nicht nur das, sie kennen auch die Veränderungen. Ich freue mich auf die Diskussionen mit den Datenschützern, wenn die Breitheit einen Überblick über die von Google besessenen Datenvolumina erhält. Ach ja und Spammen wird schwerer, SEO einfacher. Ist doch toll. Ach ja und Spammen wird bestraft ;-)