QUOTE Ich kann dir Suchbegriffe zeigen, da stehen tote Gästebücher, tote Blogs, tote Subdomains, tote weisswasich vor den guten Suchtreffer.
QUOTE Ich kann dir Suchbegriffe zeigen, da steht reinweg Spam vor den guten Suchtreffer.
Man sollte nicht den Fehler machen, von Einzelfällen (bei den grossen Datenmengen könnte man selbst bei 1000 Fällen noch von Einzelfällen sprechen) auf die Gesamtheit zu schliessen (ausser man beweist dies statistisch).
Das Ziel von Suchmaschinen ist es, relevante Websites zu finden (und zwar für die Suchenden, also Menschen). Und im grossen und ganzen sind sie damit erfolgreich (ansonsten würden Suchmaschinen nicht genutzt werden). Und sie werden nicht stoppen, bis sie dieses Ziel zu 100% erreicht haben. Man sollte sich also fragen, welche Variante ökonomischer ist:
a) Man versucht, Schwächen kurzzeitig auszunutzen und sich damit einen (kurzfristigen) Wettbewerbsvorteil zu verschaffen, im Wissen, dass man diesen Prozess ständig wiederholen (d.h. Suchmaschinen analysieren und Schwächen suchen) muss.
b) Man versucht, die Entwicklungen zu antizipieren und von Beginn weg langfristige (d.h. i.d.R. solche, die mit gesundem Menschenverstand korrespondieren) Methoden zu verwenden, im Wissen, dass man temporär Nachteile gegenüber Leuten, die Variante a) verwenden, haben kann. Dafür kann man Suchmaschinen-Analysen und ständige Anpassungen der "SEO-Strategie" getrost weglassen.
Wir haben bereits beide Varianten ausprobiert und beide können erfolgreich sein. Mir persönlich ist Variante b) sympathischer, da ich mich so 100% auf das Projekt konzentrieren kann und nicht ständig den Suchmaschinen hinterherrennen muss. Eine Ergänzung zu Variante b) ist, dass man z.B. mittels Logfile-Analyse schaut, wieviel Traffic man über Suchmaschinen bekommt und ob die gesamte Website gecrawlt wird. Den Rest kann man dann getrost den (ständig evolvierenden) Algorithmen überlassen.