Ungewollt doppelter Content

adwebster_Andi

Angesehenes Mitglied
Liebe Ayoms

Wir sind gerade dabei, eine neue Seite zu erstellen (www.xy.com). Eine Grundregel besagt, man solle keine unfertigen Seiten veröffentlichen oder anders gesagt: das Portal darf erst online gehen, wenn es wirklich komplett fertig ist.

Wir haben nun eine weitere Domain registriert (www.TESTxy.com) und bauen/basteln/testen da mit verschiedenen Dingen.

Nun zum Problem: Obwohl wir unsere Testseite nirgends angemeldet haben, wurde sie von einem Google Spider erfasst (erkennt man am weisen PR-0 balken in der Google Toolbar, wenn sie nicht erfasst wäre, wäre dieser Balken ja grau).

Wenn wir nun die fertig erstelle Seite von www.TESTxy.com auf www.xy.com nehmen, würde Google und andere SE`s dies als doppelten Content ansehen und uns abstrafen?

Tnx for all inputs.

Andi
 
Hallo
jetz stellt sich mir natürlich die Frage ob sich Google diese "Türsteheranweisung"

# go away
User-agent: *
Disallow: /

merkt oder nicht. Nicht das wenn die besagte Seite umgeswitched wird google meint "Der hat mich gestern nicht reingelassen, dann will ich heute auch nicht" (Diskothekenproblem)

Gruß Ronny
 
Das Problem existiert nicht, weil

diese Annahme

QUOTE (Andi Nigg @ Di 25.7.2006, 14:31)Obwohl wir unsere Testseite nirgends angemeldet haben, wurde sie von einem Google Spider erfasst (erkennt man am weisen PR-0 balken in der Google Toolbar, wenn sie nicht erfasst wäre, wäre dieser Balken ja grau).


falsch ist. Grau gab es bei der Toolbar Version 2, inzwischen zeigt google frecherweise immer weiß an, grau gibt es nicht mehr.

Rufe mal

http : // euredomain.de / nichtexistente-seite.html

auf - die Toolbar wird weiß sein.

Sprich: Domain in den google-Suchschlitz eingeben bzw. im Protokoll sehen, ob ein Spider da war.
 
Jürgen hat sicher recht dass auf den Google-Bar kein Verlass ist.

Es gibt auch etliche Möglichkeiten wie google auf scheinbar nicht verlinkte Seiten kommen könnte. Eine Möglichkeit dafür wäre das z.B. die Domain schon mal inder Vergangenheit benutzt wurde.

Abgesehen davon weiß man nicht was google für „Ideen“ bekommt. Der Google-Toolbar z.B. sendet sicher fleißig nach Hause, der Adsense-Bot wird auch als Suchmaschinen-Crawler verwendet und andere Möglichkeiten lassen sich mit etwas Kreativität finden, wobei dies nur Möglichkeiten sind die vielleicht gar nicht schlagend werden.

Deswegen: Testsites in geschützte Verzeichnisse geben!
 
Das Problem existiert nicht, weil die Annahme bzgl. DC auf 2 Hosts falsch ist ;-)

Mein PR Balken ist übrigens grau.

Das Diskotheken-Problem (;-) gibts so nicht, eher, dass Google sich eine Version der Seite aus ungeschützen Zeiten ohne jedes schlechte Gewissen behält. Allerdings ist es nie schlecht den Googlebot direkt beim Namen zu nennen. Denn eine robots.txt (oder direkt Passwortschutz via htaccess) für die Testdomain wäre eine gute Idee.

Und es wäre sinnvoll gewesen die Domain anzugeben.
 
Meine www.server-daten.de war schon lange vor Projektstart online, von meiner Hauptdomain her verlinkt und per robots.txt mit '/' für alle Suchmaschinen gesperrt.

google hat sich bald täglich die robots.txt abgeholt und ist dann unverrichteter Dinge wieder gegangen. Erst als ich in dieser die Hauptseite freigegeben habe, wurde die Hauptseite gespidert.

Bei den großen Suchmaschinen genügt eine robots völlig.
 
Na da sage noch eine bei Ayom würde man nebenher nichts lernen. Vielen Dank an das ganze Team!

Gruß Ronny
 
Zurück
Oben