Was tun gegen eventuellen SuMa-Spam?

Tom G

Angesehenes Mitglied
Hallo,
seit Jahren betreibe ich die Seite http://hangman.slapped.de
Die Seite wird schon lange Zeit unter dem Suchbegriff "Hangman" auf Platz1 angezeigt, ist im Google-Verzeichnis aufgenommen und in der wikipedia verlinkt.

Vor 2 Tagen habe ich das Script aktualisiert, Highscore eingefügt und diverse andere kleine Veränderungen vorgenommen.

Seither findet man bei Google zahlreiche Unterseiten, die ich dort eigentlich gar nicht sehen möchte ( http://www.google.de/search?sourceid=navcl...%2Eslapped%2Ede ).

Ist es möglich, dass Google dies als Spam bewertet?
Was kann ich dagegen machen?

Habt ihr Vorschläge, Tipps?

Danke,

Grüße aus Heidelberg,
Thomas
 
da sollte eigentlich schon ein entsprechender Eintrag in der robots.txt genügen, in der Du die Spider von bestimmten Verzeichnissen ausschliesst. Diese werden dann nicht gespidert und sollten dadurch auch nicht gelistet werden.

Ich hoffe, das hilft Dir weiter
smile.gif
 
Ich dachte immer, dass zahlreiche Suchmaschinen die Robots.txt ignorieren...
blink.gif
 
QUOTE Ich dachte immer, dass zahlreiche Suchmaschinen die Robots.txt ignorieren...

Woher kommt dieses Denken? Alle relevanten Suchmaschinen respektieren robots.txt!
 
QUOTE (Remo Uherek @ Mo 24.10.2005, 14:17)
QUOTE Ich dachte immer, dass zahlreiche Suchmaschinen die Robots.txt ignorieren...

Woher kommt dieses Denken? Alle relevanten Suchmaschinen respektieren robots.txt!

Ich weiß nicht, wo ich das mal aufgeschnappt habe. Aber anscheinend hat sich das damals direkt in meinem Kopf festgesetzt.

Gut, dass mir jetzt mal jemand die Augen geöffnet hat. Danke
biggrin.gif


Werde mich dann mal genauer mit dem Thema robots.txt beschäftigen.


Gruß.
 
QUOTE Werde mich dann mal genauer mit dem Thema robots.txt beschäftigen.

Ist u.U. nicht mal zwingend nöitg. Schau hier http://www.google.com/webmasters/remove.html#images
Das mit den Sessionids ist kein Problem, Google erkennt das. Auch reicht es nicht um abstraft (oder was auch immer) zu werden, wenn man sich ein wenig ungeschickt anstellt. Wenn man es wirklich sehr auf den Kopf gefallen trifft, kann man sich durchaus die eigene Suppe verwässern (meistens ist ein wenig Linkspam dazu nötig).
Die von Deiner abgeleitete Query http://www.google.de/search?q=allinurl:han...GLG:de&filter=0 legt nahe, dass Du "letter" nur für diesen einen Zweck in der Url hast, und mit folgender, etwas rabiaten Lösung bedient wärst:

CODE User-agent: Googlebot
Disallow: /*letter*$

Ich habe allerdings nie Wildcards in der robots.txt benutzt um Google gefügig zu machen.

Ausserdem sage ich nochmals, dass beim Beispielproblem keinerlei Gefahr (im Sinne von Spam) besteht. Trotzdem sind die letter-Seiten keine Indexierung wert und sollten somit ausgeschlossen ewrden. Alternativ mit http://www.ayom.com/search?q=noindex
 
Zurück
Oben