Hi zusammen!
Ich würde gerne per robots txt bestimmte Seiten von der Indexierung ausschließen.
Wenn ich:
User-agent: *
Disallow: /profile.php
angebe, werden dann auch Seiten wie:
/profile.php?mode=viewprofile&u=42
/profile.php?mode=viewprofile&u=45
von der Indexierung ausgeschlossen?
Wenn nein, wie mache ich das, ohne jede Datei einzeln angeben zu müssen?
Wildcard dürfen ja nicht vergeben werden?
Danke!
Ich würde gerne per robots txt bestimmte Seiten von der Indexierung ausschließen.
Wenn ich:
User-agent: *
Disallow: /profile.php
angebe, werden dann auch Seiten wie:
/profile.php?mode=viewprofile&u=42
/profile.php?mode=viewprofile&u=45
von der Indexierung ausgeschlossen?
Wenn nein, wie mache ich das, ohne jede Datei einzeln angeben zu müssen?
Wildcard dürfen ja nicht vergeben werden?
Danke!