Ich möchte mit einer robots.txt das indexieren dynamischer URLs verhindern
User-agent: Googlebot
Disallow: /*?
Wie werden aber Backlinks auf die gesperrten dynamischen URLs gewertet? Da diese ja eigentlich nicht "existieren" (nicht in den Index aufgenommen werden)?
Spielt keine Rolle oder werden diese BackLinks dann nicht gezählt?
User-agent: Googlebot
Disallow: /*?
Wie werden aber Backlinks auf die gesperrten dynamischen URLs gewertet? Da diese ja eigentlich nicht "existieren" (nicht in den Index aufgenommen werden)?
Spielt keine Rolle oder werden diese BackLinks dann nicht gezählt?