Duplicate Content und JS Problem bei Google?

Das liegt glaube ich an deinem - 1&1 IN2SITE FRAME - (Contentmodul von 1und1) auf der Startseite.
 
Da ist kein Titel definiert, und das einzige, was Google und jeder Nutzer, der JS ausgeschaltet hat, auf dieser sinnfreien Weiterleitungsseite sieht, ist nur "Start".

Was soll das, daß die Seite eine automatische Anmeldung mit einem Benutzernamen versucht?


site:www.cooldino.de sollte allerdings schon zu denken geben. Hier werden Seiten als Duplikate erkannt, weil sie keinen eigenen Inhalt haben. Das kommt davon, wenn man versucht, den Google-Index mit leeren "Katalog"-Kategorien und kleinen Linkfarmen zu verunreinigen, anstatt sich auf den eigenen Hintern zu setzen und wervolle Inhalte zu schaffen.
Sieht gar nicht gut aus.
SD.
Aber nicht schade drum.
 
Lieber Herr Bull,

ich habe Sie nicht nach Ihrer Meinung gefragt ? Wollte eigentlich nur eine Antwort auf mein Beitrag. Geben Sie mir bitte ein Beispiel wo unsere
Seite als Duplikat erkannt wird. Wenn nicht mal Google Stellung zu dieser Thema nimmt ? Geben Sie mir ein Beispiel und wir werden das umgehend umändern. Mit dem Content ist das so...die einen werden es lieben und andere wiederum kritisieren. Wir haben überhaupt kein Problem damit.

Also: Bitte / nächste mal richtig den Beitrag lesen und keine übeflüssige Antworten geben / Danke.


Andre / Danke für den Hinweis

Viele Grüße
 
Titel dieses Diskussionsfadens: QUOTE Problem ?



QUOTE Wir haben den Titel sauber definiert/Google bringt nur Start Start ??

Ich habe eine Antwort gegeben auf die Frage gegeben, siehe vorheriger Beitrag.


QUOTE Hat Google ein Problem mit unsere Seite ?


QUOTE Geben Sie mir bitte ein Beispiel wo unsere Seite als Duplikat erkannt wird.

Ich habe auch hier jeweils geantwortet, tue es aber gerne noch einmal, da Sie meinen Beitrag offenbar nicht gelesen haben:
site:... ergibt nur 2 Seiten von ~412 (die bereits voll sind vom üblichen "kostenlos, umsonst und gratis, Klingeltöne, Handyspiele"-Gebrabbel), der Rest wird wegen Null-Inhalt (und daher DC, die Navi bleibt ja gleich) übersprungen. Nur ein Beispiel: http://www.cooldino.de/site-uri-romanesti/1/63/13/
SD (hier bereits inkl. PR0) tritt bei minderwertigen, inhaltsleeren sogenannten "Projekten" (z.B. Pseudoportale und besonders leere Verzeichnisse, da hatten Seiten mit anderem Kaliber wie bluefind.com und agada ihre Probleme - bei ersterem wurde dann gegengesteuert) nun einmal auf, da beißt die Maus keinen Faden ab. Und das ist auch gut so!
smile.gif




QUOTE Also: Bitte / nächste mal richtig den Beitrag lesen und keine übeflüssige Antworten geben / Danke.

Ich äußere übrigens meine Meinung auch künftig unabhängig davon, ob sie Ihnen genehm ist. Vielleicht sollten Sie einmal über Ihre Manieren nachdenken...
 
Lieber Noah

Ich denke schon, dass Du gefragt hast...

Ich versuche dein Problem jetzt noch ein wenig genauer zu erläutern.

Grundwissen: Google versucht redundanten Content (also Mirrors und teil Mirrors d.h. Kopien von Webseiten) zu erkennen um Ressourcen zu sparen und Resultate besser zu ranken. Wenn Du eine Suchanfrage an Google übergibts, suchen sie nach Resultaten und streichen Seiten die als doppelter Inhalt bezüglich deiner Suche erkannt werden aus den Resultaten heraus.

In deinem Fall schauen wir uns ein paar Beispiele von Suchen bei Google an.
http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr=
Du bist für "Wohlfühltipps für Augen" an 5ter Stelle.
Deine Site Suche http://www.google.de/search?hl=de&client=f...ta=lr%3Dlang_de (analog http://www.google.de/search?hl=de&c2coff=1...a=lr%3Dlang_de)
Du bist nur mit 2 Resultaten vertreten, wobei der Rest hinter filter=0 steckt (d.h. die Seiten Deine WebSite sind alle einander sehr ähnlich).
Wenn Du nach "site:cooldino.de kostenlos" suchst, erhälts Du 13 Resultate wovon 3 als DC taxiert werden.
http://www.google.de/search?hl=de&c2coff=1...ta=lr%3Dlang_de
Ausformuliert heisst das für Dich, dass der grösste Teil deiner Webseite (die linke Spalte and die rechte Spalte) in den allermeisten Fällen übereinstimmt.
Dazu noch ein letztes Beispiel: "site:www.cooldino.de O.C., California"
http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr=
Oben haben wir feststellen können, dass dies keine Rolle spielt, wenn in der Mitte wirklich eigener Content steht (die Wohlfühltipps).

Jetzt aber betrachten wir die Auswirkungen auf eine Seite, deren Inhalt Du kopiert hast: '"Interesse daran, Bargeld an beliebigen Automaten"' von der Seite http://www.cooldino.de/articole/1/87/9/
http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr=
Zeigt 8 Resultate, Du bist nicht darunter, obwohl die entsprechende Seite in Google vertreten ist ( http://www.google.com/search?hl=de&c2coff=...btnG=Suche&lr=)
Also schauen wir uns die Resultate genauer an: (wir schalten den filter=0 in der Url und entdecken Dich dann als Resultat nr. 36) http://www.google.com/search?q=%22Interess...30&sa=N&filter=
(Alternativquery: http://www.google.com/search?hl=de&c2coff=...btnG=Suche&lr=)
Du wirst also gefiltert.

Weitere Beispiele:
http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr= und http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr=
http://www.google.com/search?hl=de&c2coff=...&btnG=Suche&lr= (hier bist Du mit Cooldino unter den Resultaten, während http://www.intelinews.de/index.php?z=citeste-stire&id=429 gefiltert wird)

Fassen wir zusammen:
Fremde Inhalte werden bei Dir teilweise erkannt und gefiltert.
Du hast sehr viele leere Seiten, was nicht gut ist.
Eigene Inhalte lassen sich regulär finden.
Du verwendest deinen (oder den Content) auf mehreren Webseiten.
Der Cache deiner Webseite bringt nur Javascript zum vorschein: http://66.102.9.104/search?q=cache:O9B99KN...lient=firefox-a
(war das Seitenweise so (es ist nichtmehr so) hast Du das abgestellt? So kann eine Suma natürlich gar nichts lesen)

Ich denke das beantwortet deine Fragen:
QUOTE Hat Google ein Problem mit unsere Seite ?

Wir haben den Titel sauber definiert/Google bringt nur Start Start ??

Google hat kein direktes Problem, sondern sortiert (mitlerweile recht erfolgreich) die Dubletten aus den SERPS. Die Titel der Seiten, die kein JS beinhalteten als der Googlebot vorbeigekommen ist, haben auch korrekte Titel.

Ausserdem muss ich an dieser Stelle anfügen, dass ich Mühe mit deinem Verhalten habe. Wenn Du scharf kritisiert wirst, dann lies die Kritik nochmals. I.d.R. findest Du etwas wahres und

QUOTE ... und das einzige, was Google und jeder Nutzer, der JS ausgeschaltet hat, ... sieht, ist nur "Start".
...
site:www.cooldino.de sollte allerdings schon zu denken geben. Hier werden Seiten als Duplikate erkannt, weil sie keinen eigenen Inhalt haben.


beantwortet Deine Frage recht direkt.


QUOTE Geben Sie mir bitte ein Beispiel wo unsere
Seite als Duplikat erkannt wird. Wenn nicht mal Google Stellung zu dieser Thema nimmt ?

Ich denke wir sind soweit, und wenn Du Googles Äusserungen zu diesem Thema willst, dann lies die Literatur bzgl. DC aus Stanford. In älteren Beiträgen findest Du weitere Erklärungen und links. Fürs erste würde ich mich aber im Schreiben eigener Inhalte versuchen.

Post Scriptum:
Andre bringt in der ersten Antwort einen sehr wertvollen und wichtigen Tipp, den Du allem Anschein nach schon umgesetzt hast. Die obigen SERPs beweisen aber, dass dies nicht das einzige Problem ist, da viele Seiten mit Inhalt im Index sind.
 
Ich benutze ein CMS und habe soeben gemerkt, dass einige meiner Seiten als DC angesehen werden.

Ich habe auf jeder Seite einen eigenen Text.

Meine Frage deshalb. Warum wird es als DC angesehen?

Website

ANtwort: ?
- Zu wenig, bis gar keinen Content. (z.B. Bild, oder nur 20 Wörter..) ?
- Google übernimmt den Content als "Description" erst, wenn mind. x Wörter auf der eigentlichen Seite enthalten sind. Falls dies nicht der Fall ist, werden die Seiten als DC gesehen, weil alle die gleiche Description haben.

Stimmt das?

Obwohl.. "viel" content und auch diese Seite wird als DC betrachtet.


Vielen Dank

Gruss
Sammy
 
Nahezu gleicher Titel, gleiche Description (die nicht genutzt ist, wie eine Description genutzt werden sollte), im Vergleich hierzu zu wenig Content -> Seite mit 15k, die fast nur aus Schachteltabellenlayout, überlangen Keywords und Descriptions besteht usw. Triggert fast zwangsweise den Filter.
 
QUOTE Meine Frage deshalb. Warum wird es als DC angesehen?

Duplicate Content impliziert, dass ein Original existiert. Du bist nicht DC, Du bist mit einem Teil deiner Seiten bezüglich einer Query DC. War das so verständlich?

Du bist DC bezgl der site: Suche, deren Informativer Wert sich auf den Host bezieht, das heisst gar nichts. Trotzdem ist an dieser Stelle anzumerken, dass ich nicht verstehe, wieso Du immer die gleichen Wörter in deinem Titel verwendest. Trotzdem ist es aber nicht zu wenig Content.

Zur Veranschaulichung am Beispiel von Abakus:
http://www.google.ch/search?q=site:abakus-...&start=990&sa=N
Wenn ich ab 100 ansetze bringt er es noch auf rund 70.

Schau doch auch hier: (Seiten die für deine site: Suche DC sind)
http://www.google.ch/search?hl=de&c2coff=1...tnG=Suche&meta=
http://www.google.ch/search?hl=de&c2coff=1...tnG=Suche&meta=

Nochmal pro Query! Du bist nicht DC, sondern Seite(n) bzgl. einer Query. Deshalb kann ich auch nicht hinter der Vorgängermeinung stehen.
Alles in allem sind 90% dieses Themas Missverständnisse.
 
Vielen Dank für eure Antworten.

Ich habs mir gedacht, dass ich DC noch nicht wirklich verstanden habe.

QUOTE
Wenn Du nach "site:cooldino.de kostenlos" suchst, erhälts Du 13 Resultate wovon 3 als DC taxiert werden.


Auf Grund dieses Satzes hab ich einfach alle nicht gezeigten Sites als DC betrachtet.

kennst du eine gute Site, welche DC genau beschreibt?
Was bewirkt der Query DC? Hat dieser auch Nachteile für die Indexierung?

@bull
- Ich denke gleiche Description macht nichts aus, wenn man sie kurz aber informativ haltet.
- Dasselbe bei den KW
- Titel sollte auf jeder Seite nur wenige Wörter enthalten, welche auf die einzelne Seite zutreffen.
- Schachteltabellenlayout.. das stimmt. Aber da die Seite trotzdem super gefunden wird, werde ich das auch nicht ändern.

Danke

Gruss
Sammy
 
QUOTE Auf Grund dieses Satzes hab ich einfach alle nicht gezeigten Sites als DC betrachtet.

Sind sie auch, bezogen auf die Abfrage site:www.site.com

@wsammy
Wenn Du darauf bestehst, daß "Fahrschule Basel, Basel, Fahrschule, Nothelferkurs, Nothelferkurse, Nothelferkurs Basel, VKU, Verkehrsunterricht, Mottorrad, Auto, Autofahrschule, Motorradfahrschule, Preis" eine Description einer Seite ist und gerne auf mehreren Seiten identisch sein kann, möchte ich Dir nicht weiter widersprechen, habe aber eine eigene abweichende Meinung dazu. Was Du mit Meta Keywords anstellst, interessiert Google sowieso nicht besonders.

@Alain
Wie erklärt sich Deiner Meinung nach Slow-Death mit folgendem PR0 & suppl. results, wie er bei agada.de vor der nunmehrigen Auslagerung des Verzeichnisses aufgetreten ist und welche Rolle spielt DC dabei?
 
Hallo Bull

1. Ich wollte dir nicht widersprechen. Ich bin der selben Meinung wie du, dass die Description völlig fehlgeschlagen ist. Ich werde das auch noch ändern.

Ich meinte es eigentlich folgendermassen:

Description: "Ihre Fahrschule im Raum Basel. Wie bieten auch Nothelferkurse, Verkehrkundeunterricht und Motorradfahschulen an."
Diese Desc. könnte man vermutlich auf jeder Seite gebrauchen, da sie "kurz" ist.
oder:

2. Sollte man für jede einzelne Seite eine eigene Description wählen? Und eigene KW? (KW vermutlich weniger wichtig..)

Gruss
Sammy
 
QUOTE @Alain
Wie erklärt sich Deiner Meinung nach Slow-Death mit folgendem PR0 & suppl. results, wie er bei agada.de vor der nunmehrigen Auslagerung des Verzeichnisses aufgetreten ist und welche Rolle spielt DC dabei?

Mir sind keinerlei konkreten Zahlen bekannt. Allen voran interessiert mich die Anzahl der Seiten die Google gefressen hat. Wir reden jetzt von der "Jungen aufsteigenden Suchmaschine" agada.de siehe http://www.abakus-internet-marketing.de/fo...sc/start-0.html.
Jetzt weiss ich nicht recht, was da alles war, aber wenn ichs nachschlagen will, vermute ich (Teil existiert nicht mehr in der Form) einen Webkatalog mit einer Suma mit indizierbaren SERPs, right?
Dann sieht es nach zusätzlich nahezu redundanten html Seiten pro Kategorie (Link hinzufügen) in 2 Varianten aus. Neben der Suma im Verzeichnis existiert eine weitere Suma. Allgemein über verschiedene Urls hab ich in Google und Yahoo 4 oder 5 SERPs Varianten gefunden, die indiziert wurden.
Um die Grössenverhältnisse der Seiten (d.h. viele evtl. Inhalt haben zu leeren Seiten) zu vermuten, versuchen wir an agagda-webkataloge.de: site: - site: "Keine Ergebnisse gefunden" = 6k-3750 = 2250 ~> rund 2/3 ist nix. Im Webkatalog. Status Quo. Rückschlüsse auf die multiplen SERPs spar ich mir.
Allgemein vermutet (viele Seiten, SERPs, Katalogeinträge waren von Google gespidert?!?!)

Ok, wie erklärt sich PR0 d.h. SD.: Pseudosuchmaschine.
Welchen Anteil hat DC: Die statischen Seiten pro Katalogseite sind ein Fauxpas der niemandem das Genick bricht. Wenn dann aber aus den Kategorien massenweise Dubletten und hervorgehen, weil viele Kategorien und wenige Einträge existieren, dann ist das schon Riskant bzgl. der Gesammtbewertung, wird Dich aber nicht killen (wenn irgendein realer Anteil besteht).
Um es auf den Punkt zu bringen, ich hab noch nie einen PR0 erlebt, der nur durch DC der Form der 'add-link Seiten' entstanden wäre. Agaga birgt mit den vielen Links et al weitere 'Angriffspunkte' und es ist bekanntermassen auch immer ein Zusammenspiel. Aber um auf den speziellen Fall der indizierbaren SERPs einzugehen kann ich nur an den Grund erinnern warum konventionelle Web-Suchmaschinen vor den Parametern in der Url d.h. bei dynamischen Inhalten halt machten. Der Inhalt ist nicht doppelt, sondern n-Fach... Das ist der Overkill der zu PR0 führt. Die SERPs. (Vgl. suche.fireball.de ;-) Trotzdem kann SD durch DC in den SERPs teilweise sichtbar sein.
Zusammenfassen ist Agada in meinen Augen nicht mehr Duplicate Content sondern einer unendliche Reihe von (Nicht-)Content. Ausserdem gibt es wie gesagt viele andere Faktoren (siehe auch eingehende Links sind meist 'Footerlinks' etc).
Es sei ausserdem dahingestellt, ob der PR0 semiautomatisch ausgelöst wurde, da einen Durchschnittserp doch 8 bezahlte Einträge vor 10 auf den ersten Blick organischen. Der Webkatalog könnt naiv auch als Linkfarm angesehen werden. Z.B. die Kategorie Medizin, bzw. der Unterkategorien. Erinnert mich an

QUOTE Das kommt davon, wenn man versucht, den Google-Index mit leeren "Katalog"-Kategorien und kleinen Linkfarmen zu verunreinigen, anstatt sich auf den eigenen Hintern zu setzen und wervolle Inhalte zu schaffen.
 
Hallo Alain,

vielen Dank für die ausführliche Beschreibung. Jetzt ist mir einiges klar geworden. Finde es wirklich sehr nett, dass du dir soviel Zeit nimmst das Problem zu beschreiben.

Gruß
 
Zurück
Oben