Probleme durch Weiterleitung / Indexierung

Michael Fischer

Angesehenes Mitglied
Hallo zusammen, hatte grad einen Anruf von delox.de

Folgendes:

Der Webmaster behauptet, dass sein Portal bei Google nicht mehr richtig gelistet ist oder abgewertet wurde, weil ich mit einem Redirect (goto.php) über mod-rewrite auf ihn verweise und dieser mit Titel und Beschreibung von Google indexiert wurde..
Weiter sagte er, dass er vorher einen PR4 hatte und als Ursache meiner Verlinkung nun einen PR0 hat!! Was ich mir nicht vorstellen kann! Nun möchte er einen Link von meiner Startseite PR6 zu ihm als Entschädigung.. was meint Ihr dazu?

http://www.google.de/search?hl=de&q=die+sp...tnG=Suche&meta=

http://www.alleskostenlos.ch/suchmaschinen,links,69,8.html

Kennt jemand diese "Probleme" und hat dies wirklich eine Abwertung der Verlinkten Seite zur Folge?

Danke für die Hilfe,

Mike
 
Interessant. Ich habe zwar keine Ahnung, ob an der Behauptung was dran ist, doch bin ich klar der Meinung, dass dies nicht wirklich Dein Problem ist.
 
QUOTE doch bin ich klar der Meinung, dass dies nicht wirklich Dein Problem ist.

Der Meinung bin ich auch. Der soll froh sein, dass Du ihn überhaupt verlinkt hast. Und wenn er jetzt so blöd daherkommt, würde ich seinen Link kommentarlos löschen.

Gruss, Remo
 
Ich glaub nicht, daß das daran liegt. Sonst könnte man ja ganz einfach die Konkurrenz abstrafen.
 
Hallo,

Danke schonmal für die Antworten!

QUOTE Ich glaub nicht, daß das daran liegt. Sonst könnte man ja ganz einfach die Konkurrenz abstrafen.

Ein gutes Argument Rainer!

Hat jemand evt. schon Erfahrungen damit gemacht oder kennt weitere Infos zu diesem Thema?
 
Keine Ahnung, aber ich denke, wenn es ein generelles Problem ist, dann müsste es auch bei den anderen Seiten auftreten, die Du so verlinkt hast !

Kontrollier doch mal, ob die alle schon bei PR0 angelangt sind.

Wenn nicht, dann argumentier, dass keine weitere verlinkte Seite abgewertet ist und die Behauptung daher nicht nachvollziehbar ist.
 
Hallo mueret,

Ich habe noch von keiner Verlinkten Seite von einem solchen Problem gehört. Auch ist mir nicht bekannt, dass irgend eine Seite deswegen abgewertet wurde. Des weiteren verlinke ich auch gewisse eigene Seiten aus dem Webkatalog auf die gleiche Weise und spüre keine Nachteile.

Gruss Mike
 
Was Du hier machst ist bei Google unter dem Namen Redirect Problematik als Bug bekannt. Es gibt auch Leute, die es Url Hijacking nennen. Ich persönlich hab schon eine Theorie entwickelt, wonach es gar kein Bug ist, aber kömmern wir uns doch mal um die basics. Das Thema wurde breit getreten, aber


Was ist das:
QUOTE diana94:~ # wget http://www.alleskostenlos.ch/goto,1607.html
--19:30:15-- http://www.alleskostenlos.ch/goto,1607.html
=> `goto,1607.html'
Resolving www.alleskostenlos.ch... done.
Connecting to www.alleskostenlos.ch[80.190.251.202]:80... connected.
HTTP request sent, awaiting response... 302 Found
Location: http://www.devaro.com/ [following]
--19:30:15-- http://www.devaro.com/
=> `index.html.2'
Resolving www.devaro.com... done.
Connecting to www.devaro.com[192.67.198.54]:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1,041 [text/html]

100%[====================================>] 1,041 1016.60K/s ETA 00:00

19:30:15 (1016.60 KB/s) - `index.html.2' saved [1041/1041]


Es gibt etwas geniales, das heisst Link. Wenn Du trotzdem tracken willst, dann verwende bitte keinen 302. IdR. führt das zu keinen Problemen, siehe: http://www.google.de/search?hl=de&c2coff=1...ta=lr%3Dlang_de an 7ter Stelle sieht man eine nach deinem Muster gehijackte Seite. Bei ihr wird aber das Ziel aufgerufen, und die Quelle mit dem Inhalt indexiert. Der Unterschied zu deiner Seite ist, dass wenn ich auf den Link bei Dir klicke ich nicht zu dem Ziel weitergeleitet werde. Die Beschwerde ist berechtig und ich lege Dir nahe nicht auf eine Problemlösung Googles zu warten, sondern die Links zu säubern.

Wenn Du noch mehr fragen hast, ich bin heute Abend da.

Das einzige wirkliche Problem ist, wenn man plötzlich nicht mehr weitergeleitet wird. Das ist bei Dir leider der Fall.
 
Ja, das hijacking ist in der Tat ein großes und vor allem ernstzunehmendes Problem, ich kenne viele Seiten die aufgrund dieser Tatsache jetzt nicht mehr im Google Index sind, das Problem wurde auch in diversen Foren schon reichlichst diskutiert.

Eine vermeintliche Lösung zu dem Problem, nachdem Yahoo es zuegeben hat gibt es hier: http://www.thomasbindl.com/blog/index.php?...1&c=1&tb=1&pb=1
 
Geschichte des Bugs:

Es gab einmal einen Webmaster der hat sich besoffen und dann allen anderen Webmastern glauben gemacht, andere Seiten zu linken wäre schlecht fürs eigene Ranking. Daraus (und der tech. Notwendigkeit (?) zu zählen) entwickelte sich eine hohe Kunst der versteckten Links. Ich persönlich vermute, dass im Zuge der Entwicklungen bzgl. Doublicate Content eine weitere Technik zur Bestimmung von Aliases entwickelt wurde, die hier einen offensichtlichen Bug hat, wenn es Domainübergreifend wird. Die Quelle leitet per meta refresh < 1 Sekunde (aka 302) auf das Ziel. Im Falle der "grösseren Wichtigkeit der Quelle (etc.)" kann es passieren, dass die Quelle mit dem Content des Zieles indexiert wird. Der Angegriffene kann das mit dem setzten einen base hrefs beheben (nicht getestet). Das ist auch kein grosses Problem, weil es nur bei einzelnen Seiten passiert. Man verliert nicht einmal Traffic, da alle die auf den gehijackten Link in den SERPs klicken über den SERVER des Hijackers auf die eigene Seite weiter geleitet werden. Sollte diese Kette aber unterbrochen werden... ;-)

Ich habe auch schon gehijackte Seiten gesehen, die stärker waren als ihre Angreifen, und somit an prominenter Stelle blieben, wobei aber die Angreifen teilweise bis in die Top10 in den SERPs rückten. Ob dies alleine aufgrund der Contents passiert ist, möglich ?!, aber ich denke dass sie von ihrem Ziel profitiert haben.

Post Scriptum: noch was. Ich hab ja leider nicht die Reputation um etwas zu behaupten und alle glauben es mir. Trotzdem bin ich seit eh und je der Meinung ausgehende Links sind nicht schlecht, sondern gut (G-U-T) für das eigene Ranking. Brett Tabke behauptet das seit sicher einem Jahr. seo foren bei google bringt ranking-konzept.de abakus, promosite und dann....? Aha? Wieso steht diese Seite dort?
 
QUOTE Im Falle der "grösseren Wichtigkeit der Quelle (etc.)" kann es passieren, dass die Quelle mit dem Content des Zieles indexiert wird. Der Angegriffene kann das mit dem setzten einen base hrefs beheben (nicht getestet).


Ich hatte auch schon gelesen, dass der base href wirkungslos gegen das url-hijacking sein soll, würde mich auch interessieren, ob das nun hilft oder nicht. Oder verhindert man mit dem base href vielleicht nur, dass die Unterseiten aus dem Index fliegen? Bei einer gehijackten Domain werden diese ja sonst nicht mehr mit deem notwendigen Pagerank versorgt.
 
Es ist durchaus nicht so einfach festzustellen, ob eine Seite jetzt zu der oder der Site gehört, und die IP ist weniger Anhaltspunkt als vermutet.

Die base href Info hab ich von Klaus Schallhorn. Ich habe es nicht getestet. Das Vertrauen, dass ich in Klaus habe, zusammen mit der Logik, die (man denke an den Sinn des base href) sehr viel Sinn macht, reichen mir persönlich. Wir wurden u.a. mit der /faq/ gehijacked, aber ausser komischen Sachen und unserem Content in andere Leute Cache hab ich nichts spannendes gesehen.

Ehrlich gesagt halte ich den "Bug" für nicht so schlimm. Peinlich, aber bricht keine Beine. Wenn jemand ein nettes Beispiel von Hijacking im grossen Stile hätte, wäre ich dankbar.
 
Hallo Alain und User

Danke für die Ausführlichen Infos! Ich werde mich also schleunigst daran machen, das "Problem" zu lösen. Witzig ist ja, dass dies nicht mit absicht gemacht wurde, sondern reiner Zufall ist durch meinen Programmierer.

Melde mich dann nochmal,

Grüsse Mike
 
Zurück
Oben