Alain Aubert
Legendäres Mitglied
Ich bin etwas vom theoretischen Standpunkt aus vom konkreten Fall ausgegangen, ohne immer die richtigen Tasten zu treffen.... Also ein Spezialfall. wg >72h, das ist nur ne Zahl.
Von Dir im ersten Abschnitt für kürzere Ausfälle angedachtes wäre imho sehr sinnvoll, nur
QUOTE Kurz eine Zahl in einem Mini-File ändern, je nach Sachlage und Prognose angeglichen, dürfte ein Klacks sein und verhindert Abstürze in den SERPs.
dürfte, sollte...
Nur würd ich den Absturz nicht überbewerten. Ich hatte keine Downtime, woher kann ich wirklich wissen, wie und wie lange. Ich kanns überlegen und der Erwartungswert, ok, aber ihr müsstet doch jetzt genaue Zahlen haben über Downtime und SERPs haben... Korrelierts?
Aner wegen dem 503 302 whatever bei kurzen Ausfällen: Das ist der Industriestandard und man kann Google einen FSM[3]-header schicken ist egal, wenns wieder in Butter ist, sind die SERPs auch wieder schmackhaft - irgendwie logisch (bei Ausfall)
QUOTE Im Ernst: Woher weisst Du so genau, wann genau der Googlebot wieder reinschaut?
Überhaupt nicht. Also ja, ich kann die Daten mit einem Schätzverfahren schätzen, aber, das ist nur ein Gedankenspiel, weil der Googlebot meint er sei intelligent. Bsp. the staler the content -> lower spider freq, oder eben länger down -> weniger probieren.[2] Das war in dem Sinne die Erklärung wieso ich initial überhaupt mit dem 302 gekommen bin. Vergesst es, nehmt 503, wirklich am besten mit akkurater Zeit und nicht über Ranking Abstürze Gedanken machen, ich würd wirklich mal gern konkrete Zahlen sehen (eben sind eure Offline Seiten abgestürzt?)
Ich seh das Problem nicht dort, es ist im Ranking immer über den Besucher. Immer. Also wenn ich Dt>24 (bzw. keine Sicherstellung vom Hoster) dann geh ich doch. Oder eben die kleinen Ausfälle möglichst klein halten. Ich hab ein einfaches System. Wenn ich nicht wenigstens per ssh an den Server komme, dann ruf ich an, stell den Lautsprecher an und das Tel auf den Tisch, bis ich habe was ich will...
MAn braucht keien Throwaway Domains, lediglich solche die gut genug gespidert und für ein paar tage (besser 2-3 wohcen) teilweise nicht erreichbar sind. Sonst wäre Ann3 falsch. WEnn Du auch eine PR10 Seite willst, steht in der FAQ, wiedes machst...
Bottom line. Auch wenn ich über das denken von Algo fluchen kann, so sind sie hier imho eigentlich fähig solche Downtimes richtig zu handhaben. Egal, ob man jetzt mit Standard 500 Serie Header arbeitet oder nicht. Die Idee ist die Zeit zwischen wiederaufschalten der Site und erneutem Spidern (zum ausgleich von evtl. Rankingverlust) möglichst klein zu halten [1]. Wiederum aber vermute ich, dass bei genügen gespiderten Seiten, es sich iA um Peanuts handelt. Ergo macht den 500, am besten 503 mit revisit, dann schlaft ihr auch ruhig, aber ich würde wirklich mal gerne etwas von den Hostpointkunden über ihre SERPs hören, evtl sind meine Vermutungen auch für den A..
Das mit dem t/2 Beispiel war wirklich nur ein Beispiel aufgrund von [1] zu [2]
[3] flying spaghetti monster
Von Dir im ersten Abschnitt für kürzere Ausfälle angedachtes wäre imho sehr sinnvoll, nur
QUOTE Kurz eine Zahl in einem Mini-File ändern, je nach Sachlage und Prognose angeglichen, dürfte ein Klacks sein und verhindert Abstürze in den SERPs.
dürfte, sollte...
Nur würd ich den Absturz nicht überbewerten. Ich hatte keine Downtime, woher kann ich wirklich wissen, wie und wie lange. Ich kanns überlegen und der Erwartungswert, ok, aber ihr müsstet doch jetzt genaue Zahlen haben über Downtime und SERPs haben... Korrelierts?
Aner wegen dem 503 302 whatever bei kurzen Ausfällen: Das ist der Industriestandard und man kann Google einen FSM[3]-header schicken ist egal, wenns wieder in Butter ist, sind die SERPs auch wieder schmackhaft - irgendwie logisch (bei Ausfall)
QUOTE Im Ernst: Woher weisst Du so genau, wann genau der Googlebot wieder reinschaut?
Überhaupt nicht. Also ja, ich kann die Daten mit einem Schätzverfahren schätzen, aber, das ist nur ein Gedankenspiel, weil der Googlebot meint er sei intelligent. Bsp. the staler the content -> lower spider freq, oder eben länger down -> weniger probieren.[2] Das war in dem Sinne die Erklärung wieso ich initial überhaupt mit dem 302 gekommen bin. Vergesst es, nehmt 503, wirklich am besten mit akkurater Zeit und nicht über Ranking Abstürze Gedanken machen, ich würd wirklich mal gern konkrete Zahlen sehen (eben sind eure Offline Seiten abgestürzt?)
Ich seh das Problem nicht dort, es ist im Ranking immer über den Besucher. Immer. Also wenn ich Dt>24 (bzw. keine Sicherstellung vom Hoster) dann geh ich doch. Oder eben die kleinen Ausfälle möglichst klein halten. Ich hab ein einfaches System. Wenn ich nicht wenigstens per ssh an den Server komme, dann ruf ich an, stell den Lautsprecher an und das Tel auf den Tisch, bis ich habe was ich will...
MAn braucht keien Throwaway Domains, lediglich solche die gut genug gespidert und für ein paar tage (besser 2-3 wohcen) teilweise nicht erreichbar sind. Sonst wäre Ann3 falsch. WEnn Du auch eine PR10 Seite willst, steht in der FAQ, wiedes machst...
Bottom line. Auch wenn ich über das denken von Algo fluchen kann, so sind sie hier imho eigentlich fähig solche Downtimes richtig zu handhaben. Egal, ob man jetzt mit Standard 500 Serie Header arbeitet oder nicht. Die Idee ist die Zeit zwischen wiederaufschalten der Site und erneutem Spidern (zum ausgleich von evtl. Rankingverlust) möglichst klein zu halten [1]. Wiederum aber vermute ich, dass bei genügen gespiderten Seiten, es sich iA um Peanuts handelt. Ergo macht den 500, am besten 503 mit revisit, dann schlaft ihr auch ruhig, aber ich würde wirklich mal gerne etwas von den Hostpointkunden über ihre SERPs hören, evtl sind meine Vermutungen auch für den A..
Das mit dem t/2 Beispiel war wirklich nur ein Beispiel aufgrund von [1] zu [2]
[3] flying spaghetti monster