Ja, 35k ist ein guter Richtwert. Darum ist zB meine HP genau 36,2k gross (gemäss Size Checker auf searchengineworld.com), also komplett mit Bildern.
Huch, das ist ja 1,2 KB zuviel... Scherz.
Kommt immer drauf an, was der Besucher haben will. Wenn ihm das wichtig genug ist, wartet der auch auf 200KB.
Noch extremer, weil Realität:
Ich biete zum Beispiel Sites an (zum Anschauen), bei denen die User erst *nach fünf Minuten Ladezeit* langsam zu motzen beginnen, es dauere zu lange. Richtig geraten,
Flash - das natürlich absolut nicht mehr im Trend liegt und immer öfter geskippt wird (weil alles was sich bewegt nach Werbung aussieht), aber es gibt immer noch Leute die das sehen wollen. Egal obs minutenlang dauert.
Jetzt bin ich abgeschweift, aber für mich ist klar: Kommt immer auf die User an, die Zielgruppe, die Wichtigkeit oder eben auch Attraktivität einer Site.
Pauschalisierende Sprüche wie "darf maximal X gross und Z lange sein" sind
bekannt aber realitätsfremd, im Web gibt es ganz verschiedene User.
Klar ist, dass bei Non-Flash (und im gleichen Atemzug: "Non-Ajax"
Sites die Gesamtgrösse möglichst unter 100k bleiben soll.
- Die eigentliche Antwort liegt für mich in den Server-Statistiken:
Da sehe ich doch, wie lange die Besucher durchschnittlich auf einer bestimmten Seite bleiben. Wenn jetzt gemäss den Stats alle Leute nach 5 Sekunden aus der Index wegklicken, dann "funktioniert" die Seite nicht und man muss was ändern.
Die gewünschte "Landing-Page" ist selten die Index. Es ist eher die Bestellseite, das Anmeldeformular, das Kontaktformular. Die Landing-Page und der "Trampelpfad" dahin sind ebenso wichtig wie die Index: Falls die definierte Landing-Page gemäss den Stats eine typische "Exit-Page" geworden ist, dann muss halt so lange verändert werden, bis die Leute dort landen wo man sie haben will.
Je nach jeweiliger Strategie für das Projekt. Richtwerte sind nur Theorie und was Nielsen im 2001
sagte, gilt noch immer.
Denn Theorien gehen im Web meistens nicht auf. Die Server-Statistiken sind der Schlüssel zur Praxis, das Tweaking ist der Weg. Es gibt superschlanke Websites die gut bei den Besuchern ankommen, genauso gibt es total überladene Websites die noch viel mehr Erfolg erzeugen. Und nun?
Nur die Server-Statistiken zeigen, ob das "Timing" einer Website für die Leute funktioniert oder nicht. Weit hergeholt, aber ists nicht ähnlich wie bei Restaurants: Die einen Gäste warten geduldig eine halbe Stunde lang auf einen freien Tisch, die anderen latschen nach zehn Sekunden hinaus weil ihnen das zuviel ist. Welche Gäste will man nun haben? Darum bin ich für Logfile-Analyse, Clickpath-Analyse (so was gibt es auch in
cool), für flexible Anpassungen an das beobachtete Besucherverhalten statt Pauschalisierung.
Die Anschlussfrage wäre jetzt: Warum sollen neue Websites im Jahre 2006 entsprechend den "W3C Web Standards" erstellt werden, was bringt XHTML wenn es doch meistens als HTML ausgeliefert wird, und werden "standards-compliant" Sites tatsächlich kleiner / schneller, und vielleicht sogar besser durch die Sumas indexiert? Ein Thema, das auch was mit "Ladezeit einer Internetseite" zu tun hat.