Michael Bieri
Angesehenes Mitglied
Hallo Zusammen
Einer meiner Kunden hat seine Seite bei Greatnet.de gehostet. Da er dort leider einen etwas ungünstigen, langjährigen Vertrag laufen hat, steht momentan ein Umzug kaum zur Diskussion.
Per PHP-Info sehe ich zwar, dass das Mod_Rewrite Modul geladen ist. Erstelle ich aber irgend ein .htaccess-File, egal ob für Berechtigunsfragen oder eben Mod-Rewrite, kriege ich einen Internal Error. (!!!!!. Das File ist aber garantiert korrekt, läuft auf div. anderen Providern fehlerfrei. Zudem sind alle .htaccess Files per FTP nicht sichtbar, obwohl sie aber garantiert existieren. Speichere ich ein leeres .htaccess ab, läuft alles wieder einwandfrei.
Beim Googeln habe ich entdeckt, dass schon andere Leute desswegen Probleme mit Greatnet hatten. Irgendwo schrieb sogar jemand, dass Greatnet diese Funktionen aus Sicherheitsgründen deaktiviert hätten. Ausser dass ein Endlos-Loop stattfinden kann, kommt mir aber gerade kein Sicherheitsrisiko in den Sinn, euch? Und wieso steht es dann im PHP-Info anders drin? Haben die da was gebastelt?
Nun zum Hauptproblem;
Die Seite läuft auf einem CMS aus meiner Küche. Die URL ist bewusst kompakt gehalten, es wird lediglich die Seitennummer und ev. weitere Parameter übergeben. Also index.php?seite=xx. Normalerweise wird das nun noch per mod_rewrite schön aufgebaut, aber das geht hier eben leider nicht. Natürlich wird die Seite so nicht von den Robots indexiert..
Sieht jemand gerade eine mögliche Alternative? Ich habe schon daran gedacht, eine extra Version für die Robots zu erstellen, jeweils die URL zerlegen, und dann bei einem Aufruf eines bekannten Browsertypes wieder an die "echte" Seite weiterzuleiten. Aber da gibts doch sicherlich eine bessere Variante oder? Kann Greatnet überhaupt so dermassen Einschränkungen durchziehen?
Betrifft das Projekt DC-Consulting
Einer meiner Kunden hat seine Seite bei Greatnet.de gehostet. Da er dort leider einen etwas ungünstigen, langjährigen Vertrag laufen hat, steht momentan ein Umzug kaum zur Diskussion.
Per PHP-Info sehe ich zwar, dass das Mod_Rewrite Modul geladen ist. Erstelle ich aber irgend ein .htaccess-File, egal ob für Berechtigunsfragen oder eben Mod-Rewrite, kriege ich einen Internal Error. (!!!!!. Das File ist aber garantiert korrekt, läuft auf div. anderen Providern fehlerfrei. Zudem sind alle .htaccess Files per FTP nicht sichtbar, obwohl sie aber garantiert existieren. Speichere ich ein leeres .htaccess ab, läuft alles wieder einwandfrei.
Beim Googeln habe ich entdeckt, dass schon andere Leute desswegen Probleme mit Greatnet hatten. Irgendwo schrieb sogar jemand, dass Greatnet diese Funktionen aus Sicherheitsgründen deaktiviert hätten. Ausser dass ein Endlos-Loop stattfinden kann, kommt mir aber gerade kein Sicherheitsrisiko in den Sinn, euch? Und wieso steht es dann im PHP-Info anders drin? Haben die da was gebastelt?
Nun zum Hauptproblem;
Die Seite läuft auf einem CMS aus meiner Küche. Die URL ist bewusst kompakt gehalten, es wird lediglich die Seitennummer und ev. weitere Parameter übergeben. Also index.php?seite=xx. Normalerweise wird das nun noch per mod_rewrite schön aufgebaut, aber das geht hier eben leider nicht. Natürlich wird die Seite so nicht von den Robots indexiert..
Sieht jemand gerade eine mögliche Alternative? Ich habe schon daran gedacht, eine extra Version für die Robots zu erstellen, jeweils die URL zerlegen, und dann bei einem Aufruf eines bekannten Browsertypes wieder an die "echte" Seite weiterzuleiten. Aber da gibts doch sicherlich eine bessere Variante oder? Kann Greatnet überhaupt so dermassen Einschränkungen durchziehen?
Betrifft das Projekt DC-Consulting