Hallo @all,
Ich habe jetzt schon eine weile gegoogelt und leider keine passende Antwort zu dem Thema gefunden.
Ich habe einige CSV Dateien die ich gezippt von einem Server (Zanox / Affilinet) herunterlade. Nach dem entpacken sind einige 800MB groß.
Ich lade jede einzelne CSV Dateie mit dem Befehl "fgetcsv" in ein Array und werte dieses dann aus.
kann ich bei solchen größen das Speicherprobleme Lösen, da der Server stellenweise dermassen in die Knie geht das die Seite nicht mehr erreichbar ist. Habe per INI-Flag dem script einen Speicherbedarf von 600MB zugewiesen und eine Scriptlaufzeit von 3h.
ROOT Server
1GB RAM
Apache 2.0;
PHP 5;
MYSQL 5.1
MFG
Daniel
Ich habe jetzt schon eine weile gegoogelt und leider keine passende Antwort zu dem Thema gefunden.
Ich habe einige CSV Dateien die ich gezippt von einem Server (Zanox / Affilinet) herunterlade. Nach dem entpacken sind einige 800MB groß.
Ich lade jede einzelne CSV Dateie mit dem Befehl "fgetcsv" in ein Array und werte dieses dann aus.
kann ich bei solchen größen das Speicherprobleme Lösen, da der Server stellenweise dermassen in die Knie geht das die Seite nicht mehr erreichbar ist. Habe per INI-Flag dem script einen Speicherbedarf von 600MB zugewiesen und eine Scriptlaufzeit von 3h.
ROOT Server
1GB RAM
Apache 2.0;
PHP 5;
MYSQL 5.1
MFG
Daniel