sql Sicherung > Rücksicherung

boa

Aktives Mitglied
Hi.
Ich bin gerade am umziehen von einem Server auf einen schnelleren.
Nun habe ich ein paar Datenbanken, die umziehen müssen, und das auch noch so schnell wie möglich (also von der Zeit her)
Nun sind die Betriebssysteme unterschiedlich (Debian / Suse) die Mysql versionen auch.
Nun bricht der alte Server mit mysqldump nach ca 20 min ab.
Ein direktes kopieren der Tabellen hat auch nicht funktioniert. (liegt vielleicht an der unterschiedlichen Version)
Das schlimmste ich noch, das die Datenbanken auch noch uterschiedlich heissen.
Vielleicht hat ja jemand von hier noch einen guten Tipp diesbezüglich
 
Kopieren der Files sollte funktioniert, wenn die Mysql Version die gleiche ist. Dabei musst Du aber nach dem kopieren den Server neustarten.
Mysqldump sollte aber schon die erste Lösung sein. Versuche die Datenbanken einzeln zu exportieren, wenn er abbricht. Gab es eine Fehlermeldung beim Abbruch? Um wieviele Daten handelt es sich?
 
Kam keine Fehlermeldung.
War einfach Verbindung unterbrochen und das sql file 0kb
Nun habe ich es mit gzip gemacht und das gleiche, aber das File hat es immerhin auf 60 MB geschafft.
Nun entpacke ich es auf dem Anderen Server wieder.
Wie kriege ich denn die Daten in die anderlautende DB nun hinein?
 
Damit kann ich nix werden leider.
Ich habe nun bald die web3_2.sql und will dann die Daten haben in usr_web_3_1
 
Dann machst Du
CODE mysqlimport usr_web_3_1 web3_2.sql

wie in mysqlimport [optionen] datenbank textdatei1
 
Kleine Verständnisfrage:
Hast du vollen Shell-Zugriff auf den Server?
Und wie groß ist die DB?
 
Hallo.
Nach 2 Stunden entpacken habe ich abgebrochen, da es nichteinmal halb fertig war.
Die gepackte Datei ist 63mB groß.
Kann ich das entpacken irgendwie integrieren in mysqlimport?
 
QUOTE (Mike @ Mo 30.5.2005, 19:04) Kleine Verständnisfrage:
Hast du vollen Shell-Zugriff auf den Server?
Und wie groß ist die DB?

Bräuchte Klarheit
wink.gif

Womit hast es genau bisher gemacht?
Genaue Bfehle?
 
Irgendetwas stimmt da nicht.
Kannst Du mal die Befehle posten, die Du verwendest...?

CODE mysqlimport -C usr_web_3_1 web3_2.sql.gz
wäre nach dem Link den ich oben gepostet habe die Variante mit Komprimierung, wobei ich das noch nie getestet habe.
 
Gepackt wurde es mit:
QUOTE mysqldump -hlocalhost -uweb3 -pXXXpasswort web3_2 | gzip > db.sql.gz


Da ist dann diese Datei entstanden. Ob diese auch vollständig ist weiss ich nicht, da das ssh sich abmeldete.
 
Ich weiss nicht, wie lange das entpacken einer 60 Mb gzip Datei benötigt, aber ich weiss, dass ich ohne Probleme Archive von > 1 Giga erstelle. Das funktioniert hier immer. Versuche die Befehle "laut" laufen zu lassen, also idR ist das die Option -v (verbose dt. wortreich). Versuche den Dump nochmals. Evtl nicht direkt komprimieren.
 
Das kommt ja wahrscheinlich auch auf den Inhalt der Datei an. Bei mir sind es sehr viele Einträge mit relativ wenig Inhalt.
Ich benutzte sonst ein Datenbankrücksicherungsprogramm, was die daten teilt und in Paketen runter und wieder hochläd, das dauert in diesem Fall aber Tage.
Ich hatte versucht Das einfach mit "gzip > db.sql.gz"
zu entpacken, um den Datensatz als sql vorliegen zu haben
Nun werde ich mal Dein ungetestetes versuchen
wink.gif
 
QUOTE gunzip -c db.sql.gz | mysql -hlocalhost -uweb3 -pXXXpassw usr_web3_1

und es macht gerade was ohne Fehlermeldung
wink.gif


Ja das hat gefunst
smile.gif

THX 4 Help
 
Zurück
Oben