Hallo Micha,
nein das wird leider nicht passieren (es sei denn jemand beauftragt das ;-)), da wir das nicht benötigen.
Gruß, Eike
Hallo Micha,
nein das wird leider nicht passieren (es sei denn jemand beauftragt das ;-)), da wir das nicht benötigen.
Gruß, Eike
Super script, haben wir in ähnlicher weise auch so umgesetzt. Was mir noch fehlt (und der Grund für meine Suche im Netz war) ist eine grafische Oberfläche wie ininiteWP. (Leider nur Wordpress basierend.)
Gibts ne chance, dass du ein Web-interface dazu bastelst irgendwann?
Gruß
Micha
Ja, das müsste problemlos laufen, die Hardware Anforderungen sind minimal und Debian liefert alles mit was das Script benötigt.
Interessantes Projekt, halt mich mal auf dem laufenden!
Wäre es denkbar, mit dem Script und einem Raspberry Pi eine Art universelle Backup-Maschine zusammen zu basteln?
Auf dem Raspberry läuft in der Regel ein Debian Wheezy, optimiert für ARM-Prozessoren.
Danke.
Ich merke gerade in der Dokumentation steht es auch nicht drin.
Ich hab es hier so eingerichtet:
Alle drei Tage um 23 Uhr für alle Server:
0 23 3,6,9,12,15,18,21,24,27,30 * * root /pfad/zum/script/backup all
Alle drei Tage um 23 Uhr für eine bestimmten Server (dateien und datenbank):
0 23 3,6,9,12,15,18,21,24,27,30 * * root /pfad/zum/script/backup conf_server
Ich lasse die Backups als root laufen. Das ist aber kein muss.
Alle drei Tage um 23 Uhr für eine bestimmten Server (nur datenbank):
0 23 3,6,9,12,15,18,21,24,27,30 * * root /pfad/zum/script/backup conf_server database
Alle drei Tage um 23 Uhr für eine bestimmten Server (nur dateien):
0 23 3,6,9,12,15,18,21,24,27,30 * * root /pfad/zum/script/backup conf_server file
Ich lasse die Backups als root laufen, das ist aber kein muss.
Tolles Skript! Nur den Cron-Job kriege ich nicht ans Laufen - wie könnte der denn beispielhaft aussehen?
Nein, keine Meldung ist eine schlechte Meldung. Es müsste dir den Pfad es Programms "sshfs" zurückgeben werden. sshfs wohl nicht installiert.
Kann dies nicht per ipkg nachinstalliert werden, kommst du wahrscheinlich ums compilieren nicht herum.
Es sei dir aber gesagt, das sshfs nur für die Dateien auf dem zu sichernden Server benötigt werden. Du kannst aber die Datenbanken jetzt schon sichern.
Dazu muss in der jeweiligen Konfiguration BACKUP="database" gesetzt werden.
Es ist eine DS410. Hier vorgestellt:
http://geotagging-blog.de/2011/01/neue-nas-synology-diskstation-ds410-hardware/
Ich kann per SSH auf das darin laufende Linux zugreifen.
der which sshfs Befehl gibt nichts zurück. Gilt hier "Keine Meldung ist gute Meldung?"
Ob ich das selbst kompilieren mache müsste ich dann schauen. Jetzt mache ich erst mal Backup per wget.
Ich kenne mich selber nicht mit Synology NAS aus, noch weiß ich welches Produkt du genau verwendest, aber ich gehe mal davon aus das Linux auf der Kiste läuft und das man einen Shellzugang hat.
Zunächst muss du sicherstellen, dass sshfs auch installiert ist, z.B. mit "which sshfs". Wenn nicht, was ich mal vermute, musst Du entweder das Paket installieren, oder den Quellcode compilieren.
http://www.synology-forum.de/showthread.html?8632-Mount-%FCber-SSH-%28SSHFS-Fuse%29/page2&s=f433414ffdd93f518719cafa6247bf74
Dort ist die Vorgehensweise beschrieben.
Auf dem zu sichernden Server muss kein sshfs laufen nur ein Shellzugang: NAS (sshfs,backupscript)< ----> Server (ssh)
Klingt echt super. Jetzt muss ich nur wissen ob das auch auf einer Synology NAS läuft. Von dort soll das Backup nämlich laufen.
curlftpfs gibt es nicht für die NAS.
Wie kann ich testen ob sshfs richtig läuft? Um das live zu machen müsste ich in den nächst höheren Hostingtarif mit SSH wechseln.
Ok, hört sich erstmal ziemlich klasse an. Wir werden das gleich mal testen ! Vielen Dank dafür das ihr das als Open Source veröffentlicht.
Tolle Sache! Ich bin gespannt und freue mich auf da ausprobieren.
LG
Ede