Schlagwort-Archive: backup

Backup, so wie es sein sollte…

...zeigt dieser Screencast vom gerade erst veröffentlichten OpenSolaris 2008.11:

via [Erwann Chénedé's Weblog]

Webspace Backup Skript – Update

Lang, lang ists her seit dem ich die erste Version des Webspace-Backup-Skriptes veröffentlicht habe. Hatte es fast schon vergessen, weil immer schön im Hintergrund seine Arbeit verrichtet hat, aber nun hat sich, ganz im Gedanken der OpenSource, jemand anderes daran gemacht das Skript ein wenig zu erweitern.

Janek hat die Originalversion um einige Funktionen erweitert:

  • Prüfung ob rsync und curlftpfs installiert sind
  • Funktion zum ausschließen von Dateien und Ordnern
  • Logging des Backup-Vorgangs

Somit gebe ich hier die aktuelle Version 0.5 des Webspace Backup Skriptes frei zur öffentlichen Verwendung 😀

Wie immer alles ohne Gewähr und doppelten Boden. Das Skript wurde von uns beiden ausgiebig getestet und es zeigten sich keine Fehler, falls bei euch welche auftauchen sollten, bitte melden.

Webspace Backup Skript

Zur Verwendung:

Die Konfiguration erfolgt in der Datei 'ftp-backup.sh' im oberen Bereich. Die Optionen sind dort beschrieben. Um Dateien oder Ordner auszuschließen, müssen diese in der Datei 'ftp-exlude' vermerkt werden. Näheres steht in der Datei.

Bei Fragen oder Anregungen bitte die Kommentare benutzen!

Bild: stock.xchng

Googlemail Backup mit Linux – Auswechselspieler

googlemailOk muss zugeben, fetchmail ist schön, fetchmail ist toll, aber es gibt laut meiner Erfahrung immer jemanden der irgendwas besser kann, und auch beim Mail-Abholer für Linux ist das nicht anders. Getmail heißt der Ersatzmann für fetchmail, der vor allem durch seine durchdachte , übersichtliche Konfiguration besticht, aber auch einige Features hat die fetchmail vermissen lässt. Darum hier eine kleine Aktualisierung meines GMail Backup Tutorials auf Basis von getmail. Installation beschreibe ich heute mal nicht, das könnt ihr mal selbst machen.

Weiterlesen

Googlemail Backup mit Linux

[Update]Mittlerweile gibt es eine aktualisierte Version dieses Tutorials auf Basis von getmail, anstatt fetchmail, was euch aber nicht davon abhalten soll trotzdem diesem Tutorial zu folgen und fetchmail zu verwenden. Dieser Absatz hat lediglich informellen Zwecken, keine Meinungsbildung 😉 . [/Update]

Ich mag Googlemail, immer überall erreichbar, einfach zu bedienen, ständig weiterentwickelt, genug Platz, was will man mehr. Vielleicht für den Fall gerüstet sein, das in Mountain View, California mal irgendwas richtig schief läuft und alle E-Mails weg sind? Wäre nicht schlecht und ist in etwa 4 Minuten plus Übertragungszeit für die Mails von Gmail auf den lokalen Rechner...

Installiert werden muss dafür nur das kleine Programm fetchmail:

sudo apt-get install fetchmail

Dann erstellen wir die Konfigurationsdatei in unserem Heim-Verzeichnis:

nano .fetchmailrc

und tragen dort folgendes ein:

poll pop.gmail.com with proto POP3 and options no dns
user 'deinname@gmail.com' there with password 'verygeheim' is 'deinlinuxbenutzername' here options ssl

und abspeichern und das ganze mit den entsprechenden Rechten versehen (fetchmail ist da etwas eigen):

chmod 710 .fetchmailrc

dann starten wir den Testlauf mit

fetchmail -vk

das v für Verbose, damit ihr seht das fetchmail auch arbeitet, und k für 'keep messages on server', also 'Nachrichten auf dem Server nicht löschen, denn das wollen wir ja nicht.

Eure E-Mails findet ihr dann im Verzeichnis '/var/mail/deinlinuxbenutzername' und können zum Beispiel mit Kmail, Thunderbird und Co angeschaut werden, um eure E-Mails in euer Backup mit aufzunehmen, einfach euer Mailverzeichnis mitsichern und alles ist in bester Ordnung!

Um das ganze regelmäßig zu tun einfach den Befehl (fetchmail -vk) wie in meiner Anleitung zur crontab beschrieben dort eintragen!

Auch hier gilt wieder: Bei Fehlern wenden sie sich bitte an ihren Arzt oder Apotheker, keine Haftung für etwaige Schäden von meiner Seite!

Webspace Backup Skript

tux sucksIch hatte ja neulich bereits eine Möglichkeit zum Backup eures Webspace auf den heimischen Computer und dessen regelmäßige Ausführung mittels cron gezeigt. Diese Lösung ist allerdings in mehrerer Hinsicht nicht optimal:

  • es wird jedes Mal alles komplett übertragen, nicht nur die geänderten Daten
  • kein Backup Archiv, also 'nur Backup von gestern' anstatt Backup von den letztn 7 Tagen

Deshalb habe ich mich mal mit meinen begrenzten Fähigkeiten in Sachen shell-scripting hingesetzt und ein wenig gestrickt. Das Produkt ist zwar noch nicht komplett ausgereift, aber es funktioniert (zumindest meistens 😉 ).

Vorraussetzungen dafür sind:

  • rsync (sollte bereits installiert sein)
  • curlftpfs (Installation mit 'apt-get install curlftpfs' unter (K)Ubuntu)

Das Skript tut das folgende:

  • Backup der geänderten Daten des FTP-Verzeichnisses mit rsync an euren Backup-Lieblingsplatz
  • Archiv mit Kopien eures Webspace der letztem 7 Tage in den Ordnern 'daily.1' bis 'daily.7'
  • Platzsparende Aufbewahrung durch Hard-Links

Weiterlesen