(Stufenweises-) Backup persönlicher Daten

  • Hallo zusammen,

    ich bin auf der Suche nach einer guten Lösung zur Sicherung meiner persönlichen Daten (Bilder, git-Repos, Schriftverkehr, Haushaltsbücher u.ä.).
    Diese Daten liegen im Moment verteilt auf drei Rechnern und drei externen Festplatten. Generell würde ich die Daten gerne an EINEM Ort zusammenführen, zusätzlich davon aber auch noch einmal ein (zwei, drei,...) sinnvolles (externes) Backup einrichten.

    Natürlich wäre die einfache Lösung zuerst alle Daten auf einem RAID-NAS zu vereinen. Allerdings kosten die Dinger samt ausreichender Festplattenkapazität aktuell mehr, als mein Finanzvorstand mir genehmigen würde ;-).

    Daher suche ich aktuell nach einer guten Alternativlösung, die im Grunde in Richtung eines NAS-Systems mit automatisiertem Backup zu einer externen Quelle funktionieren würde. Denn grundlegend sind die Festplatten vielleicht 3-4 Stunden am Abend mal im Einsatz, wenn überhaupt. Auf jeden Fall aber auch nicht täglich, weswegen auch schon eher eine stromsparende (manuelle?) Einschaltlösung mir als sehr sinnvoll erscheint - bzw. auch wieder nicht, wenn irgendwelche Backups automatisch in der Nebenzeit durchgeführt werden sollen.

    Irgendwie komme ich im Moment selbst nicht auf einen grünen Zweig und ich habe mich zuletzt womöglich allzu viel mit Backup-Strategien und Hardware-Lösungen beschäftigt, weswegen ich mich aktuell über ein wenig Hilfe zur Selbsthilfe eurerseits freuen würde.

    Also am Rande: aktueller Stand der Dinge, sowie potentiell einsetzbare Hardware:

    * zwei aktive Rechner

    * ein alter Rechner, der via RDP-Verbindung immer mal wieder für alte Daten herangezogen wird

    * zwei externe USB Festplatten (je einmal USB 2.0, USB 3.0 - je 1 TB)

    * ein "Banana-Nas" (Banana Pro + SATA Festplatte - dient aktuell auch als kleiner Fotoserver, muss allerdings nicht beibehalten werden)
    * Orange Pi Zero2+ (ungenutzt)

    * Raspberry Pi 2 (ungenutzt)

    * externe USB-Festplatte (4 TB, ungenutzt)

    * im Zweifel sicherlich noch alte nicht-performante, stromfressende Rechner

    Als erste Lösung käme mir eine "erste 1:1 Sicherung" der 1 TB-Daten auf die 4 TB-Platte in den Sinn. Womöglich einfach via Raspi oder Orange via dd von USB auf USB (oder geht es womöglich performanter übers Netz von OPi auf Banana?). Aber "was dann"? Wie mache ich weiter mit regelmäßigen Sicherungen? Sichere ich nur noch den File-Change an gewissen Tagen? Organisiere ich meine Festplatten in einem riesigen Git-Repo, welches ich dann auch nach extern zur Sicherung synchronisieren könnte, aber bei einem Checkout vermutlich alle Timeouts/Router-Disconnects sprengt?

    Über jeden Tipp oder Link bin ich sehr dankbar. Ich stehe mir gerade leider selbst auf dem Schlauch ... aber sicherlich hat doch der eine oder andere eine vertretbare Lösung daheim? Oder macht ihr etwa keine Backups!? ;)

    Vielen Dank und beste Grüße

    .NET-, Unity3D-, Web-Dev.
    Mikrocomputer-Hobbyist.

  • Moin Renão,

    ohne dir jetzt eine komplette Backup-Strategie auf schwatzen zu wollen, ein kleiner Hinweis diesbezüglich:

    Organisiere ich meine Festplatten in einem riesigen Git-Repo, welches ich dann auch nach extern zur Sicherung synchronisieren könnte, aber bei einem Checkout vermutlich alle Timeouts/Router-Disconnects sprengt?

    Ich setze seit kurzem "Borg Backup" ein, ein tolles Projekt, wie ich finde. (hast du ja ganz sicher schon in deinem GitHub Feed gesehen :lol:)

    Das kommt an das Prinzip von git IMHO schon ganz gut heran, ist aber explizit für Backups gedacht, schnell und kümmert sich um Verschlüsselung etc. Nur Branches gibt's glaube ich nicht und ob jemand dein Backup forken und verbessern kann weiß ich auch nicht so recht :lol:

    Große Dateien wie Videos und OS Images habe ich pauschal einfach mit gesichert, dauert aber vergleichsweise lange.

    Dafür ändern die sich nicht ;)

    Das ganze läuft zur Zeit noch parallel zu meiner bewährten Backup-Strategie: ein Python-Script mit rsync auf eine HDD, inkrementell und regelmäßig auch komplett. Mal schauen, ob das eine das andere übertrumpfen kann. Doppelt hält besser :shy:

    Beides als Cronjob spät abends.

    Oder macht ihr etwa keine Backups!?

    :-/

    So long...

  • Generell würde ich die Daten gerne an EINEM Ort zusammenführen, zusätzlich davon aber auch noch einmal ein (zwei, drei,...) sinnvolles (externes) Backup einrichten.

    und ich habe mich zuletzt womöglich allzu viel mit Backup-Strategien

    Du kannst Dir mal meine Lösung anschauen... die leistet vielleicht das, was Du möchtest.... weils ähnlich zu meinen Anforderungen ist .Bei mir läuft das mannlos, manuell geht aber auch. Das Sicherungskonzept ist beliebig skalierbar, damits damit ein "eigenes" Sicherungskonzept wird.

    - täglicher rsync auf ein zweites Medium

    - 4 rollierende 7-Tage-tar-Archive auf ein drittes Medium

    - 7-Tage-tar-Archive gnupg-verschlüsselt überschreibend nach extern

    Aber insbesondere empfehle ich wegen der Laufzeiten meine Überlegungen zur Backup-Strategie zu lesen..... weil die meisten Anwender oder sehr viele sichern meiner Meinung nach schlichtweg viel zu viel und damit unnötiges......

    Strategie-Überlegungen

    Programmbeschreibung

    Einmal editiert, zuletzt von WinterUnit16246 (23. Januar 2018 um 09:07)

  • Linus Borg sieht wirklich interessant aus - allerdings macht mir das hier

    Zitat

    EXPECT THAT WE WILL BREAK COMPATIBILITY REPEATEDLY WHEN MAJOR RELEASE NUMBER
    CHANGES (like when going from 0.x.y to 1.0.0 or from 1.x.y to 2.0.0).


    im README etwas Sorgen.

    Persönlich habe ich alle meine persönlichen Daten auf einem Mac und sichere über Time Machine auf ein RAID 1-NAS. Dazu kommen ein paar Backups von Anwendungsdaten per cron job. Vom Backup erstelle ich monatlich per rsync inkrementelle Backups alternierend auf zwei Festplatten, die ich ansonsten außer Haus lagere.

  • im README etwas Sorgen.

    Wieso? :conf:

    Ich kenne das nur zu gut, ist doch keine Seltenheit. Wenn sie ein paar Commandline Parameter ändern passe ich mein Script halt an. Das API nutze ich eh nicht (also als Python Code). Ich habe hier ein Binary von der Releases-Seite auf GitHub, die Version im Repo war (wie immer :shy:) deutlich zu alt. Von selbst aktualisiert sich das eh nicht, läuft also noch ne Weile.

    Time Machine

    ...ist der Hammer. Wenn sie das Teil mal open source machen würden :stumm:

    Ich hab kein Apple-Gerät mit macOS. Kenne das Tool aber recht gut und finde es toll, damit können selbst technisch nicht allzu versierte User regelmäßig und automatisch Backups machen.

  • Wieso?

    Ich kenne das nur zu gut, ist doch keine Seltenheit. Wenn sie ein paar Commandline Parameter ändern passe ich mein Script halt an.


    Solange sich nur die command line parameter ändern, ist das m.E. auch kein Drama, sondern höchstens ärgerlich, falls es nicht früh und deutlich genug kommuniziert wird und man es erst daran merkt, daß die eigenen Skripte auf die Nase fallen. Dramatisch wird's aus meiner Sicht, wenn sie das Backupformat ändern und eine neue Version ein altes Backup auf einmal nicht mehr fortführen oder, schlimmer, gar lesen kann. So hatte ich den Abschnitt erst mal interpretiert, wenn Du da was anderes weißt, fände ich das sehr beruhigend.

  • Danke schon mal für die Vorschläge.

    Linus: Borg werde ich mir mal ansehen. Ich war zuletzt weniger auf GitHub, da ich doch etwas mehr zu tun hatte als erwartet ;-). Ich habe mir aber ein paar nette Stars von dir geklaut (a11y.css, CrookedStyleSheets - aber das ist off topic).

    framp  @ThomasL Wow, ihr habt mir aufgezeigt, dass ich vor lauter Bäumen den Wald nicht mehr gesehen habe. Das gute alte RSync hatte ich total vergessen. Möglicherweise fange ich damit auch erst einmal an.

    .NET-, Unity3D-, Web-Dev.
    Mikrocomputer-Hobbyist.

  • noch das:

    Mich interessiert natürlich nur Teil 2.... was hast Du gegen tar-Archive, rsync-Jobs und mit gnupg verschlüsselte Archive nach extern? Gibt es sachliche Gründe, die dagegen sprechen?

    • Offizieller Beitrag

    Mich interessiert natürlich nur Teil 2....

    Mich nicht: https://de.wikipedia.org/wiki/Andy_Borg :shy:


    Aber gegen Deine Vorschläge in Beitrag #4 habe ich überhaupt nichts, warum sollte ich auch! ;)


    Linus Nur für den Fall, dass Du jetzt auch noch fragst. Das Programm sieht interessant aus, da könnte man eine Ausnahme machen. Gut, eine Ausnahme würde ich auch für 7 of 9 machen. :denker::conf:

  • So ... die Zeiten vergehen, aber die ersten Umsetzungen finden statt ;)

    Ich habe mir gestern mal BorgBackup näher angesehen und eigentlich macht es genau das, was ich gerne möchte.


    Meinen ersten Borg-Testballon werde ich vermutlich heute Abend mal steigen lassen, indem ich die Daten meines lokalen Radicale Servers (CalDAV & CardDAV) damit sichere.

    Mehr dann wieder in einem halben Jahr oder so...

    .NET-, Unity3D-, Web-Dev.
    Mikrocomputer-Hobbyist.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!