Backup im Privatbereich: Welche Strategien verfolgt ihr so?

AmazonKleine Umfrage an die Leserschaft dieses Blogs, in der es um das Thema Backup geht. Ein Blog-Leser hat mich mit der Frage konfrontiert, was man als privater Nutzer als Backup-System einsetzen möchte. Dabei geht es um Strategien für die Sicherung von Mobilgeräten und/oder Desktop-PCs mit Windows.


Anzeige

Welches Backupsystem für Privatnutzer?

Blog-Leser Joschka K. hatte mich die Tage in einer persönlichen Nachricht auf Facebook kontaktiert, weil ihn seit seiner Ausbildung als Administrator die Frage Welches Backupsystem setze ich als privater Nutzer ein? umtreibt. Der Leser stellte in diesem Zusammenhang einige zusätzliche Fragen:

  • Gibt es hier eine Lösung vom Anfänger bis zum erfahrenen Benutzer?
  • Welche Anforderungen gibt es im privaten Bereich überhaupt?
  • Welche Hardware habe ich?
  • Welche Daten will ich sichern?
  • Will ich Daten teilen?
  • Was kann/will ich ausgeben?

Die am häufigsten vorkommenden Szenarios dürften im privaten Umfeld ja sein:

  1. Nur Smartphone
  2. Nur Smartphones
  3. Smartphone + PC
  4. Smartphones + PC
  5. Smartphones + PCs

Zum Sichern meinte der Leser, dass bei 1&2, bei normaler Nutzung, sicherlich die Kombination lokal (Gerät) & Cloud (Android/IOS) als Sicherung reicht. Wenn der Nutzer das Smartphone aber viel nutzt, muss er das Abo von Drive oder iCloud für die Sicherung verwenden, oder eine Speichermöglichkeit im Netzwerk zu Hause einrichten. Letzteres dürfte aber den gemeinen Benutzer überfordern, speziell, was Datenstände angeht.

Je mehr Personen pro Haushalt vorhanden sind, desto komplizierter wird das Backup der Geräte. Und es kommen monatliche Kosten auf den Benutzer zu. Der Leser meint zum Thema Kosten:


Anzeige

  • Alternativ gibt es ja für reine Photo-Sicherungen über z.B. Amazon Prime unendlich viele Fotos als Backup.
  • Kombination 3-5 erfordern noch mehr Weitsicht vom Benutzer.
  • Man muss 1 und  abbilden, sowie die PCs aus 3-5.

Hier die Frage: Was will ich vom PC sichern? Und die Frage: Will ich die Daten ggf. bereitstellen? Der Leser schrieb mir: Meine persönliche Favorit ist die Kombi: Lokale oder Externe Platte + 2-Bay NAS + Software FreeFileSync für reine Datensicherungen, unabhängig vom OS des PCs. Über die Software lassen sich von einem PC die Änderungen auf dem NAS oder lokal leicht synchronisieren und ich kann auch die Daten vom Smartphone leicht dort ablegen.

Allerdings erfordert die Konfiguration vom NAS auch etwas Geschick. Über das NAS kann der Leser die Daten anschließend teilen. Die Anschaffung ist zwar einmalig, dafür aber recht kostspielig. Andererseits fallen für das NAS keine monatlichen Folgekosten (außer Strom) an.

Will man die Daten nicht teilen, reichen ja eine lokale und eine externe Festplatte oder zwei externe Festplatten sowie Backup-Software zur Sicherung aus. Das Sichern des kompletten System über z.B. Acronis ist laut Meinung des Lesers heutzutage für den normalen Anwender fast obsolet. Der Leser fragte abschließend: Wie sieh die Community das? Was ist eure beste Lösung?


Anzeige

Dieser Beitrag wurde unter Backup abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

127 Antworten zu Backup im Privatbereich: Welche Strategien verfolgt ihr so?

  1. Sebastian sagt:

    Hallo zusammen,
    Ich habe selbst mal einen Blogartikel dazu geschrieben:

    Besser noch ist aber der Artikel zu den Fällen, als es schief ging:

    Wie bereits beschrieben: Mehr IT macht es nur kompliziert.
    Hoffe die Links sind okay. Ist sonst zu viel für das Kommentarfeld.

    Viele Grüße,
    Sebastian

  2. McAlex777 sagt:

    Ich denke 1x im Jahr auf externe HDD zu sichern ist für viele ausreichend – jedenfalls wenn man nicht viele Änderungen hat. Ich halte es für eine Gute Idee Anwenderdaten ud Betriebssystem/Programme auf 2physisch getrennten Disks vorzuhalten.

    Acronis und Co – insbesondere mit Abomodellen sind m.E. im Privatsektor wenn man keine großen Datenmengen generiert völlig überzogen.

    • Anonymous sagt:

      Korrekt, alte Acronis True Image Boot CD/USB ohne Cloud Gedöns ist da in der Regel völlig ausreichend.

      • Bernd B. sagt:

        Die erste Acronis-Version, die das tibx-Format unterstützt, war Acronis TI 2020, die letzte Version mit Permanentlizenz war Acronis TI 2021.
        Beide gibt es häufiger auf Kleinanzeigen(.)de, zuweilen sogar recht günstig (ich habe für '21 für 15 € abgestaubt).

        • HessischerBub sagt:

          Seit Verschlüsselung der lokalen Festplatte nutze ich nicht mehr Acronis True Image. Es wird das Niotfallwindows der c't mit Drive Snapshot genutzt. Habe mir auch eine Lizenz vom Autor gekauft. Das tut es so wie es früher als Acronis getan hat und ich mir immer wieder eine Permanentlizenz gekauft habe.

          Jetzt mit Cloud gefällt es mir nicht, ich will auch kein großen Aufwand haben. Wenn die ihr Imageprogramm einzeln lizenzieren und das unter einem Windows PE einfach funktionieren würde hätten sie mich als Kunden behalten.

          So sehe ich das den Weg von Nero gehen.

          • Bernd B. sagt:

            Ich nutze FDE seit 2005, es steht einem Onlinebackup des Systems nicht entgegen.
            Offlinebackups werden mit FDE allerdings riesig (eben so gross, wie die Disk) und damit per se teurer. Schon deswegen backuppe ich online (aus dem laufenden OS) und aus dem gleichen Grund ist Acronis TI trotz einiger Schwächen mein Favorit: Auch beim Image-Backup kann man Dateien und Ordner ausschliessen.

            Cloud ist bei ATI eine Option, kein Zwang. Auch meine Backups sind lokal (werden dann Zwecks 3-2-1 mit 3rd-party-tools (mehrfach verschlüsselt) in die Cloud(s) repliziert).
            Wenn ATI 2021 auf einem neuen System nicht mehr läuft muss ich halt mal sehen.

            Bzgl. Notfallwindows und FDE: Keine Software-FDE ist in klassischem Notfallwindows verfügbar, bleiben also custom ISOs zu erstellen oder SDE-Platten zu verwenden (und damit daraiuf zu vertrauen, dass der Hersteller es sauber und ohne Hintertür implementiert hat).

            • Carsten C. sagt:

              Was sind FDE und SDE?

              • Bernd B. sagt:

                Bitte Aufwand nicht zu externalisieren versuchen, das beantwortet jede Suchmaschine.

              • Bernd B. sagt:

                Oh, "SDE" ist ein Typo, "SED" (nein, nicht Die LINKE) ist gemeint.

              • Dat Bundesferkel sagt:

                SED = Self Encrypting Drives
                vs.
                FDE = Full Disk Encryption

                Die meisten Nutzer von Buzzwords wissen gar nicht, was sie bedeuten. Aber sie kommen sich in Foren wichtig und richtig vor. Nur erklären können sie es nicht… oder zumindest auf eine Spur bringen.

                SED bringen in der Regel eine Hardwarebeschleunigung mit, so daß eine Echtzeit-Verschlüsselung praktisch nicht feststellbar ist. Allerdings sind diese Lösungen in sich geschlossen und man muß hoffen, daß es keine Hintertüren gibt (die gibt es fast immer).

                Bei FDE hingegen wird die gesamte Platte mit anderen Mitteln verschlüsselt. Dies KANN ressourcenlastig sein, aber solange die verschlüsselnde Software nicht kaputt-gefrickelt wurde, kann man sicher damit arbeiten.

                Ich hoffe, Dir ein Sprungbrett für eigene Recherchen geboten zu haben. :)

      • Torzum Sauerland sagt:

        Benutze seit dem es Acronis gibt sämtliche neu erschienenen Versionen. Jetzt kommt die noch geltende Einschränkung :
        " Bei Acronis 2020 war Schluß und immer noch nicht benutzt ! " Wollte kein Abo – Modell. Arbeite immer noch mit Acronis 2019 per USB Stick 3.0, CD / DVD und noch externe SSD Pöatte mit Acronis – Start ! Mann oder auch Frau kann auch sehr gute reine private Daten – Festplattensicherungen anlegen. Vom inkrementelle Backups würde ich absehen, hatte schon öfters Hänger! H-J

    • Hobbyperte sagt:

      "Anwenderdaten ud Betriebssystem/Programme auf 2physisch getrennten Disks vorzuhalten."

      Finde ich auch sinnvoll. Ist "Dank" der Datenstruktur "moderner" Betriebssysteme aber nicht so einfach Umsetzbar. Die meisten Leute die ich kenne, machen sich keinen Kopp wohin ein genutztes Programm den Text, das Bild, die Tabelle, das Video … speichert. Erst wenn sie das später wieder brauchen stellt sich die Frage "verdammt, wo ist das nur, wohin hat das blöde Programm die Datei gespeichert?!" … und dann bricht Panik aus, ob es überhaupt gespeichert wurde … denn mit Suchfunktionen kann natürlich auch kaum jemand Umgehen!

      Mit der seit Win95 üblichen "Eigene Dateien" -Systematik kennen sich die meisten nicht wirklich aus … die Sache mit den User-Ordnern … die Idee dahinter seitens MS und Konsorten war ja eben, das der Benutzer sich nicht unbedingt mit der Daten-Struktur Auskennen muss. Nur leider landen Dateien oft in willkürlichen Programmordnern, irgendwo in dem Wust an (teils versteckten) Ordnern auf dem System, keine Chance da etwas spontan zu finden…

      Wer ernsthaft das Eine vom Anderen trennen möchte, kommt nicht umhin sich mit "Symlinks" zu befassen. Da Windoof keine einfachen über die grafische Oberfläche bedienbaren Möglichkeiten anbietet, Ordner und zumal "Systemordner" auf andere Datenträger zu verschieben. Das ist nichts für Normalnutzer … Entweder muss man in den Untiefen der Registry herum pfuschen oder eleganter, den Zugriff auf die Ordner steuern. Ich verwende Symlinks um übermäßige Mengen schnell veraltenden Datenmülls auf der Systemplatte zu vermeiden, gewissermaßen Temp-Dateien im weiteren Sinne. Beispiel: die Filmdatenbank von "Mediatheke-View". Bevor ich (ein bis zwei Mal im Monat) die OS-Partition als Image sichere, lasse ich die "Datenträgerbereinigung" (alten Update-Müll löschen) laufen und leere die Temp-Ordner. Das kann alles zusammen einen Unterschied von mehreren Gigabyte ausmachen.

      • 1ST1 sagt:

        "Da Windoof keine einfachen über die grafische Oberfläche bedienbaren Möglichkeiten anbietet, Ordner und zumal "Systemordner" auf andere Datenträger zu verschieben."

        Falsch!

        Geh mal in c:\users\(deinname) und mache einen Rechtsklick auf den Ordner "Dokumente". Das selbe funktioniert übrigens mit allen dort liegenden Ordnern "Videos", "Bilder", "Download", "Favoriten" usw. Rechte Maustaste, im Kontextmenü "Eigenschaften", dann auf den Tab "Pfad". Hier findest du mehrere Möglichkeiten, den Pfad dieses Ordners zu verändern. Wenn du schon auf D: "Dokumente" hast, kannst du den dort hinlegen. "Verschieben" ist am Besten, wenn man das noch nicht gemacht hat, denn das verschiebt tatsächlich alle Dateien aus dem alten Dokumente-Pfad an den neuen Ort. "Ziel Suchen" ist am Besten, wenn c:\users\(deinname)\Dokumente leer ist und du schon wo anders einen solchen Ordner hast. "Wiederherstellen" ergibt kaum Sinn, denn es verschiebt die Dateien von wo anders wieder zurück in den Standardpfad c:\users\(deinname)\Dokumente.

        Windows ist übrigens schon seit XP so undoof, dass es diese Funktion kennt! Und das Schöne ist, alle Programme nutzen den verschobenen Pfad für ihre Datenspeicherung.

        Ich folge immer dem Prinzip "Daten niemals auf Betriebssystempartition ablegen" und habe auf diese Weise alles auf D: . Das habe ich schon zu XP-Zeiten auf die schmerzhafte Weise lernen müssen, als durch einen Systemabsturz die Systempartition nicht mehr zu retten war. Außerdem ist es doof, die Systempartition versehentlich mit Daten vollzuschreiben, das führt nämlich auch zu fatalen Systemfehlern, wenn das System z.B. die Auslagerungsdatei vergrößern muss oder temporäre Daten nicht mehr abgelegt werden können. Updates können auf einer vollen Systempartition auch nicht mehr erfolgreich installiert werden.

        Das mit dem Extra-Laufwerk macht auch Backup einfach, ich lasse vom D: Laufwerk per Robocopy alles auf meinen privaten Fileserver sichern. Der wiederrum hat ein "Pseudo-Raid-1", ist auch eine Windows-Kiste mit vielen Platten und Freigaben, aber nur die Hälfte der Platten ist im Netz freigegeben. Die andere Hälfte ist Backup, sprich da läuft 1x die Woche ein Robocopy ("/mir") von den jeweils freigegebenen Platten auf die Backup-Platten. So habe ich ein paar Tage Puffer, wenn ich auf meinem Fileserver was gelöscht habe und es mir nochmal anders überlege, dass ich es doch brauche, bevor es endgültig weg ist.

        Zur Langzeit-Strategie, denn so ein Filserver oder die Platten könnten ja auch kaputt gehen: Alle Platten sind gleich groß, von verschiedenen Herstellern und aus verschiedenen Chargen. Außerdem läuft ein SMART-Tool auf dem Server was den Status der Platten überwacht und wenn da eine als fehlerhaft erkannt wird, gibt der Rechner Geräusche von sich, dann weiß ich Bescheid dass es Zeit ist, eine Platte zu tauschen. Momentan warte ich, dass 30TB Platten erschwinglich werden, dann möchte ich noch ein zusätzliches Backup auf so einer einrichten, dass ich manuell alle paaar Monate mal starte und die Platte dann an einer anderen Adresse lagere.

        Cloudbackup kommt für mich nicht in Frage, nicht bei der benötigten Kapazität, nicht bei den Kosten, nicht bei den persönlichen Daten die da liegen. Eher im Gegenteil, auf meinem Server läuft ein Script, welches meine wichtigsten Cloud-Drives nach Lokal in einen Ordner auf einer der freigegbenen Platten sichert, der dann wiederum wöchentlich auf der Backuppplatte landet.

        Der Fileserver ist auch der einzige PC im Haus, auf dem es Microsoft-unabhängige lokale Konten gibt, zum einen damit ich fein granular Ordner für Familienmitglieder freigeben kann, zum anderen für den Fall dass mal was mit dem MS-Account passieren sollte.

        Was mich unter Windows 10 und 11 schon gelegentlich geärgert hat, ist dass diese Betriebssysteme beim Anmelden dem Benutzer gelegentlich das Nutzen von OneDrive als Profillaufwerk aufzuschwätzen versucht. Das sollte man niemalsnicht machen! Habe auch noch keinen Weg gefunden, das wieder zu ändern außer Benutzerprofil zu löschen und wieder neu einzurichten. Das ist zwar auch eine Art Backup, aber ich würde trotz Vertrauen in MS nicht haben wollen, dass meine persönlichen Dateien dort liegen, was ich dort ablegen möchte, das möchte ich selber entscheiden.

        • Micha sagt:

          Das eigentliche Problem ist der Ordner "AppData". Den kann ich leider nicht per Kontextmenü einen neuen Ort verschieben.

          Unter:
          "C:\Users\Benutzername\AppData\Local" werden von manchen PC Spielen die Spielstanddateien und Screenshots abgelegt.
          Das Mozilla Firefox Profil befindet sich auch in dem Ordner.

          Wenn ich also Windows neu Installieren möchte, bin ich dazu gezwungen, in den untiefen meines Systems nach dingen zu suchen die ich behalten möchte.

          Wer also aus einer alten Installation Daten auf einen neuen PC übertragen möchte steht auch wieder vor Problemen.

          z.B.
          Bei älteren Anwendungen kommt dann manchmal das Anwendungskompatibilitäts-Toolkit dazu. Unter Windows XP speichert Diablo II alle lokalen Daten im Stammverzeichnis des Spiels. Wenn ich das ganze unter Windows 11 Installiere, wird der Speicherort automatisch in den Ordner "C:\Users\Benutzer\Saved Games" umgeändert.

          • 1ST1 sagt:

            Firefox- und Thunderbird-Profile lassen sich verschieben. Befasse dich mal mit dem Aufbau der Datei profiles.ini. Darüber kannst du das steuern.

            Wenn Spiele in Appdata\Roaming und Local speichern, ist das DEREN Problem. Die beiden Ordner sind eine Umleitung, damit die Spiele ihre Daten nicht Windows9x-mäßig in ihrem Programmverzeichnis speichern. Die Stümper sind hier bei den Spieleentwicklern zu suchen!

      • McAlex777 sagt:

        ***Ist "Dank" der Datenstruktur "moderner" Betriebssysteme aber nicht so einfach Umsetzbar.***

        Da brauchts kein Symlinks etc pp.

        Einfach einen Neuen Datenträger einbauen, einen Ordner "Own" oder Whatever anlegen, und dort seine eigenen Dokumente/Bilder/Medien etc. ablegen.

        Dann braucht man nur den Ordner 1x im Jahr(Monat aufne externe USB Disk rüberschieben – fertig.

        Der Vorteil der physisch getrennten Disks für die Daten ist das diese i.d.R. deutlich weniger genutzt werden – somit auch physisch eher seltener ausfallen.

  3. Daniel sagt:

    iPhone wird lokal auf PC gesichert, der PC auf dem Synology NAS, und wichtigste vom NAS extern auf anderen Synology NAS wo man Teile über Kreuz sichert.

    Cloud und Mails also im lokalen Netz erreichbar selbst wenn extern Verbindung ausfällt. Anbindung über Telekom mit DSL + LTE Fallback in Fritzbox.

  4. squat0001 sagt:

    Mit Abstand am billigsten ist es ein O365 Familien Abo zu nehmen+ icloud/Google One.

    Ohne Cloud erfüllt z.b. eine Synology NAS der Plus Serie sehr viel. Backup von Windows/Mac PCs. Sync von Dateien von Handys . Handys kann man IMHO ohne Abo quasi nicht vollständig sichern.

    Probleme bleiben natürlich die Usability, Notebooks/PCs/Smartphones müssen lange genug eingeschaltet sein um ein Backup zu ermöglichen.
    Das Backup hebelt natürlich jegliche Geräte Sicherheit aus.. Bitlocker&Co.
    Externe Datenträger werden nicht mit gesichert, durch die Verteilung auf viele Geräte ist die Überwachung sehr schwer. Und alles ist damit sehr Fehleranfällig.

    • Daniel sagt:

      iPhone kannst komplett sichern auf PC/Mac ohne Abo.

      Synology NAS wäre Plus Serie schon super, ginge aber auch drunter.

      Externe Laufwerke kann man auch mit sichern lassen in Active Backup in der DS. Wenn NAS vorhanden ist, sollte man eh externe Laufwerke nur für temporäre Sachen nutzen.

    • OwenBurnett sagt:

      Android bekommst du mit TWRP voll gebackuped samt OS, z.b. auf USB stick

  5. Sebastian sagt:

    Externe Festplatten im Raid für maximale Ausfallsicherheit – das wars. Auf lange Sicht günstiger als jedes Abo wie immer bei kaufen vs. mieten. Wer will kann über ein NAS die Daten von aussen verfügbar machen, das kann heute auch jede Fritz Box, allerdings gab es da natürlich schon Ransomware Vorfälle – das sollte man im Kopf behalten. Und irgendwann kommen vielleicht auch klassische Einbrecher auf die Idee sowas mitzunehmen und einen zu erpressen. Aber alles besser als ein Abo.

  6. Reiner sagt:

    Meinen PC sichere ich mit CloneZilla (alle 3-6 Monate). Dokumente mit Ordnerstruktur mit FreeFileSync auf zweiter Festplatte. Wichtige Daten brenne ich auf mindestens 2 DVD's. Nutze 7-Zip mit PAR2 wegen der Redundanz besonders auf USB-Sticks. Oder RAR mit Wiederherstellungsdaten. Smartphone Dateien sichere ich mit RAR für Android. Auch wegen der Verschlüsselung. Generell mache ich nach größeren Veränderungen auch mal ein Backup zwischendurch.

  7. rpr sagt:

    Ich habe eine älter Synology 1518 aus aus der schwarzen Serie bei Ebay beworgt und 8 Platten als Raud 6 eingebaut.
    Die kostenlose Server-Backup Lösung Active Backup von Synology sichert alle Systeme täglich sobald sie erreichbar sind.
    Gleiches gilt für mein Vmware ESX Testlabor .
    Mailkonten werden jeweils von Mailstore home (privat kostenlos) gesichert.
    Es laufen Win10, Linux und Apple Geräte.
    Keine typische Privatuser Lösung aber Active Backup gibt es auch für kleiner schwarze Synologys.
    Iphones und Pad sichern sich in die Apple Cloud.
    Manuele Bckups werde eh immer vergessen. Also vermeide ich sie.
    Als Tip noch Personal-Backup. Damit kann man auch eine Menge machen.
    Gruß

  8. OwenBurnett sagt:

    Handy mit TWRP
    PC's mit Acronis Workstation auf's eigene NAS
    vom NAS gibts 2 stück das eine als backup des anderen und nur manuelle sync für den fall irgend eines malware befalls von dem welches immer online ist.

  9. Jörg sagt:

    Mein Usecase ist Fall 3 (PC/Laptop + Smartphone).
    Zu Hause steht ein älteres 2-bay-Synology-NAS.
    Bilder vom Smartphone werden über die DS Photo-App automatisch auf dem NAS gesichert, mehr Sicherungen benötige ich vom Smartphone (derzeit) nicht.
    Die Windows- und Programmpartition vom PC wird regelmäßig geimaged (derzeit im 2-Wochen-Rhythmus, was angesichts der kaum vorhandenen Änderungen zu häufig ist). Dokumente, Bilder, etc. werden mittels Cloud Station Drive auf das NAS gesynct – darunter zählen auch die per IMAPSize wöchentlich inkrementell gesicherten E-Mails (über Windows Taskplaner).
    Eine Versicherung vor irgendwelchen Verschlüsselungstrojanern ist so nicht gegeben (keine Versionierung auf dem NAS aktiv). Daher werden wichtige Daten versioniert und verschlüsselt vom NAS jede Nacht bei Backblaze B2 gesichert (es existiert ein Windows-Tool, das diese Daten wieder extrahieren könnte) – zudem sind die Daten vor einem lokalen Desasterfall (Brand oder anderweitige Zerstörung) gesichert.
    Nur auf dem NAS gesicherte Video-Dateien (z.B. von Mediatheken) werden sehr unregelmäßig "manuell" auf externe USB-Platte gesichert (die Sicherung läuft automatisch los, wenn die Platte eingesteckt wird).

    Wichtig für mich ist, dass alles (bis auf die Filmsicherungen) vollautomatisch läuft und ich mich um nichts kümmern muss.

  10. Holger sagt:

    Hallo zusammen….

    PC:
    1 mal wöchentlich ein B2D
    1 mal in 3 Monaten ein weiteres B2D welches ausgelagert wird (feuerfest & diebstahlsicher).

    Smartphone:
    Unregelmäßig auf den PC.

    Bei wichtigen Änderungen oder Dateiablagen wird direkt im Anschluss der Aktion gesichert. Dann wird im normalen Rythmus fortgefahren.

    Grüßle

  11. Singlethreaded sagt:

    Alle wichtigen Dokumente speichern wir auf unserem NAS-System, welches aus Windows heraus als Netzlaufwerk verknüpft ist. Wichtige Programme wie das Online Banking windata sind so konfiguriert, dass die Backups ebenfalls auf dem NAS landen. Daten der Smartphones gehen per WLAN und MyPhoneExplorer auf das NAS.

    Die Sicherung:
    – Gesammelte Daten vom NAS auf externe USB-Festplatte
    – Gesammelte Daten vom NAS auf meinen Laptop (2. interne SSD)
    – Gesammelte Daten vom NAS in den HiDrive von Strato (clientseitige Verschlüsselung vor dem Upload)

    Datenmenge der Sicherung ca. 1TB. Bis auf Wechsel der USB Festplatte und sichern der Smartphones ist das Ganze automatisiert. Für Passwörter gibt es noch zusätzliche Backups auf verschlüsselten USB-Sticks.

  12. Chris sagt:

    Handy Backup mit iTunes nach Bedarf.

    PC Backup täglich, sofern PC an, mit Veeam Backup for Windows free auf eine NAS, wer keine NAS hat kann auch automatisch auf eine USB Platte sichern wenn diese angesteckt wird. Veeam wirft diese auch automatisch wieder aus damit diese im Falle eine Ramsomware Infektion nicht mit verschlüsselt wird.

    Backups als Vollsicherung und inkrementelll, spart Speicherplatz und ermöglicht einen auch auf einen bestimmten Tag zurück zu sichern. Wiederherstellung über Windows wenn es nur um bestimmte Dateien geht, oder per Boot ISO wenn es um das komplette System geht. In die Boot ISO kann Veeam auch automatisch direkt die Treiber des System mit einbinden, damit muss man sich bei einer Wiederherstellung auf der ursprünglichen Hardware nicht noch rumärgern das in der Wiederherstellungsumgebung die Netzwerkkarte nicht funktioniert.

    Da mit Windows dann auch die Handy Backups mit gesichert werden ist man da doppelt abgesichert.

    • Richard sagt:

      Das Backup mit VEEAM ist recht cool. Ich sichere unregelmäßig einen Teil der Platten auf eine USB-Platte, die zwischenzeitlich außer Haus gelagert wird.
      Nachteil 1: Das unregelmäßig findet eher selten statt.
      Nachteil 2: Irgendwann braucht VEEAM ewig lange, um die Daten zusammenzuführen. Mittlerweile dauert mein Backup über 12 Stunden.

      • Mario sagt:

        Ich sichere exaxt genau so und kann dem nur zustimmen.
        Veeam ist absolut spitze und sogar kostenlos.

        Vor allem Nachteil 2 kann ich leider auch bestätigen, bei mir dauern die Backups mittlerweile auch gefühlt ewig.

        Ich bin daher am überlegen ob ich nur noch sporadische Vollsicherungen über Veeam mache und die täglichen Backups auf Filebackups umstelle. Die würde ich dann über Dr. Rathlevs Personal Backup machen:
        https://personal-backup.rathlev-home.de/

      • Carsten C. sagt:

        Evtl. hilft es bei Nachteil 2, ein "periodic full backup" in den Backupjob einzubauen. Das braucht mehr Platz, aber die nachfolgenden inkrementellen Backups nehmen dann das letzte "full backup" als Ausgangspunkt, wenn ich das richtig verstehe.

  13. RogerB sagt:

    Iphone mit iTunes auf dem Rechner wöchentlich.
    Die M2 im PC wird monatlich geclont. Der Clone liegt danach offline im Schank.

  14. Hobbyperte sagt:

    Ein großer, wenn nicht der größte Teil der privaten Nutzer von IT-Geräten haben nur geringes Wissen über Dateimanagement, die Datenstruktur des jeweils genutzten OS, oder kennen überhaupt grundlegende Dinge wie den Unterschied zw. Bit und Byte … Von "Backup" haben die meist noch nie was gehört, oder nur im Zusammenhang mit automatisierten Lösungen die auf den Geräten von selbst laufen (zb. Google- oder WhatsApp-Daten Backup auf den Smartphones) . Insofern stellt sich die Frage nach einer Backup-Lösung und -Strategie für die meisten Nutzer erst einmal nicht. Und oft erst für die Zukunft, nachdem es zum Datenverlust gekommen ist…
    Daher käme für die "breite Masse" nur ein vollautomatisches, immer aktives Backupsystem seitens des jeweiligen OS in Frage, welches den Nutzer aktiv dazu Auffordert entsprechenden externen Speicherplatz (zb. Wechselfestplatte) zur Verfügung zu stellen … der Rest muss dann "one click" von selbst funktionieren. Alles andere ist eine Illusorische Idee von IT-Experten, die ernsthaft glauben "Leute" würden sich mit solchen Fragen in ihrem meist ohnehin schon stressigen Alltag bewusst beschäftigen (wollen).

    • Tom sagt:

      Da hast Du recht. Ich habe schon länger kein neues Smartphone mehr eingerichtet, aber wird hier heutzutage nicht automatisch schon die Cloud Sicherung vorgeschlagen? Bleibt noch der Windows Client. Aber auch hier geht Microsoft deshalb doch den Weg und drängt einem fast schon überall den OneDrive Speicher auf.

      Für Otto Normalverbraucher ist eine automatische Speicherung in der Cloud sicher noch besser als gar kein Backup. Und wer ein bisschen mehr Wissen hat, kann dann selber entscheiden, ob eine unverschlüsselte Speicherung in der Cloud sinnvoll ist oder es nicht bessere Lösungen gibt.

      • Hobbyperte sagt:

        Die allerbeste Lösung hatten wir schon … in der Zeit bevor es Internet und Informations-Technik-Produkte gab ! Was haben die Menschen damals Zeit gespart !! Keine Probleme mit elendigen Updates und Update-Pannen, keine ständige Jagd nach Schnäppchen (online-Shopping), kein Ärger mit unübersichtlichen, schlecht gemachten Webseiten, vor allem solcher von Behörden etc. Kein ewiges Warten in Telefon-Hotlines, keine "Sicherheitsprobleme", keine Überwachung durch den Fernseher oder Radio-Wecker am Bett, keine Gängelungen und permanenten Belästigungen durch Werbung usw. Keine Datenverlust-/Backup-Probleme, keine sinnfreien Kurznachrichten usw. im social Media, keine stundenlangen Telefongespräche (jede Minute hat 12 Pfennige gekostet, mindestens!), keine jährliche Überprüfung der laufenden Verträge: Telefon, Handy, Strom, Gas, Versicherungen …

        Wenn man es so bedenkt, überwogen die Vorteile der von überbordender Technik freien Äera bei weitem die vermeintlichen Nachteile: keine ständige Erreichbarkeit, immer und überall … keine permanente Ablenkung durch "Benachrichtigungen" aller Art, vom Update bis hin zur hoch wichtigen Nachricht von Freunden, Familie, Bekannten und Kollegen … wer gerade Aufgestanden ist, auf's Kloo muss oder meint Bilder vom Essen senden zu müssen etc.
        Stellt Euch vor, damals gab es noch richtige Geschäfte in den Innenstädten und dort waren Verkäufer mit Ahnung, die echten Service Angeboten haben, nicht bloß Verkaufs-Bla-Bla …

        Alles war teurer? Wirklich? Der 30 Jahre alte Fernseher funktioniert heute aber noch klaglos, wenn man das wollte. Damals galt: lieber etwas mehr Geld für Qualität Ausgeben, als jedes Jahr neu kaufen müssen … Sachen wurden noch repariert und das war billiger als neu Kaufen … Arbeitszeit war nicht unbezahlbar … woran das alles wohl lag ?!

        Tja, die Welt und das Land wird von " … " Regiert und Verwaltet, schneller, billiger, mehr Profit, Profit, Profit … Wachstum, Konsum, immer mehr, noch mehr, noch schneller, mehr, mehr mehr …

        Lebensqualität geht anders !! Aber das Interessiert "die da oben" schon mal gar nicht und die Lemminge glauben jeden Schwachsinn den man ihnen "erzählt" (Narrativ … Erzählung … ) hört den Politikern etc. in Talksendungen mal zu, da bei denen auch nicht mehr sonderlich viel Licht in der Birne brennt, geben die es in öffentlichen Sendungen inzw. offen zu, wie sie die Öffentlichkeit blenden, die Bürger / Wähler verarschen … ihr müsst nur mal richtig zuhören, die verwendeten Aussagen und Worte verstehen und richtig Einordnen. Die sagen es frei raus, was sie tun und vor haben. Trotzdem wählt "ihr" sie immer wieder und wieder und wieder … warum nur?

        "Früher war alles besser" Nö, wahrlich nicht. Aber besser als heute war vieles allemal. Sofern man mit "Früher" die Zeit um 1970 bis zur Wend (um 1990) meint.

        • Tom sagt:

          Ist jetzt zwar völlig Off Topic, aber es steht doch jedem frei sich technisch zurück in Jahr 1970 zu katapultieren. Viel Spaß dabei.

        • 1ST1 sagt:

          Ich kann deine Gesellschaftskritik durchaus teils nachvollziehen. Aber es waren nicht "die da oben" welche diese ganze Technologie entwickelt hat, sondern "wir", die seit den 1970- und 80ern sich die ersten Computer auf den Tisch gestellt haben. Wir sind selbst an dem ganzen Scheiß mit schuld, hätten wir uns den Scheiß nicht gekauft, hätte sich das nicht durchgesetzt. Und Missen wollen wir den ganzen Scheiß andererseits heute auch nicht mehr.

        • Windowsnutzer1969 sagt:

          Weiterhin OT,
          aber es passt ja doch auch irgendwie zum Thema:

          Danke, dass du dir die Mühe gemacht hast, das so schön zusammenzufassen und niederzuschreiben.

          Ja, stimmt schon alles irgendwie. Denke da auch sehr oft drüber nach. Können natürlich auch (leider) nur Menschen verstehen, die diese "frühere Zeit" selbst (mit)erlebt haben und die somit auch den direkten Vergleich herstellen können.

          Eins dürfte auf jeden Fall klar sein: "Zeit" für jeden Einzelnen, war auf jeden Fall mehr vorhanden als wie aktuell. Es ist ein Trugschluss, dass uns die digitale Welt ein Zeitplus beschert hat. Das genaue Gegenteil dürfte der Fall sein. Die Entwicklung war allerdings schleichend-vereinnahmend – und keiner hat es so wirklich gemerkt und so gut wie alle haben mitgemacht. Und nun ist es – wie so oft – eben mal wieder zu spät … Wie bei so vielen anfangs guten und sehr guten Dingen, die dann irgendwann komplett ausgeufert sind und ihren eigentlich Sinn und Zweck verloren haben. Maß- und Zielhalten liegt halt einfach nicht in der Natur des Menschen. Das dürfte das Hauptproblem sein (?) Wo schon viel ist, muss noch immer mehr. Immer weiter, besser, schneller, höher, teurer, mega, turbo, hyper …

          Kann ein Turm allerdings endlos in den Himmel wachsen?? Mal sehen, was noch so alles kommt und ob der Turm dann irgendwann kippen wird … Bleibt auf jeden Fall sehr spannend!

          Ach so ja, ich benutze privat das kostenlose "Personal Backup" von Dr. Jürgen Rathlev (https[:]//personal-backup.rathlev-home.de/) und sichere täglich auf zwei USB-Sticks.

  15. Luzifer sagt:

    gesichert wird nach der 3-2-1- Regel über O&O DiskImage, einmal im Monat ein Komplett Backup und wöchentlich inkrementell. Auf externen Backupplatten und das monatliche Backup zusätzlich einmal auf Band. (streng genommen also ne 3-3-1 Regel ;-P
    Die Platten liegen im F90 Safe, das Band extern bei den Eltern.
    Kein Backup kein Mitleid! (und NEIN ein NAS ist kein Backup (Ransomware!))

    Abgedeckt werden der Server, die PCs, Laptop, Tablet und Handy… XBox, Playstation, Wii, Switch und Steamdeck bleiben aussen vor, da diese Daten ohne Probleme wieder geladen werden können oder eh auf Scheibe vorliegen. Smarthome/IoT läuft über den Server und wird da mitgesichert.

    • Luzifer sagt:

      /edit/
      NAS wird nicht gesichert, da nur Datenhalte für alle anderen Geräte zur Verteilung und zentralen Zugriff und da das immer im Netzwerk hängt ist das auch kein Backup! Platten die ständig im System hängen sind kein Backup, weder im geschäftlichen noch im privaten Bereich! Ransomware Befall und Futsch!

      Und immer drann denken: auch das Zurückspielen mal prüfen ;-P will man kein böses Erwachen !

    • Sebastian sagt:

      Ich halte auch "AirGap" für nötig, um definitiv vor Ransomware geschützt zu sein, aber so lange man die SMB shares des NAS nicht als Netzlaufwerk auf dem Computer einbindet, wüsste ich nicht, wie Ransomware das NAS verschlüsseln können sollte.

  16. Kai sagt:

    Alle Geräte (PCs / Laptops / Smartphones / Tablets) sichern automatisiert und täglich auf NAS #1 im RAID 6. Davon wird 1 x pro Woche* eine Sicherung auf NAS #2 durchgeführt, dabei zieht NAS #2 die Daten von NAS #1, so dass kein Gerät gespeicherte / abgreifbare Zugangsdaten für NAS #2 hat.

    * Bei wichtigen Ereignissen, wo viele wichtige Daten neu dazugekommen sind, wird auch mal eine Extra-Sicherung durchgeführt.

    Wichtigere Daten werden zusätzlich regelmäßig auf (aktuell) 3 externe HDDs in Rotation gesichert, wovon mindesten eine immer außer Haus gelagert ist. Zudem erfolgt eine Cloud-Sicherung von Prio-Daten beim Anbieter aus Deutschland (ist im DSL Vertrag mit inkludiert und warum die ~1TB nicht nutzen).

    In unregelmäßigen & größeren Abständen wird bei den PCs auch ein System-Image gemacht, aber das hat sehr geringe Priorität. Dazu ändert sich die installierte Software viel zu selten und in 30+ Jahren habe ich so eine Sicherung nie wirklich zwingend gebraucht. Nach längerer Zeit mach ich dann eh lieber eine Neuinstallation. Da wird man Altlasten los und richtet auch nur das wieder ein, was wirklich noch gebraucht wird.

    Daten werden bei mir an keiner Stelle im Klartext / unverschlüsselt gespeichert. Entsprechend beruhigt kann auch eine Speichermedium ausfallen oder als Reklamation eingeschickt werden.

    Habe mit dem Konzept der zentralen NAS-Speicherung vor etwa 10 Jahren und nur 2 PCs im Haus angefangen. Hat sich sehr bewährt, arbeitet zuverlässig, mit wenigen manuellen Handgriffen und skaliert auch wunderbar. Inzwischen ist das bei mir so auch alles ausgereift, dass ich im kaum von einem Anbieter oder Software abhängig bin, der ggf. morgen sein Softwarekonzept umstellt.

  17. Rocco Siffredi sagt:

    PC: Etwa alle sechs Monate alle Laufwerke (insgesamt 6 TB) komplett mit Acronis TrueImage 2017. Vor umfangreicheren Updates mache ich auch zwischendurch ein Backup der Windows Partition alleine.

    Smartphone: Kontakte, Bilder, Videos und diverse andere Dateien sichere ich bei Bedarf per USB-Verbindung auf dem PC. Lediglich die Kontoeinstellungen werden auf dem Google Konto gespeichert.

  18. Fritz sagt:

    Ich bin da ganz konservativ.
    Moobilgeräte per iTunes auf PC und dessen Daten automatisiert auf ein NAS.

    Im wahrsten Sinne des Wortes unersetzliche Daten (dazu gehören z.B. Fotos, aber auch das Mailarchiv) gehen hinten raus aber immer noch auf mehrere gebrannte DVDs. Zeitpunkt nach Bedarf, aber spätestens nach dem nächsten großen Urlaub (es war gerade wieder soweit).

    • M.D. sagt:

      DVD? Interessant.

      Aufgrund schlechter Erfahrungen hab ich selbstgebrannte CDs/DVDs von der Liste der Backupvarianten gestrichen. Es ist mehrfach vorgekommen, dass Datenträger nach einer gewissen Zeitspanne entweder komplett oder in Teilen nicht mehr lesbar waren. Ich habe sogar mehrere Laufwerke ausprobiert, es lag an den Datenträgern. Die Qualität der Rohlinge war sogar bei ein und dem selben Hersteller schwankend. Immerhin habe ich keine unersetzlichen oder essentiell wichtigen Daten auf dem Weg verloren.

      Heute landet bei mir alles auf mehreren externen Festplatten, die per LUKS verschlüsselt sind und die niemals allen am selben Ort lagern. Alles wichtige vom Handy landet auf einem Datenträger des PCs und wird von dort auf die externen Festplatten kopiert.

      Innerhalb des PCs befinden sich die zu sichernden Daten in RAIDs.

  19. Fred sagt:

    Android:
    – wöchentlich Titanium Backup
    – dann per DS Drive aufs Synology NAS

    Windows und Linux:
    – per Active Backup for Business aufs Synology NAS

    NAS:
    – auf externes NAS
    – und zusätzlich auf 2 externe HDDs, welche wöchentlich gewechselt werden, damit im schlimmsten Fall noch eine Sicherung offline besteht.

  20. Daniel A. sagt:

    Für den PC halte ich es so:
    OS und persönliche Daten liegen auf zwei getrennten Datenträgern (SSD für OS, HDD für Daten). Installierte Programme noch mal auf einer weiteren SSD.

    Die Datenplatte mit den Persönliche Daten wird 1x monatlich mittels FreeFileSync auf zwei externe HDDs kopiert. Installierte Programme selbst werden nicht gesichert, zur Not muss ich die halt neu installieren, die Setups + Keys (wo notwendig) sind mit auf der Datenplatte.
    Alle 3-6 Monate mache ich ein Image des OS-Laufwerks mit Clonezilla auf meine Datenplatte, von dort werden sie dann beim nächsten FreeFileSync Lauf auch auf die externen HDDs kopiert.
    Damit bin ich bisher ganz gut gefahren.
    Smartphone habe ich persönlich keins, daher kann ich da zur Sicherung nichts beitragen

  21. kurt sagt:

    Mehrere iPhones und mehrere PCs.
    iPhones laufen alle über die gleiche Apple-ID, sind synchronisiert, Datenspeicherung in der iCloud, ist sowieso nichts wirklich wichtiges auf dem iPhone. Wenn eines verlorengeht oder defekt ist kann mans problemos ab iCloud oder von einem anderen iPhone neu installieren.
    PCs werden regelmässig mit OO DiskImage gesichert, gibts ja mehrmals pro Jahr zu einem guten Preis, so hat man immer die neuste Version. Emails (Thunderbird) werden zusätzlich gesichert.

  22. Tom sagt:

    Ein Backup muss immer automatisiert erfolgen. Alles Manuelle gerät irgendwann in Vergessenheit oder ist nicht aktuell, wenn man es einmal benötigt.

    Alle Daten sind auf einem NAS gesichert mit RAID 5. Alle Änderungen werden 1x pro Woche auf ein zweites NAS gesichert, welches ebenfalls mit RAID 5 läuft. So kann auf dem ersten NAS auch mal etwas versehentlich gelöscht werden, ohne dass es auf dem 2. NAS ebenfalls gleich weg ist.

    Weil das 2. NAS im gleichen Haushalt steht, werden besonders wichtige Daten zusätzlich noch vom ersten NAS automatisch in verschlüsselter Form in einen AWS S3 Cloud-Speicher kopiert. Die QNAP NAS Geräte unterstützen AWS S3, weshalb die Einrichtung relativ einfach ist. Der S3 Speicher ist super günstig, kostet pro Monat etwas weniger als 1 Euro.

    Vom Smartphone werden die Bilder ebenfalls automatisch auf den ersten NAS Speicher kopiert. Ansonsten gibt es auf dem Smartphone keine wirklich wichtigen Daten, bzw. liegen ohnehin schon auf dem NAS Speicher.

  23. BOFH sagt:

    Für den Bereich PC, Server, VM Sicherung kann ich Synology Active Backup for Business empfehlen. Gibt es allerdings nur ab der Plus Serie.

    Einfaches Backup und Restore

    https://www.synology.com/de-de/dsm/feature/active-backup-business/pc

  24. Wolfgang sagt:

    Android:
    – App-Daten wenn möglich in die Cloud bzw. eigenes Backup nach Google Drive
    – Bilder zu OneDrive
    – ggf. zusätzliche Ordner ebenfalls zu OneDrive

    PC:
    – Desktop/Bilder/Dokumente in OneDrive
    – Zusätzlich Windows-Sicherung (Dateiversionsverlauf) auf NAS

    NAS
    – gegenseitige nächtliche Sync mit zweitem NAS in anderem Haushalt via Fritzbox/Wireguard site2site VPN

    Kosten
    – zwei Generationen NAS (muss nicht mehr zwingend unter Support sein, da nicht öffentlich erreichbar).
    – Microsoft Family-Abo (~30-50€/Jahr für bis zu sechs Personen)

    Nutzen
    – Just-in-time Backup sämtlicher relevanter Daten ohne manuelle Eingriffe
    – Auch für weniger affine Nutzer umsetzbar

  25. ThBock sagt:

    Bei mir:
    PC – Ubuntu
    Laptop – Win 10
    Smartphone, Tablet – Android
    Laptop, Smartphone & Tablet spielen fast keine Rolle. Da sind sind keine wichtigen Daten drauf. Die liegen alle auf dem PC. Hier mache ich einmal im Monat eine Sicherung meiner Dateien auf eine externe Festplatte & in die Telekom Cloud.
    Danach sichere ich meine Systemplatte mit fsarchiver auf externe Platte.
    Anschließend mache ich noch ein dist-upgrade. Das Ganze dauert 'ne halbe/dreiviertel Stunde und ich bin im worst case 4 Wochen zurück. (Noch nie passiert)

  26. Björn E. Kevalonen sagt:

    In meinem vergleichsweise bescheidenen privaten Rahmen verfolge ich diese Strategie:

    – kein Backup des Betriebssystems und der Programme, da Linux und Open Source
    – nach jeder Arbeit am PC werden die bearbeiteten Dateien auf USB-Stick gesichert
    – an jedem Monatsende wichtige Daten auf DVD-RW gebrannt
    – zwischendurch unregelmäßig alle Daten zusätzlich auf externen Festplatten gespeichert
    – immer am Jahresende wichtige Daten auf DVD+R gebrannt und über Jahre hinweg aufgehoben
    (die Daten werden stets verschlüsselt abgelegt, der Datentransfer jeweils per Hash verifiziert)

    So hatte ich noch nie einen Datenverlust zu erleiden und würde maximal die Arbeit eines Tages verlieren. Wobei ich, wenn ich die nicht auf DVD gebrannten, aber auf externen Festplatten gespeicherten Foto-, Video- und Musikdateien einbeziehe, insgesamt auf ca. 500 GB komme. Da das Brennen auf DVD aufwändig ist, empfiehlt sich bei größeren Datenmengen nur die Speicherung auf externen Festplatten. Wie auch immer, jedenfalls hat sich meine Strategie, ständig zu sichern und sich dabei nie auf einen Datenträger allein zu verlassen, bislang ausgezahlt.

  27. R.S. sagt:

    Wöchentlich Backup aller Geräte aufs NAS und das NAS monatlich auf externen Platten mit 3 Generationen.
    NAS alleine ist ein richtiges Backup!
    Nicht nur wegen Ransomware, auch z.B. unvorhergesehene Ereignisse, wie Überspannung etc. würden ein NAS zerstören und damit auch das Backup.
    Daher gehört ein Backup immer auf ein Offlinemedium, das nur für die Zeit des Backups/Restores physisch (sowohl Daten als auch Strom) angeschlossen ist.
    Idealerweise lagert man das Backup dann auch noch an einem anderen Ort, dann ist man auch z.B. vor Elementarschäden wie Hochwasser (siehe Ahrtal) etc. geschützt.

    Und die von Microsoft gewünschte Ablage ist eh Blödsinn.
    Wenn ich z.B. Urlaubserinnerungen habe, und dabei Bilder und Videos sind, dann speichere ich sicher nicht wie von Microsoft gewünscht die Bilder unter "Bilder" und die Videos unter "Videos", sondern beide unter "Urlaubserinnerungen Urlaub xxxx" o.Ä..
    Ich lege grundsätzlich bei jedem System eine neue Partition an, auf der ich meine Daten speichere. Die vorhandene Partition wird entsprechend verkleinert, mehr als 200-300 GB braucht man für eine Windows-Partition ohne Benutzerdaten nicht.
    Partition 1 beinhaltet grundsätzlich keine Benutzerdaten, die sind alle auf Partition 2 in einer von mir selbst angelegten Datenstruktur.
    Dadurch findet man auch ohne die Windows Suche (die seit Vista eh nichts taugt) sehr schnell die Daten wieder.
    Auf Partition 1 sind nur das Betriebssystem und die Programme.
    Regelmäßig gesichert wird nur Partition 2, denn in Partition 1 ändert sich nur sehr selten etwas.
    Sicherung der Partition 1 nur bei größeren Änderungen.

  28. Wolfi sagt:

    Da grundsätzlich alle pers. Daten nie auf dem PC gespeichert sind, sondern auf Externen Festplatten ist ein Backup von Windows unnötig, da das Clean-Setup schneller ist als ein Windows Backup. Die Daten liegen stets auf drei verschiedenen Datenträgern und sind nicht ständig mit dem PC verbunden und der PC ist bei Datensicherungen nie Online (physisch getrennt). Externe Datenträger sind nach der Sicherung Read-Only (physisch). Kein Datenverlust hier seit 38 Jahren.

  29. Anonymous sagt:

    Ich bevorzuge auch ein lokales Backup mit einer externen Disk die nur zum Backup angeschlossen wird. Hierbei sollte auch der Lagerplatz dieser Platte beachtet werden.
    Wenn mir die Hütte abbrennt ist u.U. beides verloren vor allem wenn beides sogar noch im gleichen Raum war, also Brandschutz des Backups nicht vernachlässigen.
    Bei Cloud, mal abgesehen vom Datenschutz, weiß man nie wann es dem Anbieter in den Kopf kommt irgendwas zu löschen oder den Account zu sperren, aber auch das wäre weniger schlimm wenn es nur ein Backup wäre, außer es tritt gerade beides gleichzeitig auf. Leider nutzen viele Leute die Cloud als einzigen Speicherort und nicht nur als Backup.

  30. HessischerBub sagt:

    Gespeichert habe ich alles auf einem NAS. Synology DS213j (ja, EOL).

    Was so auf dem Notebook lokal anfällt wie Outlook PST-Datei und das Firefox Profil wird dann mit Robocopy alle paar Tage auf das NAS kopiert.

    Sonst ab und an ein Image von allen Notebooks wenn sich da Änderungen ergeben haben. Ich boote dazu von c't Notfall-Windows 2024 und sichere mit Drive Snapshot.

    Alle Freigaben vom NAS sichere ich einmal die Woche mit einem Skript (robocopy) abwechselnd auf zwei externe USB-Festplatten.

    Eine davon lege ich pro Jahr ins Bankschließfach als Schutz gegen Wohnungsbrand. Die andere in den Keller als Archiv.

    Hier ein Beispiel aus dem Skript zum Sichern des NAS auf externe Festplatte:

    @echo off

    set OPTIONEN=/J /MIR /R:1 /W:1 /TEE /COPY:DAT

    […]
    robocopy "\\DISKSTATION\photo" "D:\photo" %OPTIONEN% /LOG:Logfile\LOG_PHOTO.TXT
    robocopy "\\DISKSTATION\Buecher" "D:\Buecher" %OPTIONEN% /LOG:Logfile\LOG_BUECHER.TXT
    robocopy "\\DISKSTATION\homes" "D:\homes" %OPTIONEN% /LOG:Logfile\LOG_HOMES.TXT
    […]

  31. Mark Heitbrink sagt:

    mein Senf:
    ich sichere nur Daten. das OS wird im Fehlerfall neuinstalliert.
    sobald ich einen USB stick einstecke, wird ein Event ausgelöst, das ein Skript über die Aufgabenplanung startet.
    ist es der richtige USB Stick, Prüfung im Skript, dann wird ein robocopy job gestartet.

    so sichere ich 3-10 Mal pro Woche die Daten

  32. FrankB sagt:

    Wir sichern unsere Geräte mittels Veeam FreeAgent auf ein Synology-Repository.
    Das 1x pro Woche und nur wenige RestorePoints, weil eigentlich die Daten selbst schon auf dem Syno liegen sollten.
    Nach Funktionsupdates werden überall die Recovery-Medien neu erstellt und ebenfalls auf dem Synology abgelegt.
    1x pro Monat werden die Daten mittels HyperBackup auf ein zweites Syno repliziert/gesichert. Dieses zweite Syno wird nur für diesen Job angeworfen und danach wieder ausgemacht. Es ist auch im Haus versteckt, so daß ein Einbrecher nicht auch noch sämtliche Daten mitnimmt und wir blank zuhause sind.
    Handies sichern Daten über Dropbox und syncen damit z.B. die KeePass-Datenbank mit den PCs. Meine PCs synchen die KeePass-DB auch noch auf das Synology und manuell auf Stick.
    2x im Jahr wird das Synology mit aller Musik, Filmen und unseren Daten komplett auf eine USB-Platte kopiert (direkt am NAS ohne PC-Einfluss). Hierfür gibt es je eine USB-Platte, die also 1x pro Jahr zum Einsatz kommt und sonst gut weggesperrt gelagert wird.

    Ich habe dies in unserer Firma ähnlich im Einsatz und hier für mich privat adaptiert: nur Bänder sind mir zu teuer und nicht mehr zeitgemäß. Auch muß ich nicht jeden Stand 10 Jahre aufheben.
    Veeam ist mit dem BareMetal-Recovery einfach unschlagbar gut, schnell und kostenlos.

    Verschlüsselungstrojaner sind einfach der Alptraum und man weiß nie, ob man schon einen im Netz hat und wann die zuschlagen.

  33. wussteesmal sagt:

    Auf meinem Smartphone gibt es keine wichtigen Daten. Neue Bilder werden am Tag ihrer Entstehung auf den PC kopiert.

    Vom PC wird nur die Daten-SSD gesichert. Täglich per robocopy in Veracrypt-Container auf externe Platten. Davon lagert immer eine im Schreibtisch am Arbeitsplatz und eine Zuhause. In der (Next-)Cloud liegen nur die Daten, die an verschiedenen Orten oder von unterschiedlichen Leuten benötigt werden.
    Falls der PC mal crashed liegen die Nutzdaten im Backup. Ab und an den PC neu aufsetzen tut erfahrungsgemäß auch mal ganz gut.
    Das System und die Daten auf unterschiedlichen Datenträgern bin ich schon seit den 80ern gewöhnt. Damals noch unter Unix war /users eine eigen Festplatte und nach dem Wechsel auf Windows NT war es eine Festplatte als Laufwerk D:. Und schon immer beschränkte sich bei mir die Datensicherung auf diese Festplatte. Alles Andere kann man sich jederzeit wieder neu besorgen.

  34. Pau11 sagt:

    Vorsicht.
    wenn Du die Arconis CD erzeugst sind da nur die Treiber des aktuellen, dafür verwendenten Systeme enthalten!
    (sonst wäre das PE schnell Gigabytes groß).
    Das kann Probleme geben, wenn Du auf das Netzwerk musst und das neue Motherboard einen anderen Netzwerkkontroller hat.
    Ein USB Ethernet Adapter ist da flexibler, hilft aber auch nix, wenn das neue Board auch einen neuen USBKontroler hat. BTST..
    Aber hier geht's ja nur um Backup.

    Ansonsten war Acronis auf CD früher eine tolle Sache.
    Kein anderes Tool kam so gut mit neuen, leeren Festplatten zurecht.
    installieren sollte man es nur, wenn man auf einzelne Datei properiären Backup-Files zugreifen muss. Da ist das Drive Snapshot wesentlich günstiger, ja genialer, weil es normale Windows images benutzt. Aber wie gesagt, da hat man sich selbst um die Partionierung zu kümmern.

    • Bernd B. sagt:

      Nix "Vorsicht!!!".
      Der "Bootable Rescue Media Builder" erlaubt schon länger das Einbinden beliebiger Treiber in das WinPE-Image – man muss eben selbst entscheiden, wie gross das Image werden darf (ich habe z.B. die kompletten Netzwerk- und Storage-Treiber von "Snappy Driver Installer Origin"* integriert).
      Die Zeiten, wo man DVDs oder gar CDs als Rettungsmedium nutzte sind lange vorbei und wer am USB-Stick spart verdient es nicht besser (USB-Disks sind _alle_ hinreichend gross).

      Und installieren sollte man es auch für scheduled Backups und für Backups von FDE-Disks (sonst muss man Bitlocker (mühsam!) oder Veracrypt manuell zum Image hinzufügen).
      Ist halt ein kleiner Kampf, die Crapware von Acronis (insb. die Antimalware-Komponente) loszuwerden bzw. ihren Start zu verhindern, aber das ist schon machbar.

      * www(.)glenn(.)delahoy(.)com/

      • Pau11 sagt:

        Ja klar. das muß man aber wissen und machen.
        und klar man kann die fehlenden Treiber nachträglich in das Boot gerät installieren.

        CD meint natürlich auch andere.
        Das man Heute USB device benutzt ist jedem Leser hier klar. Danke.
        Was aber nicht klar ist, das man U.U. nur von einer CD booten kann.
        Aber das ist rar.

        Der Tipp ein restore zu testen bringt nur etwas, wenn man auch andere Hardware nimmt, was ja durchaus nötig sein kann.
        Gilt aber nicht nur bei ATI.

        • Pau11 sagt:

          Ja klar. das muß man aber wissen und machen.
          und klar man kann die fehlenden Treiber nachträglich in das Boot gerät installieren.

          CD meint natürlich auch andere.
          Das man Heute USB device benutzt ist jedem Leser hier klar. Danke.
          Was aber nicht klar ist, das man U.U. nur von einer CD booten kann.
          Aber das ist rar.

          Der Tipp ein restore zu testen bringt nur etwas, wenn man auch andere Hardware nimmt, was ja durchaus nötig sein kann.
          Gilt aber nicht nur bei ATI.

          leider scheint die Editier funktioniert z.Zt. nicht zu gehen.

          • Bernd B. sagt:

            GEEZ!
            Der Builder bietet es an, man muss es _aktiv_ übergehen, um keine anderen Treiber einzubinden.
            Wollen Sie Backupprogramme, die Rescuemedien anbieten, pauschal schlechtreden (denn das ist denen allen inhährent, Acronis ist mit dem Angebot der weitere-Treiber-Integration eher die Ausnahme) oder was war des Ziel?

            CD/DVD sprach ich wegen des Grössenlimits an, es ist eben _nur_ dort relevant (wieder die Frage: Wollten Sie nur trollen, dass sie Exoten ansprachen, um Acronis schlechtzureden?!).

            Ich verstehe Ihre Intention mit obigen Posts wirklich nicht, Solches ist doch sonst die Domäne von [Siewissenschon].

            P.S. Wir beide vergassen, fehlende USB(3)-Treiber zu erwähnen.

            • Pau11 sagt:

              was sollen diese Unterstellungen?

              ich sagte doch das ich Acronis gut finde wegen des automatischen apartion Managements

              Es ist doch klar, das es keine Treiber Probleme mit dem Netzwerk treiber geben kann, wenn das Backup auch auf dem Stick ist…
              Sie sollten dringend wieder arbeiten, so viel Wochenende bekommt wohl nicht jedem. :-)

              • Bernd B. sagt:

                GEEZ!
                Es gibt keine Treiberprobleme, wenn man alle einband. Schrieb ich doch schon!

                Sie mäkelten wahrheitswidrig herum, nicht ich. Vielleicht tut also Ihnen das WE nicht gut.

  35. Pau11 sagt:

    als wünschen noch geholfen hat, hatte ich auf einem Netzwerk Share eine ein paar GB große Datei mit efs formatiert (nicht der Server, der ist egal, die Datei).
    Dieses Image würde über ein crypy-loop device gemountet und auch efs formatiert.
    D.h. meinen Rechner verließen keine unverschlüsselten Daten.
    Die Schlüssel blieben bei mir. Die Performance war ausreichend.
    Dennoch war es möglich, die Daten von einem anderen Rechner zu lesen.
    Als Backup und Archive Tool gab es eine kleine Software, "rsync-backup" die schaute ob die lokale Datei auf dem Server existierte.
    Wenn ja und diese unverändert war wurde sie nur als hardlink in einem Verzeichnis mit dem aktuellen Datum abgelegt.
    So war es kein Problem, alle 4 Stunden ein "voll" Backup per cron- job zumachen. und es ging schnell, die meisten Dateien ändern sich ja nicht.
    Der restore lief über ein einfaches cp -p oder auch per rsync.
    Das ganze (außer dem crypt device) gab fix und fertig als apt.
    Aber wurde irgendwann nicht mehr supported.

    Nachteil war, das wenn man Dateien verschoben hatte, diese doch dupliziert wurden. Schlimm, wenn man ein Verzeichnis unbenannt hatte. Hätte man fixen können….
    Vorteil war, das Umbenennungen keine alte Versionen zerstörten,
    was beim Konventionellen inkrementellen Backups passieren kann.

    Naja, unter Windows könnte man früher keine Dateien wie eine Festplatte mounten, und bis heute geht's es wohl nicht, diese Laufwerke verschlüsselt zu halten…

    Geeignet ist das für PC.. Apple hat dieses Verfahren (außer dem crypt) als die berühmte, geniale Time machine serienmässig.

    • Pau11 sagt:

      Man könnte ja einen Vercrypt Container nehmen, das ist dann aber kein Boardmittel und man muß etwas von einem 3. Hersteller installieren.

      Hm, man kann ja inzwischen auch bei NTFS soft und hardlinks machen. Aber automatisch, zum deduplizieten, im Home?

      • Carsten C. sagt:

        "rsync-backup" gab es mal in der c't in einer Windows-Umsetzung. Das wurde leider an aktuellere Windows-Versionen nicht angepasst und funktioniert mit Windows 10/11 nicht mehr, wenn ich mich nicht irre. Eine funktionierende Alternative wäre z.B. http://www.hardlinkbackup.de .

      • Bernd B. sagt:

        Wieder BS.
        Man muss Veracrypt nicht installieren, die portable version funktioniert ausgezeichnet, auch in WinPE und Linuxbootmedien.

      • R.S. sagt:

        Soft- und Hardlinks kann Windows schon seit Windows 2000.
        Nur gabs damals von Microsoft keine Möglichkeit, diese anzulegen oder zu verwalten. Aber es gab externe Tools dafür.
        Nutze ich schon seit Windows 2000.
        Und Soft- und Hardlinks werden schon bei Windows 7 standardmäßig an sehr vielen Stellen genutzt.
        Leider lassen Soft- und Jardlinks aber nur über die Befehlszeile verwalten und nicht direkt im Explorer.

  36. Pau11 sagt:

    Da ich das gerade wieder lese und
    ehe das falschverstanden wird.

    RAID ersetzt kein Backup.
    RAID erhöht die Ausfallwahrscheinlichkeit weil es mehr Teile verwendet, die kaputt gehen können, und reduziert sie nicht.
    RAID verkürzt nur die Zeit des Ausfalls.
    RAID schützt nicht vor ungewollten Löschvorgängen
    Hardware RAIDs könnten ein Restore verhindern, wenn diese Hardware nicht mehr lieferbar ist.
    RAID sichert den Umsatz der Platten Hersteller.

    Natürlich kann man das gerne machen, man darf sich nur nicht darauf verlassen.

    • squat0002 sagt:

      Auch wenn ich bei fast allem der gleichen Meinung bin.

      Die Aussage:"RAID erhöht die Ausfallwahrscheinlichkeit weil es mehr Teile verwendet, die kaputt gehen können, und reduziert sie nicht."

      Stimmt einfach nicht. Nehmen wir RAID5, 3 Platten, jede Platte bekommt eine Ausfalls Wahrscheinlichkeit von 5%

      Dann dann erhöht sich zwar die Waschheinlichkeit dass ein Teil ausfällt, konkret auf 15%. Die Wahrscheinlichkeit dass aber mehr als ein Teil Zeitgleich ausfällt sinkt aber..

      Das ist wie beim Würfeln mit 2 Würfeln.. eine 12 ist weniger wahrscheinlich wie eine 6. 1/6 vs. 1/12.

      Wenn man ein Software Raid verwendet, spielt der Raidcontroller keine Rolle.

      Die meisten Backups hier gelistet .. sind leider alle unvollständig. Erfüllen wenn überhaupt gerade Mal den Anspruch an ein Desaster Recovery. Bei den meisten Methoden.. wie rsync/smbcopy usw. Fehlt auch die Möglichkeit einer Validierung. Mit dem Risiko dass ein Fehlerhaftes Backup das bestehende Backup kaputt macht.

      Viel manueller Aufwand für ein mäßiges Ergebnis.

      Und wie man mit DVD,/Blueray sichern will, verstehe ich nicht.. mein Handy hat 256GB Speicher, das würde schon pro Sicherung 64 DVDs brauchen.. und wie wird dann geprüft ob alle hunderten DVDs noch lesbar sind?

      • Pau11 sagt:

        Ja, auf DVD sichern ist Strafarbeit. Es ist ja so elendig langsam, aber vor umverschlüsselung sicher.
        Bluerays haben immerhin 25GB, und als properitäre MDisk 100GB.
        Ein Wechsler wäre trotzdem schön…

        Wer kann sich privat ein LTO leisten?
        Die Bänder sind ja bezahlbar, aber die Laufwerke, oder?

        Ganze Festplatte tauschen und einlagern ist für Private wohl das preiswerteste. Es muss dann halt ein USB Wechseln Rahmen her und alle Jahre mal die Platten bestromt werden, damit die Ellis darauf nicht ihre Kapazitäten verlieren.

        Sagte wer schon?
        Backup ist mit Arbeit verbunden…

        • Carsten C. sagt:

          Bei LTO ist nicht nur der Laufwerkspreis ein Kriterium. Meist braucht man zusätzlich einen passenden (SAS-)Controller. Und dann müssen die Daten mit ausreichender kontinuierlicher Geschwindigkeit an das Bandlaufwerk gesendet werden, damit es nicht im Start-Stopp-Betrieb arbeitet, welcher Band und Laufwerk übermäßig strapaziert.

  37. chw9999 sagt:

    * Alle Androids der Familie sichern mittels der App SMBSync2 täglich ihre Daten auf (m)ein Raspi-NAS (via SMB halt), aber nur, wenn sie zu Hause liegen. Außerhalb geht das nicht, mein Raspi ist durch die FB nach draußen gesperrt.
    * Die Änderungen im NAS werden jeden Monat manuell auf eine separate Platte mittels FreeFileSync (gibts für Linux, MacOS und Windows) im Update-Modus abgezogen, die verworfenen alten Kopien gehen dabei auf eine weitere Archivplatte. Da manueller Prozess, sieht man sofort, was sich geändert hat (Ransomware -Verschlüsselungen sollten durch Volumenserhöhung VORHER sofort auffallen).
    * Die *Platte* meines Linux-Laptops wird einmal im Monat mittels DD auf eine zweite Platte gespiegelt. Die kann ich dann sofort im Fehlerfalle ein/ersetzen, oder gar in einem anderen Rechner einstecken und dort starten. Ich habe nur eine Partition, da ist alles drin. Partitionen werden ja doch wie Hosen auch irgendwann immer mal zu klein, Partitioniert habe ich das letzte mal meine Megafile20 ;)
    * Die *Daten* meines Linux-Laptops werden bei Bedarf mehrmals pro Woche ebenfalls per FreeFileSync auf eine dieser 1:1 Kopien kopiert. Sollte was zu Bruch gehen, habe ich ein recht frisches System mit noch aktuelleren Daten.

    Alle meine nicht sensitiven Daten liegen unverschlüsselt auf den Platten, kopiert wird immer Dateiweise. Kritische Daten habe ich in einem VeraCrypt-Container. Da alle Dateien als solche vorliegen, gibt es auch kein Problem beim Zurückspielen (vor allem: geht schnell!). DD-Images kann man auch separat (ggf. gepackt) ablegen, und sie können gemounted werden, das kostet aber immer etwas Zeit und Aufwand. Also ein bunter Blumenstrauß, aber zum Zurückspielen ist keine Spezialsoftware notwendig, das war mir wichtig, denn ich habe auch schon mal Dateien von vor x Jahren von Platte wiedergeholt.

    • Pau11 sagt:

      danke.
      interessant.
      SMBSync2 geht mit neueren Androids (14) nicht.

      • chw9999 sagt:

        Doch, geht schon, man kann es nur offensichtlich nicht mehr von Google Play aus installieren. Ich habe beim Update auf 14 wie bei so vielen Apps die Info "wurde für eine ältere Version entwickelt" erhalten und immer ohne Folgeprobleme weggeklickt.
        Wenn es hilft, meine Version: 2.54(286) com.sentaroh.android.SMBSync2. Meine aus der Installation extrahierte App hat 7.571.945 Bytes.
        Lade es mit einem älteren Android runter, extrahiere die App, und installiere sie dann manuell unter 14. Sollte funktionieren. Viel Glück.

  38. Boris sagt:

    Alle Handybilder der Familie (alles IPhones) synce ich mit meiner Nextcloud (privater, virtueller Root Server bei netcup)

    Alle wichtigen Laptopdaten von mir und meiner Faru synce ich auch in die Nextcloud und gegenseitig auf das Notebook.

    Von meinem Notebook mache ich jeden Freitag mit Veeam Free ein Backup auf eine USB-Platte, die in den Schrank kommt.

    D.h. alle alle relevanten Daten von meiner Frau und mir und alle Bilder von allen IPhones sind an 4 Orten: 2x Notebook, 1x in der Cloud, 1x auf externer USB-SSD

    Das sollte hoffentlich alle Notfälle abdecken :-|

  39. Micha sagt:

    Zum sichern der Systemdatenträgers von Windows nutze ich die Funktion "Sichern und Wiederherstellen (Windows 7)". Meistens 1x im Monat vor dem zweiten Dienstag. Da ist ja bekanntlich Windows Patchday.

    Nach dem schreiben des Systemabbildes kann ich die *.vhdx Datei über die Datenträgerverwaltung bei bedarf über die Funktion "Virtuelle Festplatte hinzufügen" hinzufügen und einen Laufwerksbuchstaben vergeben.

    Danach können beliebige Dateien aus dem Backup wieder hergestellt werden.

    Zum abmelden der Virtuellen Festplatte wird der Laufwerksbuchstabe wieder entfernt. Anschließend das virtuelle Laufwerk getrennt.

    Andere dinge wie Urlaubsbilder, Dokumente, Heft DVDs der PCGH mit dem Jahresarchiv und Spielstanddateien von PC Spielen landen auf der externen Festplatte und einer DVD.

    Die DVD wird danach auf die Externe Festplatte als ISO Image abgelegt. Wenn das alles passiert ist, wird noch eine *txt erstellt. In der befindet sich dann der Index. Diesen kann man dann über die Funktion "Dateiinhalte durchsuchen" mit der Windows Suche nach Schlagworten durchsuchen. Als Inhaltstype muss man den Dateityp "Dokument" für *txt Dateien angeben.

    Meine umfangreiche CD und DVD Sammlung habe ich mittlerweile auch komplett als ISO Image auf der externen Festplatte abgelegt. Der Index ist geschrieben.

    Anschließend wurden die SHA Testsummen der DVD und vom eingelegten Image der DVD mit 7Zip berechnet und verglichen. Die SHA Testsumme ist im Ordner der ISO Datei mit abgespeichert.

    Audio CDs wurden im *FLAG Format abgelegt und soweit möglich mit passenden Tags versehen.

    Die DVD Sammlung wird ungefähr all 2 Jahre mit der Nero CD Speed oder Opti Drive Control mit einem ASUS DRW-24D5MT Brenner auf Fehler untersucht. Datenträger mit auffällig hohen C1/C2 und PI Errors/ PI Failures werten, werden dann erneut erstellt. Anschließend wird wieder der SHA Wert über 7Zip ermittelt und mit der auf der Externen Festplatte liegenden Testsumme verglichen.

    Den DVD Brenner Lite-ON DH-16AFSH-Premm 2 habe ich leider noch nie zu einem vertretbaren Preis im Euroraum zum Verkauf angeboten bekommen. Er wäre wahrscheinlich ein weitaus präziseres Werkzeug um die Qualität von CDs und DVDs zu bewerten.

    • Pau11 sagt:

      sollte man seine Dauer Backups nicht besser auf verbatim MDisk speichern? 25 GB 5 euro, 100GB 8Euro.
      Der Hersteller verspricht extreme Dauerhaftigkeit.
      Auch muss man beim testlesen 10..20mal seltener die Scheibe wechseln.

      Und irgendwann bekommt man ja auch mit DVDs Platzprobleme.
      4,7GB waren früher mal "fast unendlich", heute sind die 100GB "oh, das wird knapp".
      Früher war ein Bild 1MB , heute 100MB raw, von Videos ganz zuschweigen.

      • Carsten C. sagt:

        In 2020 hat die c't einen Test der 25 GB M-Disc durchgeführt. Das Ergebnis war mäßig. Man muss wohl einiges an Vertrauen aufbringen, dass die Daten in einigen Jahren tatsächlich noch lesbar sind (und dass man ggf. in einigen Jahren noch geeignete Laufwerke bekommt, falls das vorhandene dahin scheidet – mir fällt da die selige MO-Disk ein).

        • Wolfi sagt:

          Ich habe hier einige Kisten mit 32 Jahre alten CD-Roms alle mit Windows 3.1 und WinOnCD erstellt, die sind alle noch einwandfrei unter Windows 11 lesbar. Die CD-Roms sind von diveren Herstellern also nicht nur eine Sorte. Der Punkt ist die CD-ROM unter Windows nur mit einem CD-ROM Laufwerk zulesen und auf keinen Fall einen CD-Brenner oder DVD-Brenner, weil Windows 11 heute gerne mal etwas verändet (schreibt) -ohne jede Nachfrage! Das konnte ich schon mehrfach feststellen.

          • Carsten C. sagt:

            Bei CD-ROMs kann ich mir vorstellen, dass sie noch nach Jahrzehnten lesbar sind. Selbstgebrannte DVDs habe ich hingegen schon nach wenigen Jahren sich zersetzen sehen.
            Aber wo bekommt man heutzutage noch ein reines CD-ROM-Laufwerk (mit heute üblicher Schnittstelle) her?

            • Wolfi sagt:

              Ja stimmt heute wohl nur noch gebraucht zu kaufen, ich hatte mir rechtzeitig je einen Umkarton mit je 48 Stück in den Keller gelegt. Brenner und Leselaufwerke -sind Unverkäuflich!

            • Pau11 sagt:

              Im Wikipedia gibt's eine Tabelle mit Lebenserwartungen der unterschiedlichen Medien. Erstaunlicherweise schneiden DVDs besser ab als CD. immerhin sind bei DVDs ja von beiden Seiten rel. Dicke Plastik Scheiben die Schicht liegt in der Mitte. Bei CDs schützt nur eine dünne Lackschicht die Pits.
              Bei gepressten CDs gab's mal ein Problem mit Farbe und Lack lt. Wikipedia. Auch führten Aufkleber zu Zerstörungen.
              Auch gab es Floppy Serien, bei denen der Binder der Magischen Schicht sich auflöste. legten man sie ein, waren dir schmierige Oberfläche im Laufwerk und versaute alle weiteren Floppy.

              Es gab mal ein Tool das die Daten mit hoher Redundanz auf die Scheibe brannte. War aber wohl doch nur whoodoo.

            • Bernd B. sagt:

              "Aber wo bekommt man heutzutage noch ein reines CD-ROM-Laufwerk (mit heute üblicher Schnittstelle) her?"

              Das ist nun wirklich simpel: Bei jedem gut sortierten Händler als DVD-Laufwerk mit USB3-Schnittstelle, das ebensogut CDs liest.
              z.B. https://www.amazon.de/s?k=dvd+laufwerk+extern

        • Pau11 sagt:

          Bei Wikipedia werden Alterungs Test bei CD, DVDreferenziert.
          Bei 85C und 80% Feuchte waren die M-disc die einzigen Überlebenden.
          Einen 2. Test mit 90C hatte kein Plaste-Kandidat überstanden.
          Aber:
          Das waren keine normalen Lagerbedingungen sondern künstliche Alterung. Bei 25C und 1%RF sieht das anders aus.
          Was für CT da getestet hat weiß ich nicht. Es scheint aber die M-disc nicht vom Markt gefegt zu haben.
          Oben waren das hoch offizielle Prüfinstitutue.
          Der erste Test war aber vom Hersteller bezahlt worden…unschön.

          Die Glas Formen der CD sind sehr robust.
          und von Syylex? gibt es Glasmedien, Einzelstücke, 1000 Euro je.

  40. Pau11 sagt:

    Ich dachte ich könnte gut Haarespalten und unfreundlich argressiv sein und werde just hier getopp.
    Auf dieser Ebene beschimpft zu werden ist mit neu und kann zu keiner konstruktiven Diskussion führen. Schade.

    bwanna ich weiß nicht on welchem Universum Du lebst, es scheint ein anderes als das übliche zu sein.

    Wie kommt das Veracrypt in das PE Image?
    Durch Bernd-Magie? Ich würde kopieren, installieren, auch wenn ich dafür kein Installationsprogramm geliefert bekommen würde…es ist halt nicht da, es ist kein Boardmittel.
    Was ist daran so schwer zu verstehen?

    naja, hofftenlich kannst Du Dich wieder an den Kollegen abreagieren, Dann ist der Weihnachts Urlaub ja vorbei.

  41. michael sagt:

    – Samsung Handys per smartswitch auf die NAS (sind dann auch Apps und Einstellungen dabei)
    – pcs per veeam agent lokal auf 2. HDDs – auf nas war zu lahm
    – NAS noch in die Klaud per qnap irgendwas app – aber verschlüsselt – auf cpanel / webdav
    – 3. externe HDD an der qnap Nas (Versionierung relevanter Daten per qnap snaphsots)
    – NAS nicht mehr direkt aus dem Internet erreichbar
    – sync der relevanten Daten auf diverse Endgeräte manuell
    – 1 externe Festplatte außer Haus ca 1 x monatlich
    – vms des esxi Servers mit qnap irgendwas app 1 x wöchentlich auf qnap nas – geht auch mit der esxi free Lizenz

    Wenn was fehlen sollte, frage ich beim Verfassungsschutz nach, ob eine Kopie vorliegt.

  42. Marcel sagt:

    Ich betreibe Zuhause einen kleinen Hyper-V Cluster. Somit sind "alle Daten" dort vorhanden.
    Neben dem Hyper-V Cluster habe ich einen alten HP PC (mit 8TB HDD erweitert) auf welchem Veeam Backup & Replication in der Community Version läuft – die 10 Instanzen sind zwar etwas eng, aber es reicht. Darüber hinaus habe ich mir über einen online Anbieter einen Server (in Finnland) gemietet, (VPN eingerichtet) dorthin wird jeden Abend noch einmal das lokale Backup gespiegelt.

    Die Fotos vom Handy sichere ich sporadisch auf dem Dateiserver im Hyper-V Cluster.

    Da ich auf den einzelnen Clients so gut wie keine Daten habe, ist es hier nicht notwendig diese zu sichern.

    Für mich ist es nach wie vor die beste Lösung, zumal mich Veeam auch noch nie im Stich gelassen hat.

  43. Thomas sagt:

    Alle Windows PCs mit regelmäßiger Sicherung per Veeam Agent
    Mac mittels Time Maschine
    Die Sicherungen laufen auf einem Synology NAS zusammen
    Die Smartphones sichern ihre Fotos – Der Rest ist verschmerzbar
    Alle Familienmitglieder sind angehalten, die Daten auf dem NAS zu speichern
    Das NAS macht in der Nacht ein Backup auf ein 2. NAS (Alte WD-MyCloud)
    Auf der MyCloud wird ca. 1 Woche vorgehalten
    1x im Monat eine Sicherung auf eine externe HDD
    Diese liegt an einem externen Standort.

    Das läuft fehlerfrei und automatisiert. Benachrichtigung per Mail über den Status
    Nachdem ich vor einigen Jahren einen Datenverlust hatte, habe ich die Backupstrategie perfektioniert.

  44. Philipp We sagt:

    Moin,
    ich synchronisiere meine Daten vom Handy in meine Nextcloud (Bilder, Dokumente, Kontakte), die bei mir zu Hause steht.
    Meine Nextcloud synchronisiere die Daten auf meinen Rechner.
    Die Daten von meinem Rechner synchronisiere ich dann gebündelt auf mein NAS.
    Das Nas synchronisiert die Daten dann einmal in der Woche auf ein zweites NAS.
    Alles halbe Jahr etwa mache ich eine Datensicherung auf eine externe Platte und deponiere diese bei meinen Eltern als Brand Sicherung.

  45. mw sagt:

    Backup on Disk und anschließend auf Tape mit echtem Airgap. Disks und Tapes werden an einem anderen Standort geheimen Standort gelagert. Tägliche inkrementelle Sicherung auf Disk, wöchentliche, differenzielle Sicherung auf Disk und Tape, monatliche Vollsicherung. Aufbewahrung der Tapes für 6 Monate bzw. die Vierteljahressicherungen für 12 Monate. Die Smartphones enthalten nur wenige Daten und fast keine Bilder. Werden nachts vollständig gesichert.

  46. StefanRohde sagt:

    Moin

    Meine finale Strategie ist eher noch im Aufbau (NAS, Hypervisor, DMS und was it'ler sonst noch so zuhause hosten). Derzeit wir der Mac per Timemachine auf eine SSD unregelmäßig gesichert. Bilder liegen in der iCloud und in unregelmäßigen Abständen schiebe ich sie händisch aufs NAS. Wichtige Mails sind beim Provider vertaggt aber nicht explizit gesichert.

    Smartphones und Tablets setzen auch auf iCloud Backup, sofern nötig. Was die Kids da so auf den Geräten haben betrachte ich nicht als sicherungswürdig und kommuniziere ihnen auch einen evtl. Totalen Verlust davon.

    Private Empfehlungen gebe ich immer möglichst mit Boardmitteln und copy auf external drive. Ist das einzige was bestand hat. Bzw. Wenn der User Cloudwillig ist geht die empfehlen zusätzlich dahin. Alles über 3 Mausklicks hinaus verläuft im Sande.

  47. Er Wecker sagt:

    4-Bay-NAS mit Raid1 (2x), das zweite Raid1 dient als eine externe Sicherung des ersten Raid1, d. h. 4 Festplatten mit gleichem Inhalt. Am NAS hängen eine SSD mit permanenter Sicherung der wichtigsten Daten persönlichen Daten (Banken, Versicherungen, Rechnungen, etc.) plus eine externe Festplatte mit ca. monatlichem Update (physikalisch getrennt). Die SSD gibts in mehrfacher Ausführung zur Auslagerung außer Haus.
    Auf meinen Rechnern am Internet habe ich keine Bewegungsdaten.
    Außerdem versiegelter Brief bei Verwandten (einem muss man ja vertrauen) zum Aufbau und allen Passwörtern bei Todesfall o. ä. inkl. Stick.
    Es gibt nur Risikominimierung, also der Verlust von Daten wird nie unmöglich sein. Man kann ihn aber reduzieren.

    Ich als Privatmann mache das so (nicht fürs Unternehmen)

  48. Ärgere das Böse! sagt:

    Ich habe meine Daten alle auf einer externen SSD mit separater Stromversorgung.

    Gesichert werden die Daten mit Synkron auf 2 externe HDDs mit externer Stromversorgung, auf jede Alles.

    Sichern tue ich so 1 bis 2 mal die Woche.

    Stupidphone sichere ich nicht, weil es dort nichts zu sichern gibt.

  49. Teilzeitmutti sagt:

    Ich nutze eine 2BayNAS die dann auf eine Externe Festplatte versioniert gesichert wird (wer weiß wann man sich mal Ransomware einfängt, auch wenn die NAS sicherheitshalber nicht von außen erreichbar ist).
    Synchronisierungssoftware ist variabel, da muss man das nehmen was passt.

  50. BE-IT Stefan sagt:

    PC: Veeam Endpoint in der free Version auf meine NAS welche durch IPS geschützt wird und in einem anderen Netzsegment steht. Die NAS verfügt zusätzlich noch über mehrere Snapshots

    Smartphone: iCloud

  51. Anonymous sagt:

    Veeam Agent Free + USB SSD.
    So einfach gehts.

  52. Michael Hacker sagt:

    hi zusammen! ich sichere 2x pro jahr die rechner mit veeam auf ext. Hdd (Notfall recovery), alle wichtigen Daten habe ich in MS365 Family in der Cloud. Zusätzlich nutze ich Synology Nas, das sichert täglich mein MS365 und hat zusätzlich nicht ständig benötigte Daten drauf. Das NAS sichere ich dann auf Amazon S3 Glacier (über app von synology). Zuvor habe ich NAS auf ext. HDD gesichert, aber S3 ist finde ich so günstig und unproblematisch, dass ich darauf umgestiegen bin. Ich zahle gut unter 1eur/tb/Monat. und ich muss die ext. Sicherung nicht irgendwohin fahren damit die sicherung nicht im gleichen haushalt ist (elementarschaden)

  53. IngoHu sagt:

    Bei mir sind alle sicherungswürdigen Daten auf dem Heim-„Server" (Intel NUC mit VMs unter Proxmox; Dienste: SFTP, SMB, IMAP, Gitolite, Gitea, Syncthing). Vom Laptop und Desktop werden bestimmte Verzeichnisse per Syncthing mit mehreren Versionen pro Tag zum Heim-Server synchronisiert, sofern das LAN erreichbar ist.

    Von Freunden wird in der Nacht ein verschlüsseltes Backup (extern aus deren Sicht) der wichtigsten Daten auf meinen Heim-Server übertragen. Auf deren Rechner läuft Windows und als Backup-Programm „Duplicati".

    Tägliches Backup vom Heim-Server erfolgt automatisch am frühen Morgen per „Borg"/„Borgmatic" auf eine iSCSI-Freigabe vom NAS. Kurz darauf die Synchronisation der Backups per Skript mit „rsync" vom NAS zu Cloud-Speicher bei Strato und Hetzner. Gelegentlich (etwa einmal im Monat) ein manuelles Backup per „Borg" vom Laptop auf eine externe Festplatte.

    Auf Smartphone und Tablet habe ich keine Daten, die zu sichern wären oder nicht zusätzlich auf dem Heim-Server liegen. Ich fotografiere fast nie. Aufzubewahrende Fotos werden auf den Heim-Server kopiert.

    Es erfolgt immer ein Datei-basiertes Backup, keine Partitions-Abbilder. Die Konfigurationen der (Linux-)Dienste und -Systeme werden in Git-Repositories dokumentiert und nachvollziehbar gesichert. Die Linux-Systeme sind so per Neuinstallation und einbeziehen der Konfiguration recht schnell wiederherstellbar.

    Aufbewahrungszeit der Borg-Backups vom „Server": Backups vom Monatsletzten der vergangenen 4 Montate und die letzten 7 vergangenen Tage.

    Und das wichtigste: Mindestens drei Mal im Jahr werden Daten in einer Übung wiederhergestellt, bei der nur ein Live-Linux auf (zwei verschiedenen) USB-Sticks zum Wiederherstellen verwendet wird. Wie im schlechtesten Fall, wenn alle Computer und das NAS unbenutzbar wären. Nur ein zurückgelesenes Backup war auch eins! Das vergessen leider sehr viele.

  54. Pau11 sagt:

    Wahrscheinlich second hand aber wohl nur mit IDE.
    Dann halt einen Adapter IDE auf USB, oder ein altes Externes Gehäuse mit IDE innen.

    Darum gibt es jadue die Regel, das man Archivdaten alle paar Jahre auf das gerade Aktuelle Trendmedium umkopieren soll.
    Wenn ein altes Laufwerk aufhebt, kann es sich kaputt stehen.
    Wer kann denn noch 8" Floppies lesen?

    • Wolfi sagt:

      Ich denke, es steht außer Frage, dass die Qualität 30 Jahre alter Marken-Hardware deutlich besser ist als die heutige. Auch die Elektronik in den Geräten ist einfacher und leichter zu reparieren und nicht wie heute verklebt. Mit einem 3D-Drucker lässt sich heute fast jedes alte Ersatzteil schnell erstellen. aber es geht wieder in diese Richtung zurück ich sehe immer mehr Repair Café. :)

  55. Pau11 sagt:

    Im Wikipedia gibt's eine Tabelle mit Lebenserwartungen der unterschiedlichen Medien. Erstaunlicherweise schneiden DVDs besser ab als CD. immerhin sind bei DVDs ja von beiden Seiten rel. Dicke Plastik Scheiben die Schicht liegt in der Mitte. Bei CDs schützt nur eine dünne Lackschicht die Pits.
    Bei gepressten CDs gab's mal ein Problem mit Farbe und Lack lt. Wikipedia. Auch führten Aufkleber zu Zerstörungen.
    Auch gab es Floppy Serien, bei denen der Binder der Magischen Schicht sich auflöste. legten man sie ein, waren dir schmierige Oberfläche im Laufwerk und versaute alle weiteren Floppy.

    Es gab mal ein Tool das die Daten mit hoher Redundanz auf die Scheibe brannte. War aber wohl doch nur whoodoo.

    • Wolfi sagt:

      Von meinen DVD sind schon viele ersetzt, da defekt bei den CD-Rom nicht, mehr kann ich dazu micht sagen, beides verschiedene Hersteller und beide seit den 90er. Ergo CD-ROM bevorzugt für wichtige Daten, bei mir.

  56. Alzheimer sagt:

    Hat jemand gute Tipps zu diesen Punkten:
    – LW/Pfad/Größe für pagefile.sys, TEMP/TMP, %USERNAME%, usw.
    – hiberfil.sys deaktivieren?
    – Systemschutz für Daten-LW?
    – RAM-Disc für TEMP-/Cache-Daten?

    Ich überlege auch gerade, wie ich meinen neuen PC möglichst "Backup freundlich" und SSD schonend konfiguriere.
    Es ist ein Win10 Prof. 64bit, i7 14700K, 128GB DDR5 RAM, 2 TB SSD NVMe (C: 200 GB System und D: 1,8 TB Daten) + 4 TB SSD NVMe für VMs und Backup (noch nicht partitioniert)

    Backup hab ich mir so gedacht:
    – C: (Win+Progs) als Systemsicherung nur alle paar Monate bzw. nach SW-Install.
    Die User-Folder müssten dann auf ein anderes LW (D:) verschoben werden.
    Systemschutz für C: kann deaktiviert werden

    – D: (Daten) wird regelm. per File-Sync auf 2. interne SSD und auf externe SSD
    gesichert.

    – VMs auf 2. SSD werden nur im Urzustand oder bei Bedarf auf externe SSD gesichert.

    – Um Datenmüll zu vermeiden und die SSD Lebensdauer zu verlängern, wollte ich
    die Ordner für TEMP/TMP, Browser-Cache usw. evtl. auf eine RAM-Disc legen,
    was ja auch zum Trackingschutz beiträgt.
    Ein pagefile.sys mit ein paar GB ist wohl auch bei 128GB RAM sinnvoll – die kann ja
    vielleicht mit fester Größe auf C: liegen bleiben – oder?

    Das sollte doch so gehen, oder hab ich da irgendein Probleme übersehen?

    • Bernd B. sagt:

      Meine Tools/Settings:
      – RAM-Disk für %TEMP%, Caches, diverse logfiles, …: sourceforge(.)net/projects/imdisk-toolkit/
      – hiberfil.sys deaktivieren, wen man nicht Hibernation nutzen will, es bläht bei vielen Imagebackupprogrammen nur das Image auf
      – regelmässige ShadowCopys erstellt mit www(.)toms-world(.)org/blog/restore_point_creator/

      • Alzheimer sagt:

        @Bernd B.
        Vielen Dank für Deine Tipps – werde die Links mal anschauen.
        Hast Du den "Computerschutz" von Windows für alle Platten deaktiviert?
        Wie hast Du die Größe für die RAM-Disk kalkuliert? Oder einfach per "try and error"?
        thanx

        • Bernd B. sagt:

          Defender habe ich deinstalliert* (die "Defender")-Firewall läuft natürlich (mit WFC** sehr komfortabel))

          IMDisk erlaubt dynamische RAM-Disks (belegt nur, was gebraucht wird).
          Ich habe nur 64GB RAM (ist halt ein Laptop), RAM-Disk auf 128 GB (so ist TEMP gross genug auch für z.B. Monsterarchive, swapt dann halt im Ausnahme-/Notfall auf die SSD – ist mir lieber als Abbruch wegen TEMP voll), pagefile auf 96 GB fix*** (ich image mit Acronis, das kann Dateien ausschliessen)

          * pastebin(.)com/G3y7vKrk
          ** www(.)binisoft(.)org/wfc
          *** das "pagefile=fest" stammt noch aus HDD-Tagen, ich habe mich nie damit beschäftigt, ob das für pagefile auf SSD noch 'nötig' (vorteilhaft) ist.

          • Alzheimer sagt:

            @Bernd B.
            Danke nochmal!

            Frag mich nur, wie Du mit 64GB RAM eine 128GB RAM-Disk erstellst ;)
            Oder meintest Du 128MB?:
            <<Ich habe nur 64GB RAM (ist halt ein Laptop), <<RAM-Disk auf 128 GB

            • Bernd B. sagt:

              Im Grunde selbsterklärend: Ich habe nicht 64GB für Windows verfügbaren RAM, sondern 160 GB (physischer RAM + swap) und IMDisk checkt -völlig zu Recht- nicht, wie viel physischer RAM verfügbar ist. Also trage ich da ein, was ich für richtig halte (ich achtete halt darauf, dass RAM-Disk < phys. + virt. RAM).

              Ich belege nur in Ausnahmefällen (mehrere VMs am Laufen, Entpacken riesiger Archive) auch nur die 64 GB, swappe also mW wenig, habe so aber hinreichend 'Luft nach oben'.

              • Alzheimer sagt:

                Ahh ok, jetzt hab ich's geschnallt,
                danke für die Erklärung!

                Du hast da je anscheinend ein recht flottes Notebook – nicht schlecht!
                Ich bin noch am sichten der Links bzw. am lesen, hört sich ja bis jetzt ganz gut an.

  57. Anonymous sagt:

    Daten liegen am NAS
    PC/Handy backuppen/syncen aufs NAS (VEEAM/Syncthing)
    Vom NAS gibt es externe Backups und in-house Backups
    Die letzten Jahre nur ZFS genutzt, snapshots rumschicken (push/pull) geht wunderbar. Aber wegen OpenZFS Bug 15526 nun auch BTRFS auf single HDD um im Bedarfsfall Daten per CRC vergleichen zu können.
    Verschlüsseln verkompliziert alles. Ziel muss sein, mit einem langen Passwort und nur einem der Backups (ohne Handy und sonstiges!) restoren zu können.

  58. J. sagt:

    Smartphone sichere ich auf den Laptop (sind aber im Wesentlichen nur Fotos). Vom verschlüsselten Laptop (Ubuntu) aus sichere ich den Home-Ordner regelmäßig unregelmäßig im Wechsel auf zwei externe verschlüsselte HDDs. System selbst wird nicht gesichert, das baue ich im Zweifel lieber neu, der Aufwand dafür ist relativ überschaubar. Ein Teil der besonders wichtigen Daten liegt zusätzlich auf einer dritten HDD, die an einem weit entfernten Ort aufbewahrt wird.

    In der Firma (reine Windows-Umgebung) laufen täglich VEEAM-Backups auf die NAS und eine externe HDD, die wöchentlich getauscht und an einen anderen Ort aufbewahrt wird (Absicherung gegen physische Einwirkungen auf den Serverraum bzw. das Gebäude). Dazu kommen Monatssicherungen und Jahressicherungen für den Fall, dass beide Tagesbackup-Platten verseucht sind.

  59. AlexB sagt:

    Ich habe als Ü50-Familienvater mttlerweile keine Lust mehr auf ein Herumgefrickle beim Selbstbau von Backup-Lösungen mit NAS u.ä. (Das hat mich früher zuviel Zeit und Nerven gekostet, die ich jetzt lieber meine Kindern widme.)

    Jetzt sehe ich mich als echten reinen Privat-Anwender, um den es hier im Post geht, der Backuplösungen nur noch anwenden, aber nicht mehr groß die Infrastruktur einrichten und warten will. Deshalb:

    PC:
    1x pro Monat komplettes (Windows-)Backup der C-System-Partition(en) als 1:1-Partitions-Image per Macrium Reflect.
    (in nur 30min zunächst direkt auf D:, wo auch alle meine Nutzerdaten wie "Eigene Dateien", "Bilder", "Musik", etc. von C: dauerhaft verschoben im OneDrive/GoogleDrive-Laufwerksordner liegen;
    danach Kopie des Images auf externe HD/SSD; sehr geringe Wahrscheinlichkeit eines Wohnungsbrandes mit totaler Vernichtung finde ich vernachlässigbar)

    Smartphones (nur private Daten, nicht das sehr stabile Android-System):
    Stetiges File-Backup der Fotos und wichtigen Dokumente (z.B. aus der Email-App) in MS OneDrive-Cloud, bzw. direktes Abspeichern darin.
    (Ganz vertrauliche Dokumente in dessen "Tresor".)

    (Damit MS dabei nicht irgendwelche Fotos falsch als Nackbilder einstuft und deshalb meinen MS-Account sperrt, weiteres "Live"-Backup von Smartfon UND vom PC (D:) auch noch in Google Fotos/Drive for Family (das auch meine Familie zum Backup mitnutzt):
    Die GoogleDrive-App auf dem PC sichert dabei direkt den Onedrive-Inhalt als Quelle.)

    Laufende Kosten insgesamt für alle Cloudsicherungen: <5€ pro Monat.
    (Andere geben allein schon 8€ für eine Packung Zigaretten o.ä. aus…)

    • AlexB sagt:

      …Und damit Google nicht den gleichen KI-Falscherkennungs-Mist wie MS macht:
      1x pro Quartal manuelle Kopie der File-Backups in meine 100GB-1&1-Cloud, die bei meinem Internettarif schon lange kostenlos im Basistarif mit dabei ist.)

      Anm.:
      Natürlich muss man sich beim File-Backup (in OneDrive und GoogleDrive) vorher extrem gründlichst eine Standard-Ordnerstruktur überlegen und die immer möglichst stabil lassen, zumindest in den Ordnern der ersten Ebenen. Sonst würden geänderte Pfade zusätzlich in die weiteren "Backup-Kopien" (z.B. in 1&1-Cloud) mit anderen/neueren Dateipfaden kopiert, was dort redundante Dateien erzeugen, die Größe schnell explodieren lassen und eine eindeutige Übersichtlichkeit komplett zerstören würde…
      …Um evtl. doch mal geänderte Pfade schnell herauszufinden und anzupassen, verwende ich die gute Vergleichs- und Synchronisationsfunktion vom TotalCommander.

      => Ich denke, alles ist so ausreichend sicher und einfacher gehts nicht.
      Und dieser Komfort ist mir gerne 5 € pro Monat wert. Dafür spare ich mir lieber 2 Coffee2Go pro Monat ein. ;-)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.