[English]In Unternehmen wird Microsoft 365 wegen seiner Skalierbarkeit und Redundanz eingesetzt. So lassen sich Störungen durch Naturereignisse und mechanische Ausfälle Störungen vermeiden. Aber das Hosten von Daten in der Cloud ist mit gewissen Risiken verbunden. Anwenderverursachte absichtliche oder versehentliche Datenverluste sind nach wie vor ein Problem für Unternehmen. Es ist noch immer möglich, Daten in Cloud-Anwendungen unwiederbringlich zu löschen. Deshalb ist es ratsam, über zusätzliche Instrumente oder -dienste nachzudenken, wenn es um die Datensicherheit geht.
Anzeige
Die Ausfallzeiten bei Microsoft 365 basierten Applikationen sind spürbar verringert, da die Anwendungen auf hochverfügbare Architekturen sowie verschiedene Regionen verteilt sind. Daher wird die cloudbasierte Produktivitätsplattform von Microsoft bei Unternehmen jeglicher Größe und Branche mittlerweile breit eingesetzt. Doch auch Microsoft stößt an Grenzen, was den Schutz des laufenden Geschäfts vor menschlichem Versagen betrifft. Denn die Plattform unterscheidet nicht zwischen einem Mitarbeiter, der bewusst böswillig wichtige Dateien löscht, und jenem, der für den Geschäftsablauf irrelevant gewordene Dateien entsorgt.
Versehen verursachen massive Probleme
Neben Hardware- und Systemfehlfunktionen ist menschliches Fehlverhalten beunruhigend häufig für den Verlust von Unternehmensdaten verantwortlich, schreibt der Anbieter Barracuda in einer Mitteilung. Rund ein Drittel der Datenverluste passieren durch menschliche Fehler. Die Art und Weise, wie sie zustande kommen, ist dabei vielfältig und deswegen schwer in den Griff zu kriegen:
- Löscht ein Nutzer unbeabsichtigt eine E-Mail, eine Datei, eine Aufzeichnung oder sogar ein komplettes Postfach, folgt Microsoft 365 klar dieser Anweisung und zieht das menschliche Versehen nicht ins Kalkül.
- Gelöschte oder erpresserisch unzugänglich gemachte Daten und E-Mails, die entweder durch eine Attacke auf das Netzwerk, Ransomware-infizierte Hardware oder einen verärgerten Mitarbeiter vernichtet wurden, können nicht mehr zugänglich gemacht werden oder sind endgültig verschwunden.
- Ein Mitarbeiter-Account mit geschäftskritischen Daten ist aus dem System verschwunden beziehungsweise wurde gelöscht, obwohl er wichtige Daten beinhaltet. Ohne eine Möglichkeit, den gelöschten Account wiederherzustellen, bleiben alle darin gespeicherten Daten für immer verloren.
SaaS-Lösungen sind perfekt für eine gemeinschaftliche Dokumentenbearbeitung, insbesondere wenn die Teams von verteilten Orten aus arbeiten. Aber ältere Dokumentenversionen sind nach einer gewissen Zeitspanne nicht mehr verfügbar. Und schließlich gibt es auch Synchronisierungs- beziehungsweise Administrationsfehler von IT-Teams, die Dateien korrumpieren können, wenn sie zwischen on- und off-Premises verschoben werden.
Schutz vor versehentlicher Löschung
Anzeige
Microsoft 365 bietet Nutzern durchaus einen gewissen Schutz vor Datenverlusten, der ist allerdings auf ein Basis-Niveau begrenzt und wiegt deshalb viele Nutzer in der trügerischen Sicherheit, ihre Daten seien ausreichend geschützt. Denn die Möglichkeiten einer Wiederherstellung mit dem Basis-Level sind in Wirklichkeit begrenzt. So bleiben beispielsweise in Exchange online individuelle E-Mails, die gelöscht wurden, standardmäßig 30 Tage im Ordner „Gelöschte Elemente". Weitere 14 Tage werden die gelöschten Daten aufgrund eines zusätzlichen Schutz-Levels aufgehoben. Danach sind sie endgültig verloren.
Unternehmen und Organisationen, die eine Cloud-Lösung für ihre geschäftlichen Aktivitäten in Betracht ziehen, sollten immer auch an eine zusätzliche Unterstützung für eine sichere Datenspeicherung denken. Und das sowohl bei der Risikominimierung irrtümlich oder bösartig hervorgerufener Datenverluste als auch bei der E-Mail- und Datenaufbewahrung, nachdem Mitarbeiter das Unternehmen verlassen haben.
Zeitintensives Recovery
Dateien in Microsoft 365 und OneDrive for Business werden über redundante Server repliziert. Die Wiederherstellung irrtümlich gelöschter Dateien ist – selbst, wenn dies möglich ist – sehr zeitaufwändig. Wenn die Dateien nicht in den Website-Sammlungen vorhanden sind, muss der Microsoft-Support sie manuell rekonstruieren – und das kann dann schon mal sechs bis zehn Tage in Anspruch nehmen. Es lohnt sich, effektivere Wege in Betracht zu ziehen, um Kontrolle über den Datenwiederherstellungsprozess zu haben. Das geht mit Cloud-to-Cloud-Backup-Technologien von Drittanbietern, die eine einfache Einrichtung und automatische Backup-Prozesse bieten, die es dem Administrator ermöglichen, verlorene, versehentlich gelöschte und beschädigte Daten sofort wieder in der Microsoft-Anwendung wiederherzustellen, aus der sie stammen.
Cloud-Plattformen und Dienste bieten zwar eine breite Palette an wirklich bahnbrechenden Vorteilen, allerdings entlassen sie die Anwender nicht aus deren Verantwortung, selbst für den Schutz ihre Mails und Daten zu sorgen – Stichwort Shared Responsibility. Public-Cloud-Provider arbeiten darüber hinaus mit verschiedenen SaaS- und Softwareanbietern zusammen, um sicherzustellen, dass die verfügbaren Datenschutz- und Sicherheitslösungen auf ihren Plattformen ordnungsgemäß funktionieren. In den Nutzungsbedingungen von Microsoft 365 wird sogar ausdrücklich empfohlen, einen Sicherungsdienst eines Drittanbieters zu verwenden. In einigen Fällen arbeiten die Microsoft-Ingenieure während der Entwicklung einer Cloud-to-Cloud-Backup-Lösung mit den Sicherheitsanbietern zusammen, um sicherzustellen, dass die Lösung eng integriert ist und die besten Funktionen bietet.
Am lokalen Backup führt kein Weg vorbei
Barracuda schreibt, dass für Unternehmen, die auf ihre Datensicherheit und Geschäftskontinuität Wert legen, auch in Zukunft kein Weg an einem lokalen Backup vorbeiführt. Eine lokale Backup-Appliance sorgt für schnelles und bequemes Recovery für Alltagsfälle: Einzelne Daten und Ordner, die versehentlich gelöscht oder überschrieben wurden, lassen sich mit heutigen Appliances innerhalb von wenigen Minuten wiederherstellen. Ein solcher Recovery-Job kann selbst von ungeübten Administratoren mit wenigen Mausklicks durchgeführt werden. Das Cloud-Backup kommt erst ins Spiel, wenn Primärdaten und lokale Backup-Daten gleichzeitig verloren gehen, also im „Desaster"-Fall. Unternehmen erhalten eine externe (Air Gapped) DR-Kopie ihrer Daten.
Die Frage, die sich stellt: Wie können Unternehmen sicherstellen, dass relevante Daten zugänglich bleiben, wiederherstellbar und dauerhaft geschützt sind? Mit einem automatisierten Backup-Service können IT-Abteilungen gegenüber manuell durchgeführten Backups sehr viel Zeit sparen. Zudem werden Out-of-Date-Backups vermieden.
Einige Services beinhalten On-demand-Backups sowie Backup-Zeitpläne, so dass IT-Teams mit weniger Druck viel entspannter arbeiten können. Geschäftsaktivitäten müssen mit den jeweiligen gesetzlichen Anforderungen unbedingt konform bleiben. Die Daten müssen einfach und schnell verfügbar sein. Sämtliche Daten in Microsoft 365 sollten sich über eine Internetverbindung von jedem Ort wiederauffinden lassen. Die Wiederherstellung sollte flexibel sein und Point-in-Time-Recovery für den ursprünglichen Account oder vom Administrator-Account aus erlauben. Indem eine Lösung implementiert wird, die frühere Dokumentenversionen wiederherstellt, lassen sich Irrtümer schadenfrei beheben. Für den Fall eines Angriffs müssen Organisationen Vertrauen in die Sicherheit ihrer Daten haben. Deshalb sollten ruhende und bewegte Daten immer verschlüsselt sein.
Unternehmen sollten außerdem Technologien mit Multi-Faktor-Authentifizierung sowie eine Aufgaben-basierte Administration in Betracht ziehen, um Cyber-Attacken ins Leere laufen zu lassen. Einige Hersteller von Backup-Lösungen beginnen zudem, gängige Cloud-Speicher in ihre Lösungen zu integrieren. IT-Administratoren können so zum Beispiel Microsoft-365-Umgebungen über eine sichere Verbindung direkt zum Cloud-Backup sichern und unabhängig von Microsoft verlorengegangene Daten wieder zugänglich machen. Ein weiterer Vorteil ist, dass sie dann auch für diese Dateien eine Revisions-Historie besitzen.
Unternehmen entscheiden sich immer mehr für den Cloud–Anbieter, da diese die Daten ihrer Kunden für den Fall von Anwendungsausfallzeiten schützen. Aber sie können ihre Kunden nicht vor deren eigenem Fehlverhalten schützen. Wenn Anwendungsdaten, sei es versehentlich oder mutwillig, verändert werden, können die überschriebenen Daten für immer verloren sein. Deshalb sind Unternehmen sehr gut beraten, wenn sie mit der gleichen Sorgfalt ihre Daten in der Cloud schützen wie sie dies mit den lokal gespeicherten Daten tun, meint Barracuda.
Anzeige
Zumindest der Anreißertext klingt grammatikalisch so, als ob es gestern eine sehr lange Siegesfeier war ;-) Oder ist das ein Gastbeitrag?
Keine Siegesfeier und kein Gastbeitrag (der wäre bezahlt und gekennzeichnet), aber ein Text aus einer Pressemitteilung – passte gerade als Konserve, da ich bis einschl. heute unterwegs bin.
***********************************
Die Ausfallzeiten bei Microsoft 365 basierten Applikationen sind spürbar verringert,
***********************************
Also so oft wie ich hier und anderswo lese das Microsoft 365 mal wieder nicht geht/erreichbar ist hat noch keiner meiner OnPremise Lösungen Ausfälle!
Jetzt sage doch so etwas nicht, was sollen die ganzen Großbanken von Dir halten? Cloud ist gut, Cloud ist Luzifer, Cloud ist die neue heilsbringende Kirche.
Als in Strassburg das NOC abfackelte wurden viele in Ihrem Wolken-kukucksheim (aka Cloud) schnell hellwach. Plötzlich fiel diesen auf, im Falle höherer Gewalt ist alles futsch, egal bei welchem Anbieter.
Ich mag alt sein und für manche seltsame Ansichten haben, aber ein paar Wahrheiten haben sich seit Jahrzehnten in der IT nicht verändert:
1) ADs müssen vom Internet isoliert sein
2) Wichtige Daten haben inHouse zu bleiben
3) Eine Firma hat komplett Offsite auf externen Medien gesichert zu sein, (mindestens 1x wöchentlich, meist reicht eine HDD in Rotation aus)
Es gibt nicht nur die Pseudo-Cloud: Ein anderes Rechenzentrum – – sondern auch echte Clouds mit gespiegelten Rechenzentren die am besten auf versch. Kontinenten sind. Ein Brand macht da nix. Atomkrieg vielleicht. Wobei wenn der Betreiber etwas dummes macht – wie vor kurzem google – dann wird das dann auch an allen Geo-Standorten gelöscht :-)
Ah Du meinst den völlig unwahrscheinlichen Fall, wenn das Wohlergehen einer ordentlich arbeitenden Firma bei uns im Ländle, die mit Ihren vielen Arbeitsplätzen und dem Wohlergehen der nachgelagerten Familien am Ende von einem einzelnen Infrastruktur-Skript eines Anbieters abhängt, in einem maximalst optimierten Prozess von minimalst verantwortlichen und oft bezahlten, wenn nicht sogar ganz in den globalen Süden externalisierten Menschen husch husch nach dem Pareto-Prinzip dahinrotzt?
Atomkrieg !
Die Kunden sind zwar alle tot, wir haben ihr Backup…
Der "Cyberbunker" steht zum Verkauf ;-P
Echt? Wo wird der denn angeboten?
Schau mal hier:
https://www.spiegel.de/panorama/gesellschaft/rheinland-pfalz-sucht-kaeufer-fuer-ehemaliges-cyberbunker-rechenzentrum-a-ed0d3fc4-e0fe-4d89-8cac-61b5eca8a795
Problem beim Cloud-Backup bei M365 ist doch eher das MS sehr stark Throtteling betreibt. Da kann ein initiales Backup schon mal viele Wochen, manchmal gar Monate dauern. Dabei ist es egal ob Cloud-to-Cloud (Veeam, Rubrik etc.) oder Cloud-OnPrem (z.B. via Synology).
Im Restorefall kann man das Rate Limit via Support temporär deaktivieren lassen, dennoch nervig. Viele Kunden würden ggf. sogar was zahlen wenn die Limitierungen wegfallen.
Schöne Daten hast Du hier.
Willst'e wiederhaben?
Dann zahle dafür.
Wir bieten Dir ja Schutz…..
Merken MS-Kunden denn immer noch nichts?
@Basti: Bestätigung aus der Praxis: Um 273 Terabyte an M365-Daten (ExO, SPO, OneDrive, Teams) initial zu backupen, hat ein kommerzielles Cloud-2-Cloud-Produkt ca. 2 Monate benötigt = ca. 4,5 Terabyte/Tag Durchsatz.
Bei den meisten Cloudanbietern steht doch in den AGB, das der Cloudnutzer selbst für das Backup seiner Daten zuständig ist.
Wenn das nicht gemacht wird, weil man mal wieder die AGB nicht gelesen hat, dann hat man eben Pech gehabt.
Kein Backup = keine wichtigen Daten.
Und HDD in Rotation ist kein geeignetes Backupkonzept für eine Firma!
Zudem kommen die gesetzlichen Auflagen:
Steuerrelevante Daten (Bestellungen, Rechnungen, Gutschriften, Daten aus der Fibu und Lohnbuchhaltung, etc. etc.) haben in Deutschland so gesichert zu werden, das der Inhalt des Backups nicht mehr nachträglich geändert werden kann.
Da kommen also nur WORM-Speicher als Speichermedien in Frage.
Z.B. CD-R, DVD-R, BD-R, LTO WORM, RDX WORM, etc. aber keine normalen HDDs.
Dazu kommen die Aufbewahrungsfristen:
Die WORM-Backups steuerrelevanter Daten müssen 10 Jahre lang aufbewahrt werden. Und das inkl. aller Hard- und Software, um die Backups und die Daten in den Backups noch lesen zu können.
> Und HDD in Rotation ist kein geeignetes Backupkonzept für eine Firma!
Njein, als Offsite- und Offline-Backup sind diese schon unersetzlich. Jederzeit einen vorherigen Stand ohne Abhängigkeiten wiederherstellen zu können ist Gold.
Mir sind leider viele Unternehmen bekannt, die meinen, Ihr tolles, zentrales Veeam stelle ein Backup-Konzept dar. Die Ernüchterung kommt, wenn ohne AD die Restores nicht mehr funktionieren oder wenn gefragt wird, wie es Hacker schafften an alle Credentials zu bekommen und sich lateral fortzubewegen.
Kann ich so mehr oder minder bestätigen, bei uns war´s minimal Langsamer mit 2-3TB/Tag im Initialen Backup. Die Werte bestätigt kann mein Sales Executive vom Backupprodukt unserer Wahl auch bestätigen.
Mir graut es davor unsere Fileserver hin zu M365 zu verschieben, das wird wieder zig Meldungen im Backup geben…
Google One Sicherung geht da deutlich flotter als M365
@Basti: Da wir erst am Anfang unseres Cloud-Backups stehen, interessiert mich der Hintergrund zu Deiner Aussage: "das wird wieder zig Meldungen im Backup geben…"
Was meinst Du damit? Fehlermeldungen beim Backup wie "Pfad zu lang" oder "ungültige Zeichen im Dateinamen" oder oder…
Wir hatten jetzt mit SPO- und OneDrive-Backup (das ja im wesentlichen Dateien enthält) wenig solcher Fehler.
Oder meinst Du etwas ganz anderes?
@MaxM damit meine ich das wenn ein Initialbackup oder größeres Delta läuft und zu lange dauert ggf. Zyklen übersprungen werden was zumindest unserer Backupsoftware korrekterweise meldet. Stell dir vor du hast auf einmal 10TB mehr im Sharepoint und das Backup dafür braucht 5 Tage. An Tag 4 entsteht n Datenverlust und du hast kein Backup.
@Basti: Diese Gefahr würde auch bei unserer Backupsoftware bestehen. Werde die Frage mal unserem betreuenden Ingenieur stellen.
@Basti: Ist leider genauso wie bei Eurer Lösung: Während das große initiale Backup läuft, werden die täglichen incremental Backups nicht durchgeführt.
Kosten und Mühen für Cloudbackup sparen!
Im Notfall findet man sie hier:
39°06'32.40" N -76°46'12.00" W
;-P naja nur der Zugriff auf die Daten da ist doch nur sehr privilegierten Usern gestattet.
Ohen Werbung zu dafür zu machen, ich kann nur https://www.synology.com/de-de/dsm/feature/active_backup_office365 empfehlen. Kostenlos und sichert bei uns hunderte Postfächer mit TB an Daten. Wenn was sein soll, kann man die Daten einzeln oder wenn es ein Postfach ist als PST-Datei rausschreiben lassen.
Vielleicht sollte man es den Leuten einfach nur richtig erklären, dass ein Backup niemals die richtige Lösung sein kann. 3-2-1 ist wohl eine der besseren Methoden.
https://www.heise.de/ratgeber/FAQ-Die-richtige-und-komfortable-Backup-Strategie-7238206.html
Und dass die Cloud sich besser zum Verteilen von Daten anstatt zum Sichern eignet, sollte mittlerweile jedem klar sein, schließlich war das ja mit einer der Grundgedanken der Cloud.
Aber das waren eben noch andere Zeiten, wo sich keiner der Entscheider dafür interessiert hat.
Die Ratschläge im Heise-Artikel eignen sich gut für Privatanwender.
Für Firmen ist das 3-2-1-0 Konzept aber nicht tauglich.
Die brauchen ein deutlich feiner abgestuftes Backupkonzept.
Benutzt man icht mehr das gute alte Grandfather-Father-Son Rotationskonzept? Bei dem ich mit ?38? Backups jeden beliebigen Stand (eines Tages) des vergangenen Jahres wiederherstellen kann?
…zugegeben: meine letzte Verantwortung für ein Enterprise Backup ist 25# Jahre her…
Das Grandfather-Father-Son Konzept für Privatanwender läuft mit nur 3 Sicherungsmedien.
Das älteste wird jeweils durch das neue Backup überschrieben.
Man hat also max. 3 Generationen an Backups, während des laufenden Backups sogar nur 2, da das 3. ja gerade überschrieben wird.
Und was heise da im Kommentar schreibt (eine 1 TB-Platte ist spätestens beim fünften 200 GB-Backup voll) ist doch grober Unfug. Auch als Privatanwender heißt es:
1 Backup = 1 Backupmedium.
Auf 1 Backupmedium kommen nie mehrere Bachups.
Denn sind z.B. auf einem Backupmedium 5 Backups drauf und versagt das Backupmedium, sind gleich 5 Backups verloren.
Wir haben in meiner Firma das G-F-S Prinzip und können dadurch bis zu 1 Jahr zurück.
Über das Jahresbackup, das nie überschrieben wird, da auf WORM-Medien, mindestens bis zu 10 Jahre (gesetzliche Aufbewahrungsfrist steuerlich relevanter Daten), aber nicht tagesgenau.