Aktuell häufen sich wieder die Meldungen über ausgefallene Dienste und Cybervorfälle. Der Anbieter server4you.de ist (auf Grund eines Stromausfalls/Wasserschadens) down [Ergänzung: Weitere Details nachgetragen] und auch die Verkehrsbetriebe Hamburg Holstein sind offline (dort werden technische Probleme angegeben). Das BKA hat einen Darknet-Marktplatz abgeschaltet. Bei der Kampf GmbH, bei Van und weiteren Unternehmen hat es Cybervorfälle gegeben – der alltägliche Wahnsinn. Hier eine Zusammenfassung entsprechender Vorfälle.
Anzeige
Cyberangriff auf Kampf GmbH
Die Kampf GmbH ist ein Unternehmen, welches Schneid- und Wickeltechnik für Kunden zur Verfügung stellt. In diesem Kommentar wies ein Blog-Leser darauf hin, dass deren IT Opfer eines Cyberangriffs geworden ist. Laut Mitteilung fand ein Angriff mit Ransomware bereits am Morgen des 24. Februar 2024 statt, wobei IT-Systeme teilweise verschlüsselt wurden. Es wurden umgehend alle Außenverbindungen getrennt und alle IT-Systeme heruntergefahren. Forensiker untersuchen das Ausmaß des Angriffs, ein Datenabfluss kann nicht ausgeschlossen werden. Alle zuständigen Behörden sind informiert.
Cybervorfall bei VF-Gruppe (Schuhe)
Die Vans-Gruppe ist im Bereich Schuhe aufgestellt. Ein Blog-Leser informierte mich, dass er vom Anbieter über einen Datenschutzvorfall bei der VF-Gruppe informiert wurde. Bereits am 13. Dezember 2023 entdeckten deren IT-Leute unbefugte Aktivitäten auf einem Teil der eigenen IT-Systeme, die offenbar von externen Angreifern durchgeführt wurden. Es wurden Gegenmaßnahmen eingeleitet und externe Cybersicherheitsexperten zur Unterstützung bei den Reaktionsmaßnahmen und der vorübergehenden Abschaltung aller IT-Systeme herangezogen. Bis zum 15. Dezember 2023 konnten die Spezialisten die externen Angreifer vollständig aus der IT-Umgebung ausschließen und haben dann alle betroffenen IT-Systeme und Abläufe weitgehend wiederhergestellt.
Die Untersuchung hat ergeben, dass der Vorfall einige personenbezogene Daten der Kunden betroffen hat, die das Unternehmen normalerweise speichert und verarbeitet, um Online-Einkäufe zu verwalten. Dazu gehören z. B. E-Mail-Adresse, vollständiger Name, Telefonnummer, Rechnungsadresse, Lieferadresse. In bestimmten Fällen können die betroffenen Daten auch die Bestellhistorie, den Gesamtbestellwert und Informationen darüber umfassen, welche Zahlungsmethode für die Einkäufe verwendet wurde.
Das unternehmen hat umgehend die zuständigen Strafverfolgungsbehörden eingeschaltet, und die zuständige Datenschutzbehörde benachrichtigt. Inzwischen wurden wohl auch Betroffene über diesen Datenschutzvorfall informiert.
Anzeige
Verkehrsbetriebe Hamburg Holstein offline
Ein Blog-Leser informierte mich (danke dafür), dass die Verkehrsbetriebe Hamburg Holstein offline seien. Auf deren Webseite ist derzeit nur von einer technischen Störung die Rede. Aufgrund eines technischen Problems seien einige Standorte und Bereiche von vhh.mobility zur Zeit weder per E-Mail noch per Telefon zu erreichen. Weiß jemand, was da genau los ist?
Totalausfall bei Server4you.de
Der Web-Hoster server4you.de in Hürth, Nordrhein-Westfalen ist mit seinen Webseiten und den Diensten wohl komplett offline. Marc schrieb mir eben, dass er mit dem Ausfall des Serverbetreibers zu kämpfen habe. Er hat einen Root Server gemieteter, auf dem einige VMs beherbergt sind. Seit heute (21.3.2024) ca. 11:50 deutscher Zeit ist weder der gemietete Server erreichbar noch die Website des Anbieters (www.server4you.de). Auch das Control Panel des Anbieters (my.server4you.de) ist nicht erreichbar, so dass er nicht mal die Störungen melden kann.
Die DNS Einträge scheinen auch weltweit zu server4you.de und auch den Root Servern mit der Domain .startdedicated.de nicht mehr hinterlegt zu sein. Auf der Twitterseite des Anbieters gibt es auch seit 2020 keine neuen Beiträge oder Reaktionen.
Telefonisch ist es schwierig, da durch den Ausfall die Telefonanschlüsse dauerbesetzt sind. Auf dieser Webseite werden Ausfälle mit Peak 11:30 Uhr gemeldet, wo aber die Meldungen abnehmen. Ich tippe aber darauf, dass die Betroffenen bereits auf der Webseite gemeldet haben. Die Webseite des Betreibers ist jedenfalls offline. Auf dieser Webseite gibt es einen Eintrag von Arthur, der einen möglichen Grund nennt:
Aufgrund von aktuellen Problemen mit der Stromversorgung kommt es zu Ausfällen im Rechenzentrum in Straßburg. Unsere Teams sind vor Ort, um den Rechenzentrumsbetreiber bei der Fehlersuche zu unterstützen. Einen genauen Zeitplan für die Wiederherstellung können wir derzeit noch nicht nennen.
Vorläufigen Schätzungen zufolge wird der Ausfall voraussichtlich bis in die Abendstunden andauern. In einem der Räume, in denen die Batterien untergebracht sind, ist Wasser ausgetreten. Dadurch wurden die in diesem Raum befindlichen Batterien in Mitleidenschaft gezogen, so dass der Strom in dem Raum, in dem sich Ihr Server oder ein Teil unserer Netzinfrastruktur befindet, abgeschaltet werden musste.
Wir warten derzeit auf grünes Licht, um den Strom in diesem Raum wieder zu aktivieren. Ihr Server ist von dem Wasserschaden NICHT betroffen, könnte aber ausgeschaltet sein. Sobald die Stromversorgung wiederhergestellt ist, werden wir die nächste Benachrichtigung mit Einzelheiten über die Auswirkungen und die Schritte zur Wiederherstellung des Dienstes versenden.
Hört sich übel an, scheint aber kein Cybervorfall zu sein.
Update zu server4you
Der Blog-Leser hat sich nochmals gemeldet und schrieb am 22. März 2024: "Die Systeme stehen seit heute 09:05 Uhr wieder zur Verfügung. Auch waren unsere Mietserver selbst nicht betroffen und liefen die ganze Zeit durch, nur waren sie nicht erreichbar." Zum konkreten Status kam folgendes:
- VMs laufen und sind erreichbar
- .startdedicated.de Root Host nicht über Hostname erreichbar, da der Name noch nicht wieder über den DNS aufgelöst wird
- Website Server4you.de wieder erreichbar – dort steht auch eine Meldung zum Ausfall direkt auf der Startseite
- Management Website über my.server4you.de noch nicht wieder erreichbar
So ganz lauffähig ist das Ganze also noch nicht. Die Statusinformation über den Ausfall hat übrigens folgenden Inhalt:
Aktueller Ausfall im Rechenzentrum Straßburg
Zurzeit gibt es eine Störung der Infrastruktur in unserem Zentrum in Straßburg. In einem der Räume, in denen die Batterien untergebracht sind, ist Wasser ausgetreten.
Dadurch wurden die in diesem Raum befindlichen Batterien in Mitleidenschaft gezogen, so dass das Rechenzentrum gezwungen war, den Strom in dem Raum, in dem sich Ihr Server oder ein Teil unserer Netzinfrastruktur befindet, abzuschalten.
Wir warten derzeit auf grünes Licht, um den Strom in diesem Raum wieder zu aktivieren.Ihr Server ist von dem Wasserschaden NICHT betroffen, könnte aber ausgeschaltet sein.
Als nächster Schritt prüfen Elektrospezialisten, ob und wie die elektrische Infrastruktur wiederhergestellt und der Strom wieder eingeschaltet werden kann. Der externe Anbieter arbeitet in der Nacht an dieser Aufgabe.
Aufgrund der Komplexität des beschädigten USV-Systems gehen wir nicht mehr davon aus, dass unsere Dienste heute wiederhergestellt werden können.
Wir können keine konkrete ETA-Angabe machen.Wir versichern Ihnen, dass unser Team mit Hochdruck daran arbeitet, das Problem so schnell wie möglich zu beheben.
Wir sind uns der Unannehmlichkeiten bewusst, die dadurch entstanden sind, und entschuldigen uns aufrichtig für die Unterbrechung Ihrer Dienste.
Ergänzungen: Ein Kunde meldete sich und schrieb, dass seine Server wiederhergestellt werden konnten. Ursache war ein Feuer im Akku-Raum der Notstromversorgung, wodurch die Stromversorgung der Server zur Sicherheit abgeschaltet wurde (siehe auch Ausfall bei Server4You und anderen Hostern durch Feuer in Straßburg).
Nemesis Market von BKA abgeschaltet
Das Bundeskriminalamt teilte mit, dass man den Nemesis Market im Darknet abgeschaltet habe. Auf dem drittgrößten Marktplatz im Darknet wurden diverse Drogen, gestohlene Kreditkartendaten sowie Hacking-Dienstleistungen angeboten. Spiegel Online hat hier einige Informationen aus der BKA-Mitteilung aufbereitet.
Anzeige
Server4you wirbt groß mit "Transformatoren, Niederspannungshauptverteiler, USV-Komponenten und Generatoren jeweils mit n+1 oder 2n+1-Redundanzen". Leider hat man nicht erwähnt, dass die offenbar im selben Raum stehen. ;)
Reicht ja wenn das Segment im Bereich der Anbindung nicht mehr mit Strom versorgt wird. Dann rennen die Server heiter vor sich hin aber haben keinen Gateway mehr. Genaues wissen wir wenn die Kisten wieder da sind und wir in den Logs sehen ob es eine Downtime gab oder "nur" strukturellen Disco …
Oder hast du eine magische Karte auf dem die Lage und die Verteilung der Generatoren und Batterien zu sehen sind?
Ich sehe es so: Die Ausfälle halten sich normalerweise wirklich im Toleranzbereich und das hier ist eben ein unvorhersehbares Problem. Zumindest vom Provider aus, der dort auch nur seinen Käfig mietet.
Wenn jemand Schuld sein kann, dann wohl der Betreiber den RZ, wegen fehlender Wartungen oder menschlichem Versagen bei der strukturellen Instandhaltung.
Peinlich ist aber schon, dass selbst die Namensauflösung nicht mehr funktioniert. Ich habe eine domain da, die seit 21.03. nachmittags nicht mehr aufgelöst wird. DNS sollte doch robuster aufgesetzt sein.
Einer der großen Kritikpunkte der Feuerwehr nach dem Brand von OVH in genau diesem Datadock war die "schwiereige Abschaltung der Stromversorgung", die sich wohl aus der Geschichte des Rechenzentrums ergab (viele kleine Trafostationen an den einzelnen Bauabschnitten statt einer großen) und der kaskadierten Pufferung mit Akkus und Generatoren über insgesamt 4 Stufen.
https://www.datacenter-insider.de/der-feuerwehrbericht-zum-brand-im-strassburger-ovhcloud-rechenzentrum-beklagt-maengel-a-1105122/
Deswegen wurde die Einrichtung eines zentralen "Not-Aus-Schalters" zur Auflage für den Weiterbetrieb gemacht. Diesen hat man wohl nun gezogen 😐 Die Feuerwehr hat eben andere Prioritäten als die Erreichbarkeit von Mailservern.
Das ist schlicht falsch. OVH ist und war nicht im Datadock, der Brand von OVH war in einem anderen Rechenzentrum, nur zufällig in der Nähe des Datadocks.
Datadock sitzt im Magasin Vauban (Strasbourg), das Gebäude ist ein wenig massiver – das brennt nicht so schnell aus und wurde aufwändiger geplant.
Hier: Server down, dort: xyz offline, da: Cybervorfall/Cyberangriff bei xyz – aber die Leute immer schön weiter zu digitalen Aktivitäten nötigen…willkommen in der schönen neuen Welt!
Ein Markt "abgeschaltet" – drei neue warten bereits, die Hydra erfreut es.
Ja, es passiert (zu) viel (Angriffe als auch (inkl. staatl.) Missbrauch), dennoch ist die Digitalisierung insgesamt ein Segen und Quantensprung für die Menschheit.
Wollen Sie denn wirklich zurück in das analoge Zeitalter, die Zeit der Röhrentechnik, der Schreibmaschine (auf der man Texte so oft tippte, bis sie endlich fehlerfrei waren) der Postanweisung, des Sparbuches, nur weniger Papierzeitungen zur Auswahl etc. pp?
Und war das schlecht?
Nein – und es war sehr viel weniger hektisch.
Darüber kann man sich trefflich streiten. Lebensqualität und Lebenserwartung waren jedenfalls deutlich geringer.
Es steht Ihnen im Übrigen frei, sich unter Verzicht auf die eine oder andere Annehmlichkeit und/oder Zuwendung weitgehend von der digitalen Welt fernzuhalten – aber ausweislich ihres Kommentars wollen oder können sie es nicht. :D
Na haben Sie eine Ahnung auf was ich alles digital verzichte und ausschließlich analog ausführe und auch nie dem digitalen auch nur eine Chance gegeben habe ;)
Nein, aber gewiss nicht auf moderne Digitaltechnik inkl. jener, die Fernseher, Waschmaschine, Banking, med. Diagnostik, … antreibt und ausweislich Ihrer Kommentare nicht einmal auf Computer und Internet. ¯\\_(ツ)_/¯
Es entbehrt nicht einer gewisse Komik, auf einem digitalen Medium pauschal(!) die Digitalisierung abzulehnen. 😂
@Foegi ("D. ja, Cloud nein!") ist da weit nachvollziehbarer und stringenter.
Arzt, Telefonnummer,keiner geht über Tage ran. Nach 20 Klingeln wird die Verbindung abgebrochen.
persönlich Vorgesprochen, wie früher
Große Augen mit grotesk langen Wimpern sehen mich an.
"Wenn hier keine ran geht, wird auf eine KI weitergeschaltet." Mit völliger Überzeugung (1. Regel : Patienten sind zu doof zum telefonieren)
wurde nicht. Offenbar hielt niemand für nötig, die Telefon Anlage alle Woche per Tests Anruf zu prüfen…ist ja KI.
Neulich lokale Polizeistation.
"Hallo, was wollen Sie? Sagen Sie da doch was"
Aufgelegt. Neu angerufen. Same.
3. Versuch mit anderem Telefon während das erste diesen Apparat belegt hielt. Sein Kollege ging ran, und hat den Kollegen daran erinnert, den Lautsprecher zu aktivieren…und siehe da
Es sieht nicht so aus als wäre etwas besser geworden.
RLY?
Das sind bestenfalls Einzelfälle und sie beschreiben auch nur eine winzige Facette des Komplexes "Digitalisierung".
Es lohnt nicht einmal, darauf näher einzugehen, sorry.
Du scheinst nur auf Streit auszusein.
Spannend, genau den Eindruck habe ich von Leuten, die mit unzulässiger Verallgemeinerung und wenigen (bei Ihnen auch noch kaum sachzusammenhängenden (mangelnde Schulung vs. Risiken der Technologien)) Einzelfällen pauschal(!) eine ganze Technologie ablehnen.
Das ist gemeinhin die Rhetorik der Populisten und Trolle.
Bitte an die Diskutanten, diesen Thread langsam auslaufen zu lassen. Wenn ich mir die Cyberrisiken ansehe, die mir täglich vor die Füße fallen, wundere ich mich, dass es nicht noch mehr knallt (spätestens wenn AI da zur Auswertung bei Cyberangriffen genutzt wird, knallt es gewaltig) und komme zum Schluss: "Die Welt wäre mit weniger Digitalisierung besser dran". Ich formuliere es mal drastisch: Die IT bewegt sich auf so etwas wie eine Kernschmelze zum. Denkt an meine Worte.
Digitalisierung ohne Cloudzwang wäre ein Segen.
Aber immer mehr Firmen und Dienstleister zwingen einem dazu Cloudlösungen zu verwenden und können mit weniger Aufwand noch mehr Gewinn rausholen. Und wenn der Hoster ausfällt ist es nicht deren Schuld.
Digitalisierung != unnötiger Cloudmist
sollten selbst Bernds irgendwann mal verstehen
Manche Bernds sind sogar nachgerade paranoid bzgl. Digitalisierung und Cloud (und zahlen den Preis dafür), aber @Anonymous' Aussage "immer schön weiter zu digitalen Aktivitäten nötigen" ist a) weit zu pauschal, um darin nur "Cloud" zu lesen und b) sind viele jener "digitalen Aktivitäten" (noch) nicht in der Cloud.
> Digitalisierung insgesamt ein Segen und Quantensprung für die Menschheit.
Armselig.
Armselig sind nur Trolle mit Wegwerfemailadressen, die substanzlose Anwürfe ablassen und den Diskurs zu vergiften suchen.
Lieber Wasserschaden als abgebrannt. Den Wasserschaden kann man hoffentlich schneller beheben.
Straßburg, da war doch schonmal was, ist da nicht ein RZ von OVH abgefackelt?
Der Ausfall in Straßburg betrifft plusserver. Hier der link zum Status. https://status.plusserver.com/incidents/s6lzkwsc3tbj
VR Payment (Zahlungsdienstleister der Volksbanken) hat aktuell auch größere Probleme im Bereich der EC-Terminals.
Musste ich heute auch feststellen, als ich beim Bäcker mit Karte zahlen wollte, da mein Bargeld nicht mehr reichte. Musste dann zu einem anderen Bäcker gehen, bei dem die Kartenzahlung funktionierte. Ist inzwischen zum Problem geworden, an Bargeld zu kommen. Die Bankfilialen wurden geschlossen und bis auf Einen die Automaten abgebaut. Der Verbliebene ist aber wegen Vandalismus nur zu eingeschränkten Zeiten zugänglich. Und eine halbe Stunde zum nächsten Automaten fahren habe ich auch keinen Bock.
Hat dann relativ schneller wieder funktioniert. Aber ist erst mal doof, wenn man das nur mitbekommt, indem eine Kartenzahlung mehrfach scheitert und man den Technik-Support anruft. Bei der automatisierten Ansage wurde dann auch gleich auf die bestehende Störung hingewiesen.
Ja, die Versorgung mit Bankautomaten ist inzwischen sehr, sehr dünn geworden. Aktuell haben wir hier noch welche (SPK und VB gemeinsam in einem Raum), aber die wurden zwischenzeitlich auch schon gesprengt – und der Vermieter hat wohl keine große Lust mehr.
wir sollen zum bargeldlosen bezahlen getrieben werden. Und wie sieht es da mit der Redundanz aus?
Goldscheiben?
Wie zahlt man Rechnungen?
per Wertpaket?
Wer stellt die Rechnung überhaupt zu, wenn es auch keine Postkästen mehr gibt, resp. niemanden der die Briefe zustellt?
In den Niederlanden gab es auch mal ein Problem mit gesprengten Geldautomaten. Da ist jetzt Ruhe, dafür fliegen bei uns die Kisten. Warum?
Weil in den Niederlanden eine staatliche Vorschrift greift, das die Automaten die Geldscheine einfärben oder verkleben wenn sie gewaltsam geöffnet wurden.
In Deutschland gibt es das nicht. Anstatt die Automaten entsprechend auszurüsten, nehmen die Banken die Sprengungen als Grundlage für das Abbauen der Geräte. Halt um auch auch an das Bargeld in unseren Taschen zu kommen.
Es geht offenkundig um das "Datadock" in Strassburg, das gehörte mal Plusserver/Intergenia.
Mittlwerweile ist Plusserver da nur noch Mieter. Einer unserer Kunden hat da noch ne private Cloud Instanz über Plusserver für richtig viereckige Kosten und ist nicht so begeistert:
https://status.plusserver.com/incidents/s6lzkwsc3tbj
Ich finde es ja schon befremdlich, dass ich so abgestumpft von der Cloud bin, dass ich mich jetzt quasi "freue", dass es "nur" ein Wasserschaden ist.
Ist die Sicherstellung erforderlicher Uptime (im Zweifel also Redundanz) nicht Job jenes Kunden?
Sich zurückzulehnen und u.U. auf ein SLA (so es denn in dieser Form überhaupt existiert) zu verweisen ist da schon eher Politik als seriöse IT, zumal 1 Standort schon per se geographische Redundanz missen lässt.
Im Datadock stehen auch die Reste von Domainfactory. Teil von Hosteurope, die seit ein paar Jahren in Frankreich hosten. Wenn DF weiter so abbaut hat sich das aber auch bald erledigt. Die machen ja schon wieder die nächsten Dienste zu (JiffyBox).
Bei der VHH vermute ich einen Zusammenhang mit dem von heute bis Samstag laufenden Streik dort.
Vielleicht streikt die IT ja auch oder es wurde etwas nachgeholfen bei dem Ausfall.
Natürlich, ohne Zweifel.
Aber die Kunden pockern natürlich, ist ja ein RZ, Cloud, die wissen schon was sie tun.
Als Dienstleister kann ich da nicht mehr machen als schriftlich auf die Risiken hinweisen, was wir getan haben. Sonst begehen wir ein Beratungsverschulden.
Einen SLA gibt es mit 4h, aber die Strafe so gering, dass es nicht der Rede Wert ist.
Dennoch leistet sich kein mir bekannter kleinerer Kunde oder Mittelständler georedundante RZ-Standorte. Das kann ich bei vielen sehr gut verstehen, zumal die Komplexitätserhöhung nicht immer der Verfügbarkeit dienlich ist.
Und ganz ehrlich, Wassereinbruch, Feuer, Stromversorgung finde ich jetzt persönlich nicht so ne Glanzleistung. Ich (und sehr viele andere) sehe Georedundanz eher im Breich Erdbeben, Flugzeugabsturz etc.
Was ich aber im vorliegenden Fall definitiv anders gemacht hätte ist das Backup. Das liegt im selben RZ und das wäre mir zu risikoreich. Da ist jeder Kunde, der 4-5 Mal im Monat ein Band oder wegistens ne SSD ins Bankschließfach bringt, m.E. besser aufgestellt.
Skynet ist nun online – das ging schon beim Terminator schief. Statt K.I.S.S. wird Komplexitätsschicht um K. eingezogen bis es keiner mehr beherrschen kann – Hauptsache neue geile Features – die man zu Geld machen kann. Der Antreiber der IT sind eher Groß-Aktionäre Geld generieren wollen und nicht Sicherheit. Und das da schon lange genug so läuft, wird es auch immer genug 0-Days geben für weiter Cyber-Späße; von völlig ungebildeten IT-Anwendern/Entscheidern rede ich erst gar nicht.
Ist wohl nur eine Frage der Zeit, bis Hacker auch mal eine militärische Rakete etc. gestartet bekommen.
Ich freue mich grundsätzlich, wenn alte, analoge Prozesse digitalisiert werden. Für mich persönlich sollten dabei Grundsätze gelten (um nur einige wenige zu nennen):
1. Der neue digitale Prozess soll die Bearbeitung vereinfachen und nicht komplexer werden lassen.
2. Der neue digitale Prozess muss mit weniger Aufwand in der Bearbeitung einhergehen und muss transparent dargestellt und verständlich beschrieben sowie dokumentiert sein.
3. Die für den Prozess erhobenen Daten gehören für mich nicht in einen Cloud-Speicher und sollten entweder nicht oder nur Ende-zu-Ende verschlüsselt über das Internet transportiert werden.
Bspw. "Antrag bei einer Behörde"
Die Antragsformulare sollen bei der genehmigenden Behörde digital zum Download verfügbar sein. Der Antragsteller lädt sie herunter, füllt diese digital aus und fügt alle weiteren Anlagen digital hinzu. Danach sendet er die Unterlagen Ende-zu-Ende verschlüsselt per E-Mail an die Behörde. Die Behörde legt diese auf dem hausinternen Server (in einer DMZ) ab und erzeugt eine Vorgangsnummer zur Bearbeitung mit Hinweis auf die Kontaktdaten des Antragsstellers und den Ablageort der Unterlagen. Das Erzeugen der Vorgangsnummer und die Fortschrittsverfolgung geschehen in einer Art Ticketsystem, welches ebenso auf einem Server in der DMZ läuft. Die DMZ ist nur vom hausinternen Netz aus erreichbar. Wenn ein Behördenmitarbeiter aus dem HomeOffice arbeitet, kann er sich per VPN mit dem Dienst-Notebook in das Netzwerk begeben und hat Zugriff auf die Anwendungen und Daten in der DMZ. Sein Rechner und das VPN sind entsprechend abgesichert. Bei Rückfragen kann der Antragsteller telefonisch oder per Ende-zu-Ende verschlüsselter E-Mail kontaktiert werden. Ebenso wird der Bescheid per Ende-zu-Ende verschlüsselter E-Mail zugestellt.
Das klingt jetzt stark abstrahiert und idealistisch – aber so in etwa wäre meine digitale Wunschwelt.
sehr idealistisch :-)
Wollte einer Behörde/großen Firma mal verschlüsselt E-Mails schicken.
Die ehrliche Antwort:
"Wir dürfen aus Sicherheitsgründen keine verschlüsselten Emails annehmen. Das wird sich auch nicht ändern."
Oder:
"Sie müssen Ihre E-Mails nicht verschlüsseln. Wir benutzen TLS. Das ist sicher."
Das zur Kampf GmbH (Jagenberg Gruppe) gehörende Tochterunternehmen Atlas Converting in England ist auch von dem Angriff betroffen gewesen:
– Man muss Windows mit Applocker härten
– zusätzlich dem Standardbenutzer die Schreibrechte auf C: entziehen (hilft gegen Mock-Ordner mit Space im Namen).
– Ausführungsrechte im Download-Ordner entziehen
– Windows-Scripte sperren (cscript.exe, mshta.exe, wmic.exe)
Anleitung zum Härten von Windows 7:
pastebin[.]com/H4JD3UGv
– unerwünschte Dateierweiterungen wie die von HTML-Applikation ".hta" und die von OneNote (.one, .onenote, .onetoc2) auf einen Texteditor umbiegen (Rechtsklick, Öffnen mit NotePad++).
– In der hosts unerwünschte URLs sperren
– PDFs nur mit SumatraPDF öffnen, weil der keine Scripte ausführt.
– Im Browser Scripte blocken (ublock origin, umatrix, AdGuard)
Franzosen können es einfach nicht! Erst die Ovh Stümper, letztes Jahr dann Global Switch und jetzt wieder Server in Frankreich! Wer dort noch hostet ist selbst Schuld!
Unser Mail Server bei Server4you ist seit gestern um 10:30 außer Betrieb. Gottseidank(?) haben wir nur mehr die Mail dort laufen, alles andere ist schon in Finnland untergebracht. Da gingen hunderte e-mails den Bach hinunter, vermutlich werden wir dadurch einige Kunden verlieren.
Wenn Mails so wichtig sind betriebe ich einen ständigen Backup-MX.
Ersatzweise könnte man wenigstens jetzt einen Backup-MX in Betrieb nehmen (DNS ist schnell umgestellt, ein kleiner Mailer innert 1h angemietet oder selbst aufgesetzt (egal, ob Win oder Lx)).
Aber nicht, wenn die Domain auch bei Server4You ist und man keine Chance hat, an die DNS-Verwaltung zu kommen..
"haben wir nur mehr die Mail dort laufen"
Aber da Sie es ansprechen: Für DNS ist ebenfalls ratsam, wenigstens 1 Server selbst zu hosten und ihn zum Master zu machen.
Wenn man ihn zum "hidden primary" mach (also im SOA-Record und nicht im NS), dann hat er kaum Last, letztendlich kann man den Master sogar selbst betreiben, da nur die Secondaries gelegentlich mal nach der Zone fragen. Noch die Expiry schön hochgesetzt (z.B. vier Wochen), dann kann nicht so viel passieren.
In den Anfangszeiten des Internet stand es sogar in den RFCs, daß eine Domain mehrere Nameserver haben soll, die in getrennten Netzen stehen müssen.
"hidden primary"
Ist ein paar Jahre her, dass ich das machte, aber IIRC muss das gar kein "hidden primary" sein, er muss nicht einmal im DNS aufgeführt sein, nur die Slaves müssen wissen, wen sie fragen.
edit: Google ist mein Freund www . zytrax . com/books/dns/ch4/#slave
"Noch die Expiry schön hochgesetzt (z.B. vier Wochen)"
Um Gottes Willen, das ist das Dümmste, was man machen kann!
Man verliert dadurch jede Flexibilität, im Notfall schnell Ersatzinfrastruktur bereitzustellen – und zwar insb. gegenüber Mitarbeitern, Lieferanten und der Stammkundschaft (die ja öfters die Seite besuchen, Mails senden (und empfangen), …, die Einträge also regelmässig im Cache haben werden).
"daß eine Domain mehrere Nameserver haben soll, die in getrennten Netzen stehen müssen."
Ja, hat schon damals™ so Einige nicht interessiert. Der seriöse IT-ler macht es jedenfalls unabhängig davon, was in den RFC steht.
"Um Gottes Willen, das ist das Dümmste, was man machen kann!"
Ich rede von der Expiry im SOA der Zone, also der Zeit, nach der sekundäre Nameserver ihre Kopie der Zone wegwerfen und gar nicht mehr antworten.
Was Du meinst ist die TTL der einzelnen Einträge (die darf gerne bei ein paar Minuten liegen, Windows verwendet defaultmäßig 1200 Sekunden, bei DynDNS auch 60) oder der Refresh-Zeit im SOA-Record.
"hidden primary"
Kann man so machen, nur erkauft man sich dadurch, daß manche die Zone wegen "lame delegation" ablehnen, kann DNSSEC schlechter einsetzen und verbaut sich die Möglichkeit, per authentifizierten NSUPDATE einzelne Einträge (wie den MX) schnell umzusetzen wenn man mal gerade keinen direkten Zugriff auf den Server mit der Master-Zone hat.
"daß eine Domain mehrere Nameserver haben soll, die in getrennten Netzen stehen müssen."
In die Falle ist Microsoft 2001 hineingelaufen:
https://news.microsoft.com/2001/01/24/microsoft-responds-to-dns-issues/
Alle 4 Nameserver standen in Redmont und Microsoft war ein paar Stunden 'raus aus dem Internet 😅 und weltweit nicht erreichbar.
wenn ich mich recht entsinne, haben die Timetolive gewisse mindestens und höchst Werte.
Werden diese unter resp. überschritten so greifen defaults.
(Das gibt manchmal bei dyndns Einträge Probleme, da deren sehr kurzen TTL u.U. ignoriert werden.)
Mit dem langen Timeout verbietet Du niemanden, früher nachzufragen. Schließlich hängt das von den Ressourcen des Abfragers ab, wie viele Einträge er wie lange cachen kann/will.
Richtig. Niedrigere TTLs erzeugen höhere Last auf das DNS-System.
Bei im Extremfall 1s würde sich quasi jeder Request bis zu den authoritativen Nameservern "durcharbeiten".
Deswegen nutzen selbst DynDNS-Anbieter ein Minimum von 60 Sekunden.
Für allgemeine Einträge sind die oben genannten 20 Minuten bis hin zu mehreren Stunden durchaus üblich.
Wenn eine (geplante) Änderung an so einem Record ansteht (z.B. ein Serverumzug) ist es gängige Praxis, ein paar Tage im Vorfeld die TTL auf einen niedrigen Wert zu setzen und erst dann, wenn der Umzug durch ist und man sich seiner Sache sicher ist wieder auf einen großen.
Die früher oft gegebene Empfehlung, nach einer DNS-Änderung erst man ein paar Tage zu waren kommt übrigens daher, daß vor vielen Jahren 1 Tag eine durchaus übliche TTL war, man muß immer mindestens die doppelte TTL warten, bis alle Caches eine solche Änderung mitbekommen haben.
Die großen Resolver-Anbieter wie Google (8.8.8.8) oder Cloudflare (1.1.1.1) die die anfallenden Daten auch noch gewinnbringend nutzen scheren sich allerdings wenig um die angegebene TTL sondern haben eigene Caching-Strategien, die sich z.B. nach dem zeitlichen Abstand zur letzten beobachteten Änderung richten.
Was für Mails sollen da den Bach heruntergehen?
Gerade die Protokolle aus den Anfangszeiten des Internet haben viel mehr Redundanzen eingebaut, als man gemeinhin glaubt.
Wenn Euer Mailserver nicht erreichbar ist, wird der einliefernde Mailserver es immer und immer wieder versuchen. Standardmäßig sieben Tage lang, wobei nach drei Tagen der Absender schon eine Warnung (temporary error) erhält.
Zudem hätte man einen Backup-MX (mit geringerer Priorität) im DNS hinterlegen können, da versucht es der einliefernde Mailserver auch.
Die 7 Tage sind mW lange vorbei, bestenfalls 3 Tage, zuweilen gar nur 24h, ist meine Erfahrung.
Ja, der Backup-MX fehlt halt (ebenso, wie der Ersatzserver), es wird in der Fa. eher keine dedizierte sachkundige IT-Abteilung geben.
Du willst heute keinen Backup MX mehr, wenn Du wüsstest wie sich das in der Praxis auswirkt.
Zum einen erwarten die User heute, dass die E-Mail in max. 15 Minuten beim Empfänger ist.
Zum anderen rechnen sie nicht damit, das ihre Email in einer Que raumhängt.
Was viele Admins nicht wissen oder erwarten:
War der Haupt MX nicht erreichbar, so wurde die Auslieferung immer wieder versucht, an dieselbe IPadresse. Klingt irre, ist aber richtig.
Früher war es durchaus üblich, das ein Mailserver mal online war und mal nicht. früher war es auch üblich, dass man E-Mails per Modem auslieferte.
Da war es toll, dass man seine Email am 2. MX loswerden könnte. Heute irrelevant.
Früher wurde tatsächlich 7 tagelang für Zustellung probiert und der User wunderte sich, warum er nach 3 Tagen eine unverständliche Nachricht zu seiner Email bekommt…
(Früher war es auch default, dass man emails von Fremden annahm und an Fremde weiterleitete.
Kann sich heute Niemand mehr vorstellen, dass es eine längere Diskussion gab, diese Default Einstellungen zu verändern.)
Das weitere Problem ist, das MX manchmal ausfallen.
Einfach die E-Mails nicht weiterleiten oder down sind.
Der unerfahrene,oft völlig überforderte Windows Admin sagt jetzt:
"Dann ist es doch prima, wenn da ein 2. MX ist."
Ja, super ist das. vor allem fällt es dank des 2. MX nicht auf, das die E-Mail nicht mehr richtig funktioniert, weil ja immer noch ein paar E-Mails ankommen. Natürlich können keine E-Mails verloren gehen. dafür sorgt das Protokoll.
Zur Not landet die Email halt bei "postmaster" oder im errorlog, in den auch der Windows Admin alle 14 Tage nach sieht…
Kämen aber gar keine E-Mails mehr, würde das auch der dümmste/faulste Admin merken: Am 2. Tag hat er dutzende Tickets seiner User, denen aufgefallen ist das keine E-Mails kommen…
m.a.W.
Ein 2. MX ist von gestern und sollte gelöscht werden.
Es funktioniert nicht mehr.
Wenn Du wirklich so viel E-Mails bekommst, ist es Aufgabe Deines Loadbalancers das zu verteilen
Betriebssichere ist das einfach nicht, da evtl. der 2. MX die E-Mails zwar annimmt, aber auch nicht weiterleiten kann.
Wiederholte Zustellversuche sollten unterlassen werden und den Absender nach wenigen Minuten eine Meldung bekommen, das keine Zustellung möglich ist und er den Kunden anrufen möge.
Das mit der Redundanz ist nicht so einfach.
Es hat ja bestimmt jeder schon das Fax getestet, ob es auch per VoIP get?
In der heutigen Zeit ist ein Backup-MX auch ungünstig zur Spam-Prävention. Früher hat der erst mal "einfach alles" angenommen und dann bei Wiedererreichbarkeit an den Haupt-MX weitergeleitet.
Heute (in Zeiten, in denen um Größenordnung mehr Spam als echte Mails verschickt werden) ist es üblich, daß der Haupt-MX die Nachricht gleich im SMTP-Diagog ablehnt wenn er den Empfänger nicht kennt oder einer der Inhaltsfilter auf Viren oder Spam anschlägt.
Ein Mailrelay als Backup-MX hat diese Informationen (Benutzerliste) i.d.R. nicht und muß die Mail daher annehmen und später bouncen. Deswegen ist ein Loadbalancer mit mehreren gleich konfigurierten Servern, von denen jeder die Mail final annehmen und weiterverarbeiten kann die bessere Wahl.
Zum anderen Punkt: eMail ist kein Echtzeitmedium und war es auch nie.
Fax per VoIP ist spannend, wird aber desöfteren von Benutzern "getestet". Gute Telefonanlagen haben eine entsprechende Diensterkennung und können in einem solchen Fall auch z.B. verlustbehaftete Audiokompression abschalten.
"Ein Mailrelay als Backup-MX […] muß die Mail daher annehmen und später bouncen."
Fun fact:
Wenn ein im DNS eingetragener MX die Mail annahm gilt die Mail (also u.U. die Willenserklärung) als zugegangen (ähnlich dem Einwurf im Briefkasten). Später als SPAM-Schutz zu bouncen/löschen ist wie einen eingeworfenen Brief zu_ignorieren/wegzuwerfen (also eher dumm).
Das sollte bei inexistenten Adressen nicht wehtun, aber SPAM-Abwehr muss bereits/auch auf dem Backup-MX stattfinden.
Hat server4you immer noch Paketverluste im eigenen RZ wie damals?
Und wollen die immer noch das Passwort vom "root"?
Oder geht das mittlerweile?
Habe einen Aktenordner voll Tickets und Anwaltsschreiben.
Noch ein paar Hintergründe:
https://www.heise.de/news/Feuer-in-Rechenzentrum-legt-Hoster-und-deren-Kunden-lahm-9667385.html
PlusServer hat wohl "Tausende" Server per LKW nach Köln umgezogen.