Besitzer eines neuen Apple M1 Mac werden aktuell eventuell von Sorgen bezüglich ihrer Festplatten geplagt. Anwender melden alarmierende Zustandswerte ihrer SSDs. Die Total Bytes Written-Werte bewegen sich nach kurzer Betriebsdauer in Bereiche, wo die SSDs kaum ein halbes Jahr überleben dürften.
Anzeige
imore.com hat das Thema, welches in Foren diskutiert wird, in diesem Artikel aufgegriffen. In diesem Forum gibt es beispielsweise einen längeren Thread mit der Problembeschreibung.
M1 Mac owners are experiencing extremely high SSD writes over short periods of time, likely thanks to aggressive swap
Some more professional users of the new M1 Macbooks are experiencing extremely high drive writes over relatively short time.
The most severe cases have "consumed" about 10-13% of the maximum warrantable TBW value of the SSDs (given their capacity & using values for equivalent market-available NVMe drives).
Nachfolgender Tweet zeigt entsprechende Angaben eines Nutzers, der von einem Bug in macOS ausgeht, der durch Apple behoben werden muss.
Ein Nutzer schreibt in diesem Forenbeitrag von einer starken Zunahme der SSD-Schreibvorgänge eines M1 Mini, das er am 20. November 2020 gekauft hat. Die Maschine weist 1,5 Terabyte an Schreibvorgängen auf die SSD auf:
Anzeige
My M1 Mini that I have had since around 20 November 2020 (ordered it right after apple event).
Given I have 16 GB RAM so my computer doesn't page much.
1,5 TB Written, screenshot taken right now.
But these what these tools report are questionable, the biggest one is: Since I'm working from home I'm working on the computer almost every day and these tools only report 95 hours power on, SINCE THE END OF NOVEMBER!
And even if I would have a higher data write count to me this is a nothing burger.
S.M.A.R.T.Werte einer SSD
Allerdings ist umstritten, wie aussagekräftig die S.M.A.R.T.Werte einer SSD sind. Allerdings kann ich die Nervösität der Apple-Käufer verstehen, die bei echten Werten eine Problem hätten. Die SSD wäre schnell am Lebensende, und die SSD ist fest auf dem Mainboard verlötet, also nicht einfach austauschbar. Weitere Details lassen sich hier nachlesen.
Anzeige
Fest verbaute Hardware hat halt Nachteile. Wenn die einzelnen Komponenten gesteckt sind kann man sie bei defekt austauschen. Ob dieser nun durch einen Bug im Betriebssystem ausgelöst wird oder durch regelmäßige Arbeit mit großen Datenmengen ist egal.
Wie viel vertrauen man in die SMART Werte einer SSD haben kann weiß ich nicht. Bei mechanischen Festplatten war die Selbstdiagnosedaten teilweise falsch. Bei WD Festplatten gab es teilweise E/A Fehler beim Nullen der Platte unter Linux. Die SMART werte sagten aber das die Platte in Ordnung sei. Bei Seagate war es anders herum. Es gab Reallocated Sektoren und Current Pending Sektoren. Nullen unter Linux hat Current Pending Sektoren zurückgesetzt. Die Platte lief in dem Zustand noch mehrere Jahre ohne Probleme. Habe sie dann irgendwann gegen eine größere getauscht.
Der Wert für die Schreibleistung wird aber wahrscheinlich stimmen.
Zumindest USB Sticks sind immer ohne Vorwarnung ausgefallen. Eine SSDs ist mir noch nicht ausgefallen.
Meine erste Samsung 840 Pro hab ich auch noch. Die hatte zwar schön früh 21 defekte Blöcke aber wie ich schon beim Modden des Hannspad lernen musste sind defekte Blöcke bei NAND auch einfach normal. Ich habe Mal eine 970 EVO Plus beim Benchmark totgeschrieben. Ich glaube aber immernoch das es an der ungünstigen Kühlung im Dell Rechner lag. Dort wurde nur der Controller Chip gekühlt, der NAND-Speicher aber nicht. Die SSD drosselte nie bis sie dann halt tot war :( Ansonsten habe ich nur zwei komplett kaputte Intel SSDs im Sophos Firewall Cluster gesehen. Beide nach nur drei Jahren so kaputt das man nicht Mal mehr ein Betriebssystem drauf installieren konnte. Die Schreibleistung war gar nicht Mal hoch gewesen. Also meine alte Samsung hat weit mehr auf dem Tacho :)
Ausgefallene USB-Sticks kann man oft reparieren, wenn man den Low-Level-Formatter des Chip-Herstellers benutzt.
Zuerst benötigt man das Programm "ChipGenius", das den Flash-Controller-Chip des (angeblich) defekten Sticks identifiziert.
h**p://www.flashdrive-repair.com/2019/08/chipgenius-v4190319.html
oder
h**p://www.softpedia.com/get/System/System-Info/ChipGenius.shtml
oder
h**ps://www.usbdev.ru/files/chipgenius/
oder
h**p://www.usbdev.ru/?wpfb_dl=8505
password = usbdev.ru
Das Tool sieht den angeblich defekten Stick oft auch dann noch, wenn Windows ihn nicht mehr sieht und zeigt dann den Namen des Controller-Chips an.
Passend zu dem angezeigten Flash-Controller-Chip zB. SM3267AC findet sich oft ein passendes Tool vom Hersteller, das Sticks lowlevel formatieren kann.
Anschließend dann dort in der langen Liste dann das zum Chip passende Low-Level-Formatier-Tool besorgen:
h**ps://www.usbdev.ru/files/smi/smimptool/
oder
h**ps://www.usbdev.ru/files/smi/dynamptool/
Manchmal gibt es für den selben Controller-Chip auch mehrere Einträge bzw Tools in den Listen.
Wenn es also beim ersten Versuch mit einem der Tools nicht funktioniert, dann nicht aufgeben, sondern eines der anderen Tools mit der selben oder einen sehr ähnlichen Nummer versuchen.
Es funktioniert dann mit dem richtigen Tool.
Ich habe schon mehrere angeblich defekte USB.-Sticks auf diese Weise repariert und hinterher funktionierten sie wie frisch gekauft, so als ob nie ein Fehler aufgetreten wäre.
Also keine USB-Sticks wegwerfen, sondern erstmal LowLevel-Format mit dem Tool des Herstellers versuchen.
Oft ist nur eine einzige Speicherzelle defekt und die wird dann beim Low-Level-Format ausgeblendet und nur noch die intakten Zellen benutzt.
** = tt
@Bolko
Vielen Dank für diese interessante Reparaturanleitung. Aktuell habe ich zwar keinen ausgefallenen USB-Stick, hatte in der Vergangenheit aber schon das Problem, dass USB-Sticks von Windows nicht mehr erkannt wurden. Wenn das Problem wieder auftritt, weiß ich jetzt, was zu tun ist …
SMART-Werte sind schon so eine Sache für sich, die sind je nach Hersteller unterschiedlich. Bei Seagate HDDs müssen die Lesefehler steigen sonst ist da was faul. Wusste ich bei meiner ersten Seagate auch nicht und hab Panik bekommen ;)
Die Samsung 850 Pro Serie hatte einen Firmware Bug, nach einem Jahr hatte sie angeblich schon über 40000 Laufstunden ;)
Ich tippe bei der hier genannten Problematik auf zwei Dinge: Einen Fehler in der Firmware, der dafür sorgt das die aktiven Stunden falsch angezeigt werden. Ich habe gerade auch wieder zwei Samsungs, 970 Evo Plus, die sehr niedrige Laufzeiten anzeigen obwohl sie im Proxmox NUC 24/7 laufen. Zudem gehe ich von einem Fehler was den Standby oder Hibernatezustand angeht in MacOS. Ich habe schon seit Ewigkeiten 32GB Ram im Notebook, der Hybride Standby von Windows ist da auch keine wirklich gute Idee. Windows 8.1 hat jedes Mal beim Zuklappen auch fast 32GB auf die SSD geschrieben :) Windows 10 scheint hier schlauer zu sein und wenigstens nur wirklich wichtigen Raminhalt auf die SSD zu schreiben.
Ich habe mir 2017 in meinen PC eine Samsung 960 Pro 512 GB M2 verbaut. Laut Beschreibung hält sie 400TB Schreibleistung aus. Ich nutze immer den Ruhezustand (S4). 32GB RAM sind verbaut. Windows 8.1 Pro x64 wird normalerweise 1x im Monat nach dem Patchday neu gestartet. Momentan hat die SSD eine Schreibleistung von 18,7 TB. Ich mache mir also keine Sorgen über die geplante Lebensdauer.
Manche SSDs sind echt seltsam. Ich habe hier eine von 256er Kingston (SA400) liegen, etwa 4 Jahre alt. Das Dateisystem ist nicht mal zur Hälfte gefüllt (und fehlerfrei), es müssten also genug Reservesektoren für das Mapping da sein. Auch die SMART-Werte sind im grünen Bereich, 6,5TB geschrieben, ihre eigene Kapazität also rund 26 mal beschrieben. Die hat im Januar einfach mal beschlossen, in den Readonly-Modus zu wechseln.
Wenn sowas passiert, und die SSD ist – wie bei diesen Macs – fest eingelötet, das verurteile ich als geplante Obsoleszenz. Das ist nicht in Ordnung.
Das Ausgabe der SMART-Werte ist leider nicht normiert, so dass jeder Hersteller nach eigenem Gutdünken festlegt, welche Parameter er in welcher Form einfließen lässt. Das lässt für allgemeine Tools wie "Laufwerke" unter Linux die Aussagekraft arg schwinden, es sei denn, man bekommt heraus, wie der Hersteller die Angaben definiert.
So wird z.B bei meiner Seagate Barracuda HDD mit 2 TB nach knapp 5 Monaten Laufzeit schon eine Lesefehlerrate von über 100 Mio. und eine Such-Fehlerrate von über 400 Mio. angezeigt und alles für in Ordnung befunden.
Wird bei SSDs nicht anders sein.
@Walter G.: dafür gibts in diversen Computerforen hilfreiche Threads und User die sich auf SMART Auswertungen spezialisiert haben.
Konkret ist bei Seagate bei den Parametern 01 Lesefehler und 07 Suchfehler der hexadezimale Rohwert zweigeteilt auszuwerten, die ersten 16 Bit (4 Stellen) sind Lese/Such-Fehler, die letzten 32 Bit (8 Stellen) sind Lese/Such-Vorgänge!