Noch ein kurzes Informationshäppchen zum Sonntag, welches mir diese Woche auf Twitter unter die Augen gekommen ist. Microsoft preist uns ja ständig seine "neuen Innovationen" mit Windows 11 und was es alles Tolles gibt. Ein Nutzer hat sich einen alten Rechner aus dem Jahr 2000 gegriffen und mal ein Video von Windows NT 3.51 gemacht …
Anzeige
Ok, die Benutzeroberfläche von Windows NT 3.51 sieht altbacken aus. Aber dafür läuft das Betriebssystem auch noch auf einen Rechner aus dem Jahr um 2000 (mit 600 MHz CPU, 128 MB RAM, und einer langsamen Festplatte). Der Benutzer zeigt im Video (einfach auf das Foto klicken, um das Video auf Twitter abzuspielen), wie unglaublich schnell das Öffnen von Anwendungen funktioniert.
Und dann stellt mal einen Rechner mit Windows 11 dagegen, um zu beobachten, wie fix die Anwendungen starten. Nennt sich Fortschritt, habe ich irgendwo mal gehört.
Anzeige
Windows NT 3.51 auf einem 600 MHz System mit 128 MB RAM ist schon der pure Luxus, aber für das Jahr 2000 ist diese Hardware auch schon wieder eher untere Einstiegsklasse, da gab es schon die ersten Pentium III und AMD Athlon mit 1 GHz Takt. Windows-NT 3.51 wurde im Mai 1995 vorgestellt und läuft notfalls auch noch auf einem 386DX, sollte man aber nicht machen, das wird dann doch etwas schleppend. Ein zeitgenössischer 486DX2/DX4-100 oder Pentium 60..90 sollten es dann schon sein, 64 MB RAM ist auch schon viel. NT 3.51 hatte übrigens kein langes Leben, denn schon zum Jahresende 1995 kam schon NT4, und Windows 95 noch mit DOS-Unterbau, war eine spannende und ereignisreiche Zeit damals. Windows NT 3.51 (und NT 4) auf einem System mit AGP und PCI zu installieren, ist übrigens ein Vorhaben, das viel Geduld erfordert, denn es müssen massig Updates in der richtigen Reihenfolge installiert werden, damit diese Bussysteme und Karten reibungslos funktionieren, NT 3.51 wurde noch für ISA und EISA konzipiert, PCI kam erst im Updateverlauf dazu, AGP ganz zum Schluss.
Auch hier (bei mir) steht noch ein PIII-600EB mit unglaublichen 640MB-SDRAM und WINDOWS 2000, den ich von Zeit zu Zeit mal noch hochfahren lasse.
Programmtechnisch ist er auf dem Stand von 2009, also das Jahr indem die Unterstützung für WINDOWS 2000 ausgelaufen ist.
In das INTERNET geht er natürlich nicht mehr, aber alle anderen Arbeiten erledigt er klaglos und für seine Verhältnisse recht flüssig.
Das ist ja kein Wunder, dass Windows NT 3.51 aus dem Jahre 1995 viel snappier war als Windows 11. Wenn man sich mal die durchschnittliche Anzahl der Prozesse anschaut, die in Windows 11 standardmäßig aktiv sind und das mal mit der Anzahl vergleicht, die in NT 3.51 aktiv sind, dann merkt man, dass da ein gewaltiger Unterschied besteht.
NT 3.51 hatte noch den Programmmanager und Dateimanager aus Windows 3.11 erhalten und war noch als genügsames Betriebssystem bekannt, dass nicht als Ressourcenschleuder verschrien war. Vor fast 30 Jahren erschien Windows NT 3.1, dass den Urahn von Windows 11 darstellt. Seitdem hat sich in Windows dermaßen viel Rost angesetzt, dass es besser wäre, nochmal komplett von vorne zu beginnen, anstatt noch mehr Rost ansetzen zu lassen.
Der Ansatz, ein Betriebssystem für alles und jeden zu haben, ist für den jetzigen Zustand verantwortlich. Man sollte sich davon verabschieden, das macht das Ganze nur aufgebläht, unnötig kompliziert und kaum noch beherrschbar.
Genau meine Meinung, damals war NT 3.51 ein schlankes System und es liefen nur Prozesse die nötig waren für die Grundfunktionen. Aber jetzt läuft ja alles Mögliche schon bei der Grundinstallation. Ja NT 3.51 sah altbacken aus, das würde mich persönlich nicht stören. Wenn man es nur auf 24 bit oder 32 bit Farbtiefe und höhere Bildschirmauflösung bringen würde wäre es auch heute noch alltagstauglich.
**************************************
Der Ansatz, ein Betriebssystem für alles und jeden zu haben,
**************************************
Der Ansatz wäre auch nicht das Problem! Wenn man sich darauf konzenztrieren würde was ein Betreibssystem ist: Eine OS ist ein OS ist ein OS! Aber man bringt ja mit Windows schon lange keine OS mehr an den Mann, sondern eine eierlegende Wollmilchsau sprich moderner: Bloatware!
Würde das OS das machen wofür nen OS eigentlich da ist müsste man dies auf heutiger Highendhardware mit waitstates künstlich ausbremsen weil sont der User nicht mehr nachkäme.
Lässt sich ganz gut demonstrieren wenn man alte Software auf heutige System emuliert und die ungebremst laufen lässt! Insbesondere Grafikdemos.
Und was ist die Aufgabe eines OS?
Bildchen bearbeiten, News einblenden und was weiß ich noch jedenfalls nicht!
Aber Du bist ja ein alter Hase und weißt was gemeint ist, deshalb brauch auch niemand auf Deine trollige Frage antworten.
Die Anzahl der Prozesse ist gar kein Kriterium, IMHO.
Unter anderen Betriebssystemen (Linux) wird alles über Prozesse gemacht, und die sind auch nicht so träge. Auf dem Rechner, mit dem dieser Post geschrieben wird laufen derzeit ~350 Prozesse, die zusammen 2,6GiB RAM belegen. Davon sind mal eben 700MiB Firefox, und die Kiste rennt ziemlich.
Multiprocessing ist unter Windows lange Zeit nicht üblich gewesen (dafür aber Multithreading an alles Ecken), da es nicht sonderlich effizient war, neue Prozesse zu starten und es Kommunikation zwischen Prozessen eher schwierig war – aber die Prozesse, die Windows im Hintergrund hat sind eher Langläufer, und viele der Probleme sind heutzutage nicht mehr aktu. Dagegen ist das modernere Multithreading ist unter Linux oftmals immer noch ein Fremdwort, und es läuft auch.
Das größere Problem ist denke ich das, was heutzutage üblicherweise so programmiert wird: Alles wird permanent mikrosekundengenau per Telemetrie erfasst. Tausende Bibliotheken, die bstraktionen von Abstraktionen von Abstraktionen liefern, um Dinge zu "vereinfachen". ebtechnologien an allen Enden, Javascript für Anwendungen, die dann mit eingebettetem Browserpaket ausgeliefert werden. HTML/CSS für GUIs, etc. pp. Alles muss heute tausende Farbverläufe, Hintergrundbilder, Animationen etc. pp. haben und am besten noch durch 3D/Shader optimiert werden. Datenhaltung muss grundsätzlich in irgendwelchen Datenbanken erfolgen, egal wie simpel die Datensätze auch sind. Kommunikation zwischen Prozessen/Threads muss grundsätzlich per Netzwerk/TCP/IP erfolgen.
Dieser ganze Kram hat halt auch seinen Preis, und "der Compiler optimiert das schon" hat halt auch Grenzen.
Ich bin zwar erst mit NT4 (WS + Server) in dem Bereich eingestiegen (Ausbildung) und da auch bis zum Server 2012. Ab dann bin ich auf Linux (Debian) umgesattelt.
Gut, Server ist wieder eine andere Sache, als eine WS. Warum auch in den Professional Versionen von vornherein soviel Crap drin sein muss, ist mir bis heute schleierhaft. Warum nicht einfach beim Installationsvorgang dem Anwender die Wahl lassen, was zum Basissystem noch an zusätzlichen Komponenten/Modulen mit auf das System soll? Das hat früher auch funktioniert.
Ansonsten muss man dann LTSC etc. wählen.
Einem unbedarften Anwender die Auswahl zu überlassen, was installiert wird und was nicht, geht aber auch nicht.
Hier hätte Microsoft besser einen Expertmode einführen sollen. Den gibt es ja auch, nennt sich Windows ADK, aber dazu benötigt man ja schon ein laufendes, unterstütztes Windows-System und man operiert auf einem Image, um das, was installiert werden soll, zu sieben und ist wirklich nur etwas für Deployment in Unternehmen und absolute Experten.
In einer Firma mit x Systemen ist das ja auch Standard. Keine Frage. So zumindest, was ich kenne.
Es geht hier auch nicht um die Kernkomponenten, welche unbedingt zum Systembetrieb wichtig sind. Wenn man jetzt ein Win10/11 jetzt mal als Einzelsystem aufsetzt, warum müssen Spiele, Spotify, Disney und anderer Mist da mit drauf? Wohlgemerkt, bei einer Prof Version. Da wünsche ich mir per OptIn eine passende Möglichkeit.
Das hatte es alles schon mal gegeben. Und zu der Zeit waren die Anwender auch nicht besser als heute.
Das ist allemal besser, als hinterher das Zeug wieder rauszupopeln. Und wenn es dann doch gebraucht wird, hat man immer noch die Möglichkeit, das wieder zu installieren.
Meine Meinung.
Wen stören eigentlich Spiele und Spotify, wenn man sie nicht startet?
Es ist nur unnützer Ballast. Wofür das Zeug auf der Kiste haben, wenn man es nie benutzen würde. Auch wenn es nur einige MBs sind. Was ich nicht brauche, fliegt runter und fertig.
Daher wären die LTSx Varianten meine erste Wahl.
Aber wie gesagt, jeder soll mit seinem System glücklich werden.
Der ganze Kram muß nicht mit drauf.
Man muß nur die Installationsscripte anpassen, dann wird der Müll gar nicht erst mitinstalliert.
Und die ganze Telemetrie ist bei uns, soweit möglich, eh per GPO abgeschaltet.
*** Das ist ja kein Wunder, dass Windows NT 3.51 aus dem Jahre 1995 viel snappier war als Windows 11. Wenn man sich mal die durchschnittliche Anzahl der Prozesse anschaut, die in Windows 11 standardmäßig aktiv sind und das mal mit der Anzahl vergleicht, die in NT 3.51 aktiv sind, dann merkt man, dass da ein gewaltiger Unterschied besteht. ***
Was die Anzahl der Prozesse angeht sind Windows seit v10/v11 zu einer Seuche mutiert. Bei mir laufen unter Windows11 gerade 225 Prozesse, 8,7GB sind belegt: fürn bischen Desktopkram. Windows XP kam mit 20Prozessen und 1GB Ram bestens zurecht.
"Windows Update" und "Windows Defender" Prozesse lasten unter Windows v10/v11 alle CPUs unter i7 spürbar aus. Heutige CPUs schaffen x Mia Maschinenbefehle je Sekunde, hunderttausend+ IOPs die Diskspeicher, und ich muss 10min auf ein Update warten?! WTF?!
Was die Snappiness von Windows NT3.51 angeht:
Als WindowsNT3.5 rauskam waren P100 das schnellste auf dem Markt. Da wundert es nicht das WindowsNT3.51 auf einem P3 600MHz flüssig läuft.
In gewissen Grenzen hat Microsoft ja da auch vor sich selbst kapituliert, indem sie "Server-Core" Installationen angeboten haben. Zwar lugt hin und wieder noch ein graphisher Wizard durch, aber 99% der Bedienung nimmt man dort an der Kommandozeile vor. Wie bei Linux.
Jeden Klick zu dokumentieren und an MS zu übermitteln kostet halt Zeit :-)
Fairerweise muß man dazu sagen, daß vieles im zweiten Video "Eye-Candy" ist. Wenn ich neue Server bzw. das Template dazu aufsetze ist einer der ersten Wege in die "erweiterten Systemeinstellungen" (von Microsoft immer tiefer im System vergraben, aber bisher noch nicht abgeschafft). und dort um "Erweitert"-Tab das System auf "Höchstleistung" umzustellen.
Damit ist man auf einen Schlag sämtliche Übergangsanimationen los. Gut, ein paar Sachen (z.B. den Fernsterinhalt beim Ziehen anzeigen) kann man selektiv einschalten, aber das System reagiert optisch deutlich viel flüssiger – ähnlich dem ersten Video.
Neuste Macke bei den visuelle Effekten: auch wenn man die Optionen auf "Optimale Leistung" einstellt, aktivieren sich einige Eye-Candy-Optionen wieder von selbst, zum Beispiel "Fensterinhalt beim Ziehen anzeigen".
Obwohl es sich um eine Einstellung der Maschine handelt, also HKLM, passiert das auch durch Benutzer ohne Adminrechte! Ich habe Visual Studio und Teams im Verdacht.
Merke: auch wenn es der Admin anders will, bestimmt Microsoft was an- und was ausgeschaltet wird.
Dürfte mit daran liegen das die neuen Windows-Versionen nicht mehr technisch getrieben sondern maximal optimiert auf Usergängelung und Datenabgriff werden.
Damals hat man auch noch entsprechend der vorhandenen Hardware programmiert.
D.H., man hat drauf geachtet, das Programme schlank und möglichst Ressourcenschonend sind.
Heutzutage wird einfach drauf los programmiert und wenn es dann lahmt, werden die Resourcenanforderungen hochgeschraubt.
Man muß sich nur einmal anschauen, wieviel Platz die Betriebssysteme auf der Festplatte einnehmen.
Ein Windows NT 4 hat nicht einmal 1 GB, ein Windows 10/11 bekommt man kaum unter 20 GB.
Eine ewige Pest ist z.B. auch Java.
Ein Programm in C+ geschrieben oder in Java, das macht geschwindigkeitsmäßig einen enormen Unterschied.
Und in modernen Windows-Systemen ist sehr viel in .NET geschrieben.
Auch nicht die schnellste Programmierplattform.
Bei NT4 waren auch Platten ab 2 GB gängig. Aber Recht hast du da wurde nicht so viel Mist standardmäßig auf die Platte geschmissen.
Da musst aber auch sehen, was es für Hardware zu der Zeit gab und für was das NT genutzt wurde. Knapp 28 Jahre, wenn man 1995 als Release Datum hernimmt (lt. wikipedia) ist schon eine Ewigkeit.
Die Anforderungen und Funktionen/Dienste, was das OS leisten muss, ändern sich nun mal im Laufe der Zeit.
***Ein Windows NT 4 hat nicht einmal 1 GB***
Windows NT 4.0: 120MB
Windows 95a ohne InternetExplorer: 35MB
Damals war aber auch noch nicht jeder Treiber mit dabei, d.h. wenn man neue Hardware eingebaut oder angeschlossen hat, dann ist diese i.d.R. erstmal gar nicht gelaufen. Nicht mal im eingeschränkten Modus. Berühmt die CDs mit Treibern für CD-Laufwerke…
Ebenso wenn man ein Programm aus dem Betriebssystem-Fundus nachinstallieren wollte (und sei es nur eine andere Option für die Netzwerkkarte): such mal schön die CD oder die Disketten des Betriebssystems raus. Danach dann ggf. Reinstallation aller Updates, da genau dieses Modul ja noch nicht dabei war und damit kein Update bekommen hat. Heutzutage ist das einfach alles gleich mit dabei, nur nicht aktiviert, und wird dementsprechend gleich mit Updates versorgt.
Wobei ich zugeben muss, dass mich NT3.51 verschont hat.
Insgesamt bin ich schon froh, dass sich hier einiges geändert hat. Auch, wenn das Hardware-Leistung kostet.
Und warum muß das alles dabei sein?
Früher war das alles auf dem Installationsmedium mit drauf und wurde nur bei Bedarf mit installiert.
Warum muß z.B. so etwas wie "Telefon App" mit installiert werden?
Das brauchen selbst 90% der Privatanwender nicht.
weil sich (fast) alle beschwert haben, dass sie dauernd die CD einlegen mussten.
Und: was nicht installiert ist, das ist unsichtbar. So dass die Leute dann eher im Internet "irgendwo" runterladen als die eigentlich schon vorhandenen Versionen zu nutzen. Sofern diese ansatzweise brauchbar sind.
weil sich (fast) alle beschwert haben, dass sie dauernd die CD einlegen mussten.
Und: was nicht installiert ist, das ist unsichtbar. So dass die Leute dann eher im Internet "irgendwo" runterladen als die eigentlich schon vorhandenen Versionen zu nutzen. Sofern diese ansatzweise brauchbar sind.
Ich hab letztens ein altes Notebook aus einem Tresor gezogen, das so um 2010 rum drei ausgemusterte, virtualisierte 2000er Server als Archivsystem übergeholfen bekommen hat – als Notfallauskunftsystem. Damals High-End-Notebook mit großer Platte und krassen 16GB RAM.
Angestartet, mit den alten Zugangsdaten angemeldet, im Hintergrund starteten die Server (ein alter dc, ein alter SQL, ein Dateiserver) und dann lief das Auskunftssystem als Client auf dem Notebook echt zackig.
Da hat man schnell ein Tränchen im Auge, wenn man sieht, mit wie wenig Ressourcen das Zeug ordentlich performt hat.
Leider war die Entnahme nur für Vernichtungszwecke, so dass dieser Zeitzeuge von Effizienz nun auch weg ist.
(Und ja, das Notebook selbst lief noch anstandslos. Kann man ja heute auch kaum noch glauben.)
Wenn man sich überlegt, dass für die Zielerreichung unserer Programme eigentlich nichts anderes nötig war, als das alte Zeug, dann fragt man sich schon mal, wofür wir die ganzen Ressourcen heute so verschwenden. Für Performance und Zielerreichung jedenfalls nicht.
Ich vermute mal, dass man mindestens 95% der aktuellen Compute-Ressourcen einfach abschalten könnte, wenn man sich aufs Wesentliche konzentrieren würde.
Und wie geht das eigentlich weiter? Sind uns irgendwann die hübschen Animationen bei der Anzeige meines Arbeitsergebnisses zu langweilig? Brauchen wir dann vielleicht noch eine KI-Person, die uns mit freundlichem Gesicht sagt, dass 3×4 wirklich zwölf ist. Und die uns dann Tipps gibt, was man mit einer zwölf alles schönes anfangen kann? Und gehen wir dann in eins der zwölf vorgeschlagenen Erlebnisrestaurants, weil uns 3×4 so unglaublich outgeburnt hat?
Ich habe so viele Fragen… :)
Recht hast du ich schreibe das hier auf einem Raspberry Pi 3. Reicht im Prinzip als ein einfaches Officesystem für Zuhause aus. Aber gibt wieder welche denen das nicht ausreicht weil man sich da eben auf das Wesentliche konzentrieren muss. Und wenn man aus einem Teil Deutschlands kommt wo man sich schon früher auf das Wesentliche konzentrieren musste ist das halt einfacher.
Ach, ich muß sagen, es war schön. Gut Nt 3.5 kannte ich nun nicht mehr aber Windows 2000 Pro war mein Einstieg damals. Wunderbar. Es lief soooo schnell und auch die Anwendungen waren gut sortiert. Ja, Geschwindigkeit war damals tatschlich erheblich besser als in der heutigen – viel zu überblähten- "Appwahnzeit" und "Betriebssystemen mit teilweise zweifelhaften , ebenso überblähten, neuen Features und Apps.
Dieses dämliche Wort -Apps-. Wir sagten damals -Progs- oder -Progies- oder eben -Programme-.
Ich erinnere mich auch noch, wie man schon damals durch "Tunigmaßnahmen" das 2000er System noch einen großen Ticken schneller machen konnte. Sicher, die Oberfläche war optisch spartanischer, jedoch weitaus hübscher als das heute häßliche APP-Handydesign. Alleine dieses schreckliche "Fluent theme" erinnert mich an ein Kinderbuch für 6-Jährige, wo nur rudimentäre , spartansiche Symbolandeutungen den heutigen Benutzer "führen sollen". Schrecklich.
Ich hätte mir sehr gewünscht, daß es eine 64Bit Variante des Windows 2000 Pro gegeben hätte. Denn nur 4 GB Ramnutzung ist halt bei 32Bit Maximum.
Es gab zwar eine Servervariante, die angeblich bis zu 8 GB Ram verwalten konnte, doch wie das technisch ging weiß ich halt nicht.
Mit ein wenig KnowHow und Mühe, konnte man aber auch die Optik aufhübschen. Das Thema -Themes- war damals schon bei vielen Nutzern ein Thema. Und es gelang auch mir ganz gut, mein Win2000 Pro aufzuhübschen.
Ich habe erst kürzlich wieder einen alten Rechner in Betrieb genommen, aus Nostalgiegründen, mit W2K Pro. Daraus habe ich gleich mal die goldenen Mauszeiger genommen und in diverse Rechner hier installiert. Geht ! Genauso den damaligen CD Player. Echt süß.
Achja…..
Windows 2000 gibts nicht mit 64bit, weil es damals keine entsprechenden x86-Prozessoren gab.
Der erste 64 bit PC-Prozessor war der AMD Operon und der kam erst Ende 2003 auf den Markt.
Microsoft hat damals zwar an einer 64bit-Version gearbeitet, aber die war für den DEC Alpha Prozessor, den DEC aber damals schon abkündigte.
Deshalb hat Microsoft damals die Entwicklung eines 64bit Windows 2000 eingestellt.
Für den Intel Itanium konnte man noch nicht entwickeln, da der noch nicht real existierte.
Und zudem folgte ja schon nur 2 Jahre später Windows XP bzw. als Serverversion Windows 2003.
Und da gabs eine 64bit-Version, allerdings nur für den Itanium-Prozessor.
Windows 2000 Advanced Server kann bis 8 GB RAM adressieren, Windows 2000 Datacenter sogar bis 64 GB RAM.
Auch Multicore können die schon: Server = 4 Cores, Advanced Server 8 Cores, Datacenter 32 Cores.
Guten Abend R.S.
Ja, ich fand es auch schade daß es W2K nicht als 64bit gab.
Man hätte es ja nach Erscheinen des passenden Prozessortypen in die Hand nehmen können… wäre vielleicht interessant gewesen.
Wissen Sie wie es möglich war das Windows 2000 Advanced Server bis 8GB Ram verwalten konnte? Das war doch auch ein 32bit System?
Das läuft über AWE.
Damit sind auch unter 32bit-Betriebssystemen bis zu 64 GiB RAM adressierbar.
https://de.wikipedia.org/wiki/Address_Windowing_Extension
Findet man bei Wikipedia gut erklärt – das Zauberwort heisst PAE (Physical-Address Extension) unter Architektur.
https://de.wikipedia.org/wiki/Microsoft_Windows_2000#64-Bit-Version_von_Windows_2000
Ich muss Dich korrigieren, es gab sehr wohl eine x64-Version, da habe ich einige Jahre einen Exchange 2007 drauf betrieben. Nachdem die Treiber alle verfügbar waren lief das seeeehr stabil.
DerTom
Mit was für einem Prozessor denn?
Als Windows 2000 auf den Markt kam, gabs weder von Intel noch von AMD einen 64bit Prozessor.
Es gab nur den DEC Alpha.
Und selbst Microsoft kennt kein 64bit Windows 2000.
Und die Systemanforderungen von Exchange 2007 sagen mindestens Server 2003 64 bit.
Da verwechselst du wohl Windows 2003 mit Windows 2000.
Als Windows2000 rauskam war das auf damaliger Hardware auch nicht superschnell. Ich hatte damals einen Mittelklasse PC mit P3-500 und 256MB Ram.
Das Disk-IO System hatte mit dem NTFS im Vergleich zu Windows98 FAT32 deutlich mehr zu tun. Das war im regulären Desktop-Betrieb spürbar. Um vergleichbare Disk IO Performance wie mit Windows98/FAT32 zu erzielen hatte ich damals eigens einen UDMA66-Controller mit UDMA66 Disk verbaut.
Windows war immer zu Release auf den Rechnern seiner Zeit träge, und erst auf Hardware der Folgejahre wirklich schnell.
Erst seit dem Aufkommen von SSDs ist der Effekt praktisch verschwunden.
Dafür sind Windows10/11 unglaublich Ressourcen fressend.
Dem kann ich mich nur anschließen.
Die kleinste "Workstation" (mehr war nicht drin), NT4 mit 16 MB RAM.
Die CAD Anwendung paßte genau rein, kein Swapping.
Man durfte eben keine weitere Anwendung öffnen.
Was könnte man alles mit heutiger Hardware erreichen…
Es könnte heute genauso schnell sein, aber es muss für jede Aktion erst die Telemetrie versendet werden. Das dauert je nach Internetanschluss unterschiedlich lange. Kappt man die Netzwerkverbindung, wird es leider auch nicht besser, da dann auf interne, wenn auch kurze, Timeouts gewartet werden muss.
Angefangen hat der "Mist" ab XP und erreicht mit Windows 10/11 das maximum an Verzögerung.
Kann man auch nicht wirklich abstellen.
Ein Windows für die ganze Welt -oder doch besser ein echtes in nur einer Sprache?
Wenn ich sehe welche "Sprachen-Ordner" sich überall im DE-Windows tummelm wird mir schlecht! völlig unnötig, so wie es jetzt ist! aber auch AMD installiert gleich mal in vielen Sprachen beim Graka-Setup mit! Das meiste unter Windows ist alles nur Ballast und überflüssig, da könnte locker 60% in den Papierkorb.
Ich denke seit Windows VISTA entwickelt sich Windows vom Ressourcenverbrauch zunehmend in falsche Richtung. Bis WindowsXP war Windows im grunde noch für SingleCore, und 256MB am optimiert … seit Windows 8 wurden die Systeme zunehmend aufgeblähter ohne entsprechende Desktop-Mehrwerte zu liefern.
Wenn alle Applikationen laufen würden, würde mir im Grunde ein WindowsXP oder Windows7 vollkommen ausreichen.
Ähnliches ergibt sich mit einem 2Ghz Athlon 64 und einer SSD mit Windows 98: Da ist PaintShopPro in einem Frame geladen. Wirklich eine surreale Erfahrung
Ja, schnelle Platten waren schon damals nicht verkehrt.
Nur waren die damals extrem teuer.
Ich hatte damals in meinem Rechner U2W SCSI-Platten mit anfangs 7.200 UPM, später 10.000 UPM, gedacht für Server.
Damals noch unter NT 4.
Das war schon sehr deutlich spürbar schneller als mit den damals üblichen Desktopplatten.
Auf SSD bin ich auch schon zu XP-Zeiten umgestiegen.
Damals mit einer 60 GB SSD (die übrigens immer noch einwandfrei funktioniert).
Auch das war sehr deutlich spürbar.
Eine schnelle Platte ist viel deutlicher spürbar als ein schnellerer Prozessor oder mehr RAM.
Ich würde heute kein System mehr ohne SSD kaufen.