Die neue Grafikkarten-Generation von Nvidia liefert beeindruckende Rechenleistung – doch steigende Speicherkosten und technische Hürden trüben das Bild.
Sicherheitsforscher alarmiert: RTX 5090 knackt Passwörter in Rekordzeit
Die rohe Rechenkraft der RTX 5090 sorgt nicht nur bei Gamern für Aufsehen. Eine aktuelle Studie von Kaspersky zeigt: Das Flaggschiff-Modell kann 60 Prozent einer Stichprobe von 231 Millionen MD5-verschlüsselten Passwörter in weniger als einer Stunde entschlüsseln. Fast die Hälfte dieser Passwörter sei sogar innerhalb von 60 Sekunden geknackt. Mit rund 220 Milliarden Hash-Berechnungen pro Sekunde liegt die Karte 34 Prozent vor dem Vorgänger RTX 4090.
Die enorme Rechenleistung moderner Hardware macht es Angreifern immer leichter, Sicherheitsbarrieren zu durchbrechen. Ein kostenloses E-Book zeigt, welche neuen Bedrohungen auf Sie zukommen – und wie Sie sich ohne großes Budget schützen. IT-Sicherheits-Trends jetzt kostenlos entdecken
Die gesamte Blackwell-Serie, die Anfang 2025 auf den Markt kam, basiert auf einer 4nm-Architektur von TSMC mit 92 Milliarden Transistoren. Die RTX 5090 startete zu einem Preis von rund 1.850 Euro, die RTX 5070 ist für etwa 510 Euro erhältlich. Nvidia verspricht für die Mittelklasse-Karte mit aktiviertem DLSS 4 eine Leistung, die an die RTX 4090 heranreicht.
Doch die Generation hat auch ihre Problemzonen: Der 12V-2×6-Stromstecker steht erneut in der Kritik – Berichte über schmelzende Anschlüsse unter Volllast häufen sich. Zudem fehlt der RTX 50-Serie die native Hardware-Unterstützung für 32-Bit-PhysX. Besitzer älterer Spiele aus den frühen 2010er-Jahren müssen daher auf eine zweite, ältere Nvidia-Grafikkarte zurückgreifen, um Partikeleffekte korrekt darzustellen.
Workstation-Klasse: 96 Gigabyte für KI-Arbeitslasten
Im professionellen Segment setzt Nvidia mit der RTX PRO 6000 Blackwell Workstation Edition neue Maßstäbe. Die Karte kostet rund 7.600 Euro und bietet 96 GB ECC GDDR7-Speicher. Mit einer Leistungsaufnahme von 600 Watt und einer Speicherbandbreite von 1.792 GB/s ist sie für schwere KI-Berechnungen optimiert. Die FP32-Leistung erreicht 125 TFLOPS – für das Training eines 70-Milliarden-Parameter-Modells in FP16 reicht der Speicher jedoch nicht aus.
Milliardenschwere Infrastruktur-Projekte
Am 11. Mai 2026 wurde bekannt, dass Nvidia den KI-Infrastrukturanbieter IREN unterstützt. Ziel ist der Aufbau von 5 Gigawatt KI-Rechenkapazität. Nvidia sicherte sich dafür ein fünfjähriges Recht zum Kauf von bis zu 30 Millionen IREN-Aktien im Wert von rund 1,95 Milliarden Euro. Ein Schwerpunkt liegt auf IRENs 2-Gigawatt-Campus in Texas.
Parallel dazu arbeiten Nvidia und Sakana AI an Software-Optimierungen. Das neue TwELL-Verfahren für Large Language Models (LLMs) soll die Inferenzgeschwindigkeit um bis zu 20,5 Prozent und die Trainingsgeschwindigkeit um 21,9 Prozent steigern – und das auf vorhandener H100-Hardware.
Während die Hardware immer leistungsfähiger wird, verschärft die EU die Regeln für den Einsatz künstlicher Intelligenz massiv. Dieser kostenlose Download verschafft Ihnen den Überblick über Fristen und Pflichten, den Ihre Rechts- und IT-Abteilung jetzt dringend braucht. EU AI Act Umsetzungsleitfaden gratis sichern
Speicherkrise: „RAMageddon“ treibt PC-Preise in die Höhe
Die größte Herausforderung für die Branche kommt jedoch von einer anderen Seite: den explodierenden Speicherkosten. Branchenberichte aus dem Mai 2026 sprechen von einem „RAMageddon“ – die Preise für DRAM und NAND sind im zweiten Quartal um bis zu 50 Prozent gestiegen. Bereits im ersten Quartal 2026 hatten sich DRAM-Preise um 90 Prozent verteuert. Speicher macht inzwischen über 30 Prozent der Materialkosten vieler Computergeräte aus.
Die Folgen sind deutlich spürbar: Hersteller wie Asus, Acer und Lenovo haben ihre PC-Preise um 10 bis 25 Prozent angehoben. Apple kann die Preise für das volumenstarke MacBook Neo noch halten, doch der Gesamtmarkt ächzt. Gartner prognostiziert zwar globale IT-Ausgaben von umgerechnet rund 5,9 Billionen Euro für 2026 – ein Plus von 13,5 Prozent. Doch der PC-Markt selbst wird voraussichtlich um 11,3 Prozent schrumpfen, da die steigenden Kosten die Nachfrage dämpfen.
Historische Wende: Intel und Nvidia arbeiten zusammen
Am 11. Mai 2026 bestätigte Intel-CEO Lip-Bu Tan eine strategische Partnerschaft mit Nvidia. Der Chip-Gigant investiert umgerechnet rund 4,65 Milliarden Euro in Intel. Gemeinsam arbeiten die beiden Unternehmen an neuen integrierten Produkten. Ein vielversprechendes Projekt trägt den Codenamen „Serpent Lake“: ein x86-System-on-a-Chip (SOC), das Intel-CPU-Architektur mit Nvidia-GPU-Chiplets auf einem Die vereint. Ein Marktstart wird für 2028 erwartet.
Auch im Rechenzentrum kooperieren die Rivalen. Intel will Nvidias NVLink-Technologie für seine kommenden Diamond-Rapids-Xeon-Prozessoren nutzen. Im Gegenzug erwägt Nvidia, Intels 18A- und 14A-Fertigungsprozesse für seine künftigen Feynman-KI-Beschleuniger zu verwenden. Ein klares Signal: Beide Unternehmen wollen die Abhängigkeit von TSMC reduzieren und Engpässe in der KI-Lieferkette entschärfen.
Neue Netzwerkprotokolle gegen Training-Staus
Um die Leistungsengpässe in großen KI-Clustern zu beheben, hat sich ein Konsortium aus OpenAI, AMD, Broadcom, Intel, Microsoft und Nvidia zusammengeschlossen. Gemeinsam bringen sie das neue Netzwerkprotokoll MRC auf den Markt. Es soll Trainingsverlangsamungen verhindern und die Zuverlässigkeit großer KI-Cluster verbessern.
Ausblick: Leistung allein reicht nicht
Micron-Manager warnen bereits, dass der Speicher zur primären Engstelle für Rechenzentren wird. Fehlt ausreichend Speicher, sinkt die GPU-Auslastung bei KI-Inferenzen drastisch. Die RTX 50-Serie hat zwar eine neue Leistungsgrenze definiert, doch der Rest des Jahres 2026 wird zeigen, ob die Branche die explodierenden Komponentenkosten und physikalischen Grenzen der Stromversorgung in den Griff bekommt. Mit den ersten x86-Nvidia-Hybridchips für 2028 zeichnet sich ab: Die traditionellen Grenzen zwischen CPU- und GPU-Herstellern verschwimmen zunehmend im Wettlauf um KI-Rechenleistung.

