Am 12. Oktober 2022 hat Nvidia seine RTX 4090 auf den Markt gebracht. 1949 Euro betrug die unverbindliche Preisempfehlung des Grafikkarten-Herstellers für sein aktuelles Top-Modell, drei Monate später ist die Karte um die 100 Euro günstiger. Fast 450 Euro günstiger ist dagegen der inzwischen zwei Jahre alte Vorgänger des aktuellen Top-Modells: die RTX 3090. Dass die neue Karte logischerweise schneller rechnet als ihr Vorgänger, ist klar. Wie schnell und ob das den Aufpreis wert ist, bleibt fraglich.
RTX 4090 vs. RTX 3090: Die technischen Spezifikationen
Vergleichen wir also die beiden Grafikkarten miteinander und das anhand folgender technischer Spezifikationen:
- NVIDIA CUDA-Recheneinheiten: CUDA steht kurz für Compute Unified Device Architecture und ist die Programmierschnittstelle, über die Programme mit dem Grafikprozessor interagieren. Je höher die Anzahl der Recheneinheiten, desto mehr Berechnung schafft der Prozessor und desto schneller ist die Karte.
- Boost-Taktung in Gigahertz (GHz): Je höher, desto schneller berechnet die Grafikkarte ihre Aufgaben
- Basistaktung (GHz): siehe Boost-Taktung
- Speicher: Hier lagert der Grafikprozessor Aufgaben ab, auf die er schnell wieder zugreifen muss. Logisch: Je größer der Speicher, desto mehr Aufgaben kann der Prozessor im Speicher abgelegen
- Breite der Speicherschnittstelle: Die Autobahn zwischen Grafikprozessor und Speicher. Je breiter die ist, desto mehr Aufgaben (Bit) lassen sich parallel übertragen
- Raytracing-Kerne: Raytracing ist eine Technologie, die Lichtstrahlen im Spiel realistisch berechnen soll. Das frisst viel Leistung, weshalb Nvidia seinen Karten extra Kerne spendiert, die diese Aufgabe übernehmen
- Tensor-Recheneinheiten: Sind spezielle Rechenkerne, die die Berechnung von Matrizenmultiplikationen beschleunigen. Wichtig ist das für maschinelles Lernen (Künstliche Intelligenz, kurz KI)
- NVIDIA DLSS: Steht für Deep Learning Super Sampling und ist eine künstliche Intelligenz, die Bilder berechnet. DLSS nutzt dafür die oben genannten Tensor-Recheneinheiten
- Stromverbrauch
RTX 4090 | RTX 3090 | |
CUDA-Recheneinheiten | 16384 | 10496 |
Boost-Taktung (GHz) | 2,52 | 1,70 |
Basistaktung (GHz) | 2,23 | 1,40 |
Speicher | 24 GB GDDR6X | 24 GB GDDR6X |
Breite der Speicherschnittstelle | 384 Bit | 384 Bit |
Raytracing-Kerne | 128 der 3. Generation | 82 der 2. Generation |
Tensor-Recheneinheiten | 512 der 4. Generation | 328 der 3. Generation |
NVIDIA DLSS | 3 | 2.3 |
PCIe | Gen. 4 | Gen. 4 |
DisplayPort | 1.4a | 1.4a |
Stromverbrauch | 450 Watt | 350 Watt |
RTX 4090 vs. RTX 3090: Mehr Kerne, mehr Leistung
Aus der Tabelle ergibt sich eindeutig, woran Nvidia die letzten zwei Jahre gearbeitet hat: Mehr Recheneinheiten, die höher takten. Ziemlich genau 56 Prozent mehr CUDA-Kerne bietet die RTX 4090 gegenüber der RTX 3090. Das liegt vor allem an der Fertigung der Chips: Stellte Nvidia seine RTX 3090 noch im 8-Nanometer-Verfahren her, halbiert es der Hersteller bei der neuen Generation auf 4 Nanometer.
Bedeutet schlicht, dass Nvidia theoretisch die vierfache Anzahl an Recheneinheiten auf dieselbe Größe des Chips bauen könnte. Das wäre allerdings dann doch zu viel des Guten, weil die vierfache Menge an Recheneinheiten auch in mehr Stromverbrauch und Abwärme münden würde, die ein Kühlkörper abtransportieren muss.
Trotzdem ist der Sprung zwischen den Generationen beachtlich, denn die 56 Prozent mehr Recheneinheiten auf der RTX 4090 verbrauchen laut Hersteller nur rund 28 Prozent mehr Strom als die der RTX 3090. Neben der Anzahl der Rechenkerne fällt auch deren Taktung auf: Die steigt im Vergleich um 48 Prozent im Boost-Modus und um 59 Prozent in der Basistaktung.
Wir halten fest: Innerhalb von zwei Jahren hat es Nvidia geschafft, 56 Prozent mehr Rechenkerne zu implementieren, die unter Last 48 Prozent schneller rechnen. Wenig überraschen ist schon jetzt klar, dass die RTX 4090 ihrem Vorgänger wenigstens eine Nase voraus ist.
Verbessertes Raytracing und künstlichen Lernen
Die zweite Nase voraus liegt etwas im Detail versteckt und erklärt wohl auch den beworbenen fast vierfachen Leistungsvorsprung. Zum einen verbesserte Nvidia sein "Deep Learning Super Sampling" also die lernende künstliche Intelligenz zur Berechnung von Bildern. Dessen dritte Generation bleibt der RTX-4000-Serie vorenthalten, die RTX 3090 arbeitet noch mit der zweiten Generation von DLSS.
Im Vergleich zu DLSS 2 berechnet die künstliche Intelligenz der dritten Generation jedes zweite Einzelbild, wie notebookcheck.com berichtet, was die Bildrate der KI verdoppelt. Außerdem verfügt die RTX 4090 über 512 Tensor-Kerne der vierten Generation. Das sind 52 Prozent mehr Kerne als die Tensor-Kerne der RTX 3090.
Andere Technologie, gleiches Spiel: Auch an der Raytracing-Leistung schraubte der Hersteller erheblich. In der RTX 4090 berechnen 128 Raytracing-Kerne der dritten Generation die Lichtstrahlen. In der RTX 3090 sind es nur 82 der zweiten Generation. Der RTX 4090 spendierten ihre Schöpfer also 52 Prozent mehr Recheneinheiten für Raytracing.
Das alles macht aber nur im Verbund den beworbenen vierfachen Leistungsschub aus. Die Software muss also alle Neuerungen überhaupt auskosten können und das kann bislang nur ein Spiel: "Cyberpunk 2077". Es ist das bislang einzige Game auf dem Markt, das die Raytracing-Overdrive-Technologie von Nvidia implementiert hat. Wie PCGamesHardware berichtet, handelt es sich dabei um die effiziente Nutzung mehrerer Features der RTX 4090 wie DLSS 3 und das Shader Execution Reordering.
Die Schwäche der RTX 4090
Unerklärlich bleibt, warum Nvidia seiner neuen Grafikkarte PCIe 5.0 und DisplayPort 2.0 verwehrt. Zur Erinnerung: Bei den PCIe-Lanes des Motherboards handelt es sich um die Datenautobahn des Computers. Je neuer die Generation, desto höher der Datendurchsatz der einzelnen PCIe-Lanes. Wichtig ist das für Menschen, die gerne viel NVM-Speicher nutzen. Eine PCIe-5.0-Grafikkarte belegt auf einem PCIe-5.0-Mainboard für 31,52 Gigabyte (GB) Datendurchsatz nur acht PCIe-Lanes.
Es bleiben also mehr Lanes für den Speicher über. PCIe-4.0-Karten brauchen hingegen 16 Lanes für den gleichen Datendurchsatz. Noch mag das für die meisten Verbraucher irrelevant sein. Wer aber die Karte die nächsten fünf bis sechs Jahre nutzen will, könnte beim zukünftigen Upgrade von Mainboard und Prozessor genervt werden.
Gleiches gilt bei DisplayPort 2.0. Laut Nvidia sei DisplayPort 1.4a für die meisten Verbraucher ausreichend, weil die Schnittstelle 4K bei 120 Hertz ermöglicht. Das ist auch richtig, aber schon heute gibt es 4K-Monitore, die mit 240 Hertz Bildwiederholrate arbeiten. Noch sind die extrem teuer, aber auch hier gilt, dass sie in den nächsten ein bis zwei Jahren für immer mehr Gamer erschwinglich werden. Konkurrent AMD setzt bei seinen RDNA-3-Grafikkarten deshalb bereits auf DisplayPort 2.0. Und das darf ein Käufer bei einer Grafikkarte für fast 2000 Euro erwarten.
RTX 4090 vs. RTX 3090 in Spielen
*Dieser Artikel enthält sogenannte Affiliate-Links zu Produkten in Online-Shops. Klickt ein Nutzer darauf und kauft etwas, erhält der Verlag eine Provision vom Händler, nicht vom Hersteller. Wo und wann Sie ein Produkt kaufen, bleibt natürlich Ihnen überlassen.