Test Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super

Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super

Bei schnellen Videoeffekten stellt Nvidia in der Regel die Referenz unter PC-Grafikkarten dar. Allerdings konnte Apple in den letzten Jahren mit erstaunlich konkurrenzfähigen SoCs viele Videobearbeiter für seine Macs mit M-Prozessoren gewinnen.

// 09:57 Di, 14. Mai 2024von

Zugegeben, bei Nvidia spielt im Rampenlicht der künstlichen Intelligenz (KI) die beschleunigte Videobearbeitung aktuell nur eine marginale Nebenrolle. Doch nachdem sich KI jetzt auch unaufhaltsam in die Schnittprogramme einnistet, bleibt eine schnelle Grafikkarte (GPU) auch weiterhin die wichtigste Komponente in einem Rechner zur Videobearbeitung.



Zudem ist es sehr wahrscheinlich, dass in Zukunft kurze, aber rechenintensive KI-Effekt-Clips eher in der Cloud berechnet werden - Adobe hat diesen Weg gerade indirekt mit seiner Sora-, Runway- und Pika-Integration angedeutet. Dennoch dürfte für viele Effekte eine lokale, integrierte GPU bis auf weiteres noch die effizientere Workflow-Wahl bleiben.




Speicherflüsse ausgetrocknet, KI-Welle vor der Tür

Da Nvidias Rechenkerne mit jeder Generation immer leistungsfähiger wurden und AMD bei der Design-Rationalisierung mitzog, "verengte" sich zuletzt die Speicherbandbreite bei vielen Mittelklasse-GPUs von ursprünglich 256 auf 192 oder sogar nur noch 128 Bit. Da die Speicherchips jedoch in derselben Zeitspanne nicht doppelt so schnell wurden, besitzen heutige Mittelklasse- GPUs meist eine langsamere Speicherschnittstelle als ihre (Vor-)Vorgänger-Modelle. Dies ist insofern relevant, weil für viele GPU-basierte Video-Effekte der Speicherdurchsatz immer noch das Nadelöhr bei der Berechnung darstellt. Ältere GPUs mit mehr Speicherdurchsatz können darum einige Videoeffekte immer noch schneller berechnen, als preislich vergleichbare, aktuelle Modelle. Allerdings gilt auch umgekehrt: Je komplexer ein Video-Effekt ist, desto weniger trägt der Speicherdurchsatz zur Performance bei. Zu solch komplexen Effekten gehören beispielsweise eine spatiale Noise Reduction oder auch Deep-Learning KI-Modelle welche mit vielen KI-Schichten pixelübergreifend arbeiten.



Bei den am häufigsten eingesetzten "Brot-und Butter-Effekten" eines Schnittprogrammes wie Überblendungen oder Farbkorrektur müssen dagegen vor allem viele Daten verschoben und kaum intensive Berechnungen pro Pixel durchgeführt werden. Da gerade diese Effekte jedoch beim täglichen Schnitt besonders häufig genutzt werden, betrachten wir den Speicherdurchsatz dennoch als wichtiges Kaufkriterium für eine GPU. Erst wenn speicherdurchsatz-limitierte Effekte auch auf einem neuen Modell "schnell genug" berechnet werden können, lohnt sich in unseren Augen ein GPU-Upgrade. Vor allem, weil hiermit dann auch besagte KI-Effekte deutlich schneller ausgeführt werden können.



Mittlerweile sind die Hersteller dazu übergegangen, beliebte KI-Funktionen speziell auf die KI-Eigenschaften der GPUs zu optimieren. Derart speziell optimierte Funktionen (wie in Resolve z.B. Person Mask oder Depth Map) laufen aktuell auf Nvidia Karten ca. 2 -3 mal schneller als auf vergleichbaren AMD Modellen. Allerdings ändert sich der Optimierungs-Status noch im Monatsrhythmus, was einen vergleichenden Test über einen längeren Zeitraum bislang nicht sonderlich aussagekräftig machte. Zuletzt hat beispielsweise AMD sein Magic Mask Tracking optimiert und wieder auf Augenhöhe mit Nvidia gebracht. Und mit der gerade frisch vorgestellten Beta 19 von Resolve, dürften die Karten sowieso ein weiteres Mal neu gemischt werden.




Ähnliche Artikel //
Umfrage
    Meine nächste Kamera wird eine










    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash