wolfgang hat geschrieben: ↑Di 02 Jan, 2024 17:45
Der Kontext erschließt sich mir schon. Nur würde ich diesen Weg sehr bewusst nicht gehen. Denn heute ist es ideal, eine i-GPU für das Dekoding zu haben falls erforderlich, wie bei HEVC. Und eine passende GPU für die Effektberechnung. Und bei letzterem sind die NVIDIA Karten definitiv besser als die Intel Karten.
Fun Fact: Auch AMD hat iGPUs, 10 Bit 422 ist halt das Problem, und wenn man keine Intel CPU möchte aber 10 Bit 422 in Hardware dekodiert haben will ist die billigste Lösung halt eine A380.
Das mit der zusätzlichen A380 hört sich interessant an. Aber schnallt Premiere das? Also wird die von Premiere auch genutzt wenn entsprechendes Material in der Timeline liegt, hast du da Erfahrungen?
MK hat geschrieben: ↑Di 02 Jan, 2024 19:13
.. wenn man keine Intel CPU möchte aber 10 Bit 422 in Hardware dekodiert haben will ist die billigste Lösung halt eine A380.
Fun Fact: nope
image_2024-01-02_192917061.png
Sapere aude - de omnibus dubitandum
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Jost hat geschrieben: ↑Di 02 Jan, 2024 17:27
Der bislang verbaute 6700er ist eine Skylake-CPU und Vierkerner im 1151-Sockel. Skylake gibt es natürlich auch mit acht Kernen+ und auch im 1151 Sockel.
Achtung, den 1151 gibt es auch als v2 für CPUs der 8. und 9. Generation. Bei der ersten Sockelgeneration geht nur Generation 6 (Skylake) und Generation 7 (Kaby Lake). Für den 1151 der ersten Generation ist bei 4 Cores Schluss.
Eigentlich ging's in dem ganzen Tread nur um H264 10 bit 4:2:2 das nirgendwo unterstützt wird.
Das mit dem EVC 10 Bit 422 hatten wir ebenfalls schon ganz am Anfang geklärt (auch daß Quicksync das encodieren kann, sowie daß die Kamera des OT das gar nicht hergibt, und deshalb kein Thema ist) und trotzdem kommt immer wieder einer damit an (ich glaub jetzt zum dritten mal).
Frank Glencairn hat geschrieben: ↑Di 02 Jan, 2024 20:18
Eigentlich ging's in dem ganzen Tread nur um H264 10 bit 4:2:2 das nirgendwo unterstützt wird.
Hier ging es nun aber spezifisch um den Beitrag mit dem iGPU Argument im Bezug auf Intel vs. AMD-Prozessoren und nicht um die 5 Seiten sonstige Diskussion.
...wobei es eine rein technisch bedingte Herangehensweise und eine die das "Zusammenspiel" verschiedener Komponenten im PC und der verwendeten Software berücksichtigen geben sollte. Und ich denke, genau das macht es so kompliziert und "undurchsichtig".
Wie gesagt, arbeite ich in der Timeline von Premiere ohne Lumetri, schneide nur das VLOG 10Bit 4:2:2-Material, läuft es im Grunde flüssig. Selbst mit der Technik von vor 5 Jahren. Sobald ich anfange "zu stapeln", geht im Grunde nur noch sehr wenig bzw. muss ich dann auf die "Stapelordnung" achtgeben. Und hier wiederum scheint es zu switchen, je nach aktuellem Bulid von Premiere und welche Version von WIN11 bzw. welche Treiber noch was unterstützen.
Wie gesagt, der Effekt "Verkrümmungsstabilisierung" ist dafür ein guter Indikator. Bis zur Version 23 von Premiere konnte ich mit diesem Material max. 5 Clips gleichzeitig stabilisieren lassen. Mehr provozierte signifikant Abstürze in Premiere.
Dafür war es völlig egal ob die Lumetrie mit lief oder nicht.
Ab Version 2024 kann ich mir die ganze Timeline damit vollknallen. Das juckt Premiere und meine Hardware überhaupt nicht. Die 4 Kerne sind solange beschäftigt wie sie beschäftigt sind.
Aber wehe ich versuche das mit eingeschalteter Lumetri. Dann versinkt das System im "Arbeitsschock".
Doch wer ist nun "der Schuldige"? Der Prozessor, der Chipsatz auf dem Bord, die Grafikkarte, die WIN11 oder die Adobe Version...? Es wird keinen expliziten "Verursacher" geben.
Ergo: Tee trinken und immer nach Ausweichmanövern ausschau halten ;))
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.