Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.Roland Schulz hat geschrieben: - optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.Roland Schulz hat geschrieben: - optional nvidia K1200 oder höher...
So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!! Pauschal bringt ne M6000 dann auch nix???TomStg hat geschrieben:Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.Roland Schulz hat geschrieben: - optional nvidia K1200 oder höher...
Die 1060 könnte auch reichen und könnte eine gute und kostengünstige Alternative zur 980 sein. Die 1060 ist aber noch nicht auf dem Markt.mash_gh4 hat geschrieben:ich würde definitiv eher eine gtx 1060 -- die bereits in den nächsten tagen verfügbar sein sollte --, statt einer amd grafik-karte verwenden. das verringert zumindest den ärger über die betreffenden treiber und wird auch den tatsächlichen anforderungen vieler gängiger video-software besser gerecht.
Es geht um Magix/Adobe - und um einen Monitor, der sRGB und AdobeRGB zu 100 Prozent darstellt.über den monitor lange zu diskutieren, macht nicht viel sinn, wenn man man nicht von vornherein auch kalibrierungsdevices und I/O-karten vorsieht, ohne die man ihn mit einigen programmen ohnehin kaum vernünftig nutzen kann.
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.Roland Schulz hat geschrieben:Also, ich denke der 6700k ist in der Preisklasse DER Prozessor derzeit.
im wesentlichen ist alles drüber bekannt, es wird nur auf grund der offiziellen informationssperre bis 19.7. nicht an die breite masse kommuniziert.Jost hat geschrieben:Die 1060 könnte auch reichen und könnte eine gute und kostengünstige Alternative zur 980 sein. Die 1060 ist aber noch nicht auf dem Markt. Gegenwärtig sollte man ihr allerdings keine Fähigkeiten zuschreiben, die noch unbekannt sind.mash_gh4 hat geschrieben:ich würde definitiv eher eine gtx 1060 -- die bereits in den nächsten tagen verfügbar sein sollte --, statt einer amd grafik-karte verwenden. das verringert zumindest den ärger über die betreffenden treiber und wird auch den tatsächlichen anforderungen vieler gängiger video-software besser gerecht.
nun -- du wirst mir meiner antwort vermutlich wieder nicht zufrieden sein, aber ich halt einfach nicht viel von protzigen firmenlogos, hinter denen sich nur eher durchschnittliche technik verbirgt. im übrigen muss man halt mit entsprechenden gerät auch umgehen können, um es wirklich vernünftig nutzten zu können.Es geht um Magix/Adobe - und um einen Monitor, der sRGB und AdobeRGB zu 100 Prozent darstellt.mash_gh4 hat geschrieben:über den monitor lange zu diskutieren, macht nicht viel sinn, wenn man man nicht von vornherein auch kalibrierungsdevices und I/O-karten vorsieht, ohne die man ihn mit einigen programmen ohnehin kaum vernünftig nutzen kann.
Sei bitte so gut und passe Deine Antwort daran an.
schau dir einfach einmal an, wie z.b. das ffmpeg einen prozessor beim encodieren auszulasten vermag... dann reden wir weiter... ;)Jost hat geschrieben:Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.
Dann mach Dich mal schlau bei Leuten, die von dem Thema etwas verstehen:Roland Schulz hat geschrieben:So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!!TomStg hat geschrieben:Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.Roland Schulz hat geschrieben: - optional nvidia K1200 oder höher...
Also mein 6700k läuft auf dem ASUS Maximus Hero VIII mit 4,7GHz, Prime stabil waren auch noch 4,8GHz!!!Jost hat geschrieben:Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.Roland Schulz hat geschrieben:Also, ich denke der 6700k ist in der Preisklasse DER Prozessor derzeit.
Was Video angeht: Der 6700k bewegt sich tatsächlich ganz leicht über dem 5820K. Allerdings nur, wenn nicht übertaktet wird. Dafür sind beide CPUs aber vorgesehen und darum bezahlt man auch den K-Aufpreis.
Nur: Aus dem 6700K lässt sich nicht mehr viel herausholen, weil er von Werk aus schon fast vollständig ausgereizt ist. Gute Exemplare bekommt man mit Luftkühlung übertaktet auf 4,5 Ghz Basistakt auf allen vier Kernen.
Beim übertakteten 5820k ist ein Basistakt von 4 Ghz Standard und absolut mühelos zu erreichen - und die laufen dann auf sechs Kernen.
Den 6700K hat Intel für die vorgesehen, die eine leistungsstarke CPU suchen, aber sich das Übertakten nicht zutrauen.
Wer spürbar mehr Leistung als der 6700K sucht, der übertaktet nicht den 6700K, sondern greift zum 5820K und übertaktet den.
Nur so geht es.
Was habe ich denn anderes geschrieben?!?! Klar ist die Quadro mit gleicher Leistung >> teurer, die kann aber im Gegensatz zur GTX 10bit in PS, LR usw.!!TomStg hat geschrieben:Dann mach Dich mal schlau bei Leuten, die von dem Thema etwas verstehen:Roland Schulz hat geschrieben:So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!!TomStg hat geschrieben:Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.Roland Schulz hat geschrieben: - optional nvidia K1200 oder höher...
https://www.studio1productions.com/Arti ... ereCS5.htm
Im Abschnitt "Number 16" findest Du die Details. Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.Jost hat geschrieben:Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
Also das ist tatsächlich nur halb falsch. Es ist tatsächlich so dass Adobe hier nicht besonders gut auf mehrere Kerne skaliert, dabei ist aber egal ob HT oder echte Kerne. Deshalb sind höhergetaktete 4790k oder 6700k oft auch den Haswell-E überlegen, auch i5er ohne HT liefern schon sehr gute Performance.dienstag_01 hat geschrieben:He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.Jost hat geschrieben:Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
Schon mal selbst ausprobiert oder wieder nur aus ner Spielezeitung abgeschrieben ;)
Wie gut eine Software skaliert, ist die eine Frage.Roland Schulz hat geschrieben:Also das ist tatsächlich nur halb falsch. Es ist tatsächlich so dass Adobe hier nicht besonders gut auf mehrere Kerne skaliert, dabei ist aber egal ob HT oder echte Kerne. Deshalb sind höhergetaktete 4790k oder 6700k oft auch den Haswell-E überlegen, auch i5er ohne HT liefern schon sehr gute Performance.
Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.dienstag_01 hat geschrieben:He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.Jost hat geschrieben:Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
Schon mal selbst ausprobiert oder wieder nur aus ner Spielezeitung abgeschrieben ;)
Schwachsinnstest.Jost hat geschrieben:Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.
Es gibt einige Fälle wo sogar gezielt eine Quadro gefordert wird. Etwa wenn man in Sony Vegas mit s3D Material arbeitet und über nvidia 3D Vision eine 3D Vorschau haben will. Wird aber eher die Ausnahme sein.TomStg hat geschrieben:Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Also wenn ich sparen wollte würde ich auch keine Quadro mehr kaufen. Ist nett für PS und LR wenn das Geld über ist, hier und da sieht man auch nen Unterschied, besonders bei relativ homogenen Flächen mit weichen Übergängen.wolfgang hat geschrieben:Es gibt einige Fälle wo sogar gezielt eine Quadro gefordert wird. Etwa wenn man in Sony Vegas mit s3D Material arbeitet und über nvidia 3D Vision eine 3D Vorschau haben will. Wird aber eher die Ausnahme sein.TomStg hat geschrieben:Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Dass ob wir in Zukunft eher für den Videoschnitt eine 8bit oder ein 10bit Vorschau verwenden werden wollen - da gibts wohl Argumente dafür und dagegen. Solange man für 8bit als finales Format produziert lasse ich mir ja durchaus einreden, dass einem vielleicht eine 8bit Vorschau reicht. Aber wenn wir dann mal stärker für 10bit Panele produzieren, was Hand in Hand mit HDR gehen wird, na dann wird es ohne 10bit Vorschau wohl nicht mehr gehen.
Lieber dienstag_01, schalt doch bitte HTT ab und teste selbst.dienstag_01 hat geschrieben:Schwachsinnstest.Jost hat geschrieben:Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.
Und wer erwartet einen *Bang*.
Aber du hast bestimmt auch noch so einen Test zwischen einem 4- und 6-Core auf Lager ;)
Denk mal bisschen nach ;)Wo ist denn hier das Problem?
Natürlich macht ein kalbrierter Monitor Sinn - ob es sinnvoller ist sei mal dahin gestellt. Schließlich erlernen auch gerade viele GTX Karten 10bit.Roland Schulz hat geschrieben:Für Video brauche "ich" das Ding aber gar nicht. Die bekannte BMD Intensity Pro 4K macht für die Vorschau schließlich auch schon 10bit - wenn man das denn braucht und/oder haben möchte, kostet dabei gerade mal 200 Kracher.
Viel sinnvoller ist erstmal ein hardwarekalibrierbarer Monitor, der intern mit min. 10bit arbeitet!
Displayport heißt die Schnittstelle. Einfach mal ausprobieren wie das funktioniert. Aus meinen Erfahrungen geht das leider meistens in die Hose, aber auch bei FHD. Irgendwie hatte ich da zumindest mit EDIUS immer Tearing und sowas, wobei das ne GTX960 mit MPC am TV nahezu perfekt macht. In ner NLE habe ich aber meist nicht die Optionen das korrekt einzustellen.wolfgang hat geschrieben:Natürlich macht ein kalbrierter Monitor Sinn - ob es sinnvoller ist sei mal dahin gestellt. Schließlich erlernen auch gerade viele GTX Karten 10bit.Roland Schulz hat geschrieben:Für Video brauche "ich" das Ding aber gar nicht. Die bekannte BMD Intensity Pro 4K macht für die Vorschau schließlich auch schon 10bit - wenn man das denn braucht und/oder haben möchte, kostet dabei gerade mal 200 Kracher.
Viel sinnvoller ist erstmal ein hardwarekalibrierbarer Monitor, der intern mit min. 10bit arbeitet!
Bei der genannten Kracher-Karte (auch aufgrund des kleinen Luftkühlers) Intensity Pro4 sollte man aber auch nicht vergessen, dass die gerade bis UHD 30p nutzbar ist, während heute schon inzwischen sogar schon etwas ältere Grafikkarten über Displayboard durchaus auch UHD 60p ausgeben können.
Stimmt´s - oder stimmt´s nicht?dienstag_01 hat geschrieben:Denk mal bisschen nach ;)Wo ist denn hier das Problem?
Kleiner Tipp: was sagt dein Test über die Skalierungseigenschaften der Software aus? Wie wäre der Test also sinnvoll? Und wo kommt die bessere Performance eines &-Core her?
Vielleicht kommst du selber drauf ;)
Ja, sollte man. Vielleicht mal mit sowas wie i5-M560 testen ;)Jost hat geschrieben:Und es ist wunderbar, dass man das selbst herausfinden kann.
das problem hat leider damit zu tun, dass die gtx karten schon sehr lange eine entsprechende 10bit ausgabe via DP im vollbildmodus erlauben, nicht aber in programmen, die neben dem eigentlichen videoansicht auch noch irgendwelche GUI widgets zeigen wollen. das ist in technischer hinsicht ein ziemlicher krampf! und die anpassung der wiedergabe-framerate, die hier auch eine ausgesprochen bedeutsame rolle spielt, bringt noch weitere einschneidende komplikationen mit sich, die kaum in plattformübergreifend zu lösen sind. es gibt allerdings software, die das wirklich vorbildlich schafft (bspw. autodesk flame), aber im normalfall ist es wirklich ein einziger albtraum. :(Roland Schulz hat geschrieben:Displayport heißt die Schnittstelle. Einfach mal ausprobieren wie das funktioniert. Aus meinen Erfahrungen geht das leider meistens in die Hose, aber auch bei FHD. Irgendwie hatte ich da zumindest mit EDIUS immer Tearing und sowas, wobei das ne GTX960 mit MPC am TV nahezu perfekt macht. In ner NLE habe ich aber meist nicht die Optionen das korrekt einzustellen.
ja -- ich seh das ganz ähnlich wie du. in wahrheit sind leider die BMD treiber mit ein grund für schätzungsweise 50% der ganz wilden abstürze und betriebssystem hänger im resolve. und dabei dürften die dortigen programmierer noch am ehesten wissen, wie man den entsprechenden technischen stolpersteinen herr wird od. sie nach möglichkeit umschifft. ich halte es daher eigentlich auch eher für erstrebenswert, auf derartige zusätzliche hardware zu verzichten, wo immer das möglich ist. aus sehr vielen programmen bekommt man halt auf anderem weg einfach keine vernünftige bildschirmfüllende voransicht zu schneiden raus. (ich arbeite aber gerade an einer software -- eine art decklink-api emulator in software --, die hier evtl. abhilfe schaffen könnte. bin mir aber noch nicht ganz sicher, ob es sich wirklich befriedigend umsetzen lässt.)Roland Schulz hat geschrieben:Man kann das erst ohne BMD versuchen und dann immer noch nachkaufen, wobei das Ding auch seine Tücken hat...
Doch, nein und nein! Das klappt nicht vernünftig!wolfgang hat geschrieben:Ja klar heißt das Displayport. Wenn dir das wichtig ist...
Dafür geht bei mir damit nichts in die Hose. Sowohl über den Displayport einer Quadro K4200 auch einer AMD R9 390X habe ich am UHD-Samsung Monitor eine völlig problemlose Vorschau, mit der Decklink 4K Extreme bis 30p sowieso (denn GV hat aus Edius heraus die Ausgabe auf die Blackmagic Karten über 30p völlig unverständlicherweise nicht erlaubt).
wo hast du diese info her?wolfgang hat geschrieben: Fakten: Über Displayport können bisher alle Grafikkarten ohnedies immer nur UHD 60p, da ist gar kein 50p vorgesehen. Das sollte man wissen wenn man sich für die UHD Grafikkarten-Vorschau über Grafikkarten entscheidet. Das wirst halt nicht ändern, oder haben wir Hinweise darauf dass eine UHD 50p Ausgabe mit der neuesten nvidia und AMD Generation möglich wird?
gerade weil er 'nur' diese nicht ganz unpraktische auflösung hat, braucht man nicht mehr als hdmi 1.4. allerdings ist er in der tat auch einer von den vielen schirmen, die dir nur 60 oder 24Hz -- unabhängig von der grafikkarte und dem verwendeten anschluss -- einzustellen erlauben, was natürlich nicht ganz ideal ist. (meine erlauben übrigens 30, 50 und 60Hz, aber auch nur als 1080p -- mehr brauch ich nicht)wolfgang hat geschrieben:Aber nicht mal UHD Auflösung und nur HDMI 1.4?
ich glaube, das kann man technsich damit erklären, das die betreffende programme mit hilfe alter Decklink-SDKs programmiert bzw. kompiliert wurden. sind es tatsächlich aktuelle ausgaben der betreffenden programme? -- den eigentlich müssten diese änderungen schon ein paar jahre zurückliegen... man erkennt diesen umstand jedenfalls auch daran, dass es damals auch noch keine UHD ausgabe gab, sondern nur 4K DCI (3840x2160) in frameraten von 23.98-30fps unterstützt wurde...wolfgang hat geschrieben:Dass dieses tearing eben nicht an der Decklink liegt sondern an der Einbindung in die jeweilige Schnittsoftware zeigt Resolve. Das und auch Catalyst Edit läuft bei mir im gleichem System völlig sauber, auch mit FS7 UHD 50p Material (Monitorausgabe in Resolve wegen der Restriktion am Dell Monitor für die Decklink Ausgabe entweder auf UHD 50p gestellt, oder wenn mans lieber mag auf 1080 25/50p). Hier patzen also eher Vegas wie auch Edius.
das stimmt schon. ich produziere ja auch keine 4K output, sondern verstehe die entsprechenden aufnahmemöglichkeiten meiner kamera nur als einen umweg, um HD1080 mit optimalerem farbsubsampling auf umwegen, aber dafür mit gut unterstützten konventionelleren mitteln, abspeichern zu können. :) wenn einem das nicht genügt, und man wirklich unbedingt eine durchgehende 4K bearbeitungskette benötigt, reicht das natürlich nicht (...allerdings meine kamera wohl eher auch nicht). prinzipiell halte ich es nämlich schon auch für wichtig, dass man die schärfe in vollbilddarstellung und zielauflösung beurteilt. darum finde ich es auch wirklich nervig, dass genau diese funktionalität im resolve erst durch den einbau entsprechender zusatzhardware zugänglich wird. es ist technisch unglaublich simpel zu realisieren und für das praktische arbeiten viel zu wichtig, als dass es nur im sinne eines vermarktungstechnischen angelhakens ausgeschlachtet wird.wolfgang hat geschrieben:Für den UHD Schnitt bevorzuge ich nach Möglichkeit schon eine UHD Vorschau um gerade bei 4K auch ganz leichte Unschärfen noch erkennen zu können.
wie gesagt: schau, ob das auch bei den neuesten ausgaben der betreffenden programme noch immer der fall ist? ich kann mir das eigentlich kaum vorstellen.wolfgang hat geschrieben:Dass Vegas etwa über die Decklink nur maximal 1080 30p kann ist ebenso ein Jammer wie das Edius damit nur max. UHD 30p kann.