Aha.dienstag_01 hat geschrieben: Deshalb profitieren sie auch nicht durch irgendeine höhere Rechengenauigkeit.
Wo bietet PPro das an?Reiner_M hat geschrieben:- und 64bit-Float-Berechnungen ergeben genauere Werte als 32bit-Float. Ist so.
Vielen Dank für die Aufklärung.Hirschflo hat geschrieben:Beim Grading in After Effects machen die unterschiedlichen Karten meiner Erfahrung nach kaum Unterschiede - da After Effects sowieso nicht auf Realtime ausgelegt ist - wirklich schnell geht da auch mit teuren Karten nix. Auf die Qualität des Gradings hat die Karte übrigens keinen Einfluss.steve72 hat geschrieben:Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.
Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?
Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760
Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)
Vielen Dank für eure Hilfe!
EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740
Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???
EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...
HHELPPPP
Liebe Grüße,
Steve
In Resolve dagegen ist die Grafikkarte mehr als die halbe Miete. Der Hauptvorteil der Quadros ist übrigens keine bessere Performance als bei den Geforce-Karten, sondern eine geringerer Stromverbrauch und oft auch eine kleinere Bauform. Eine Geforce 660Ti hat in Resolve die doppelte Leistung einer Quadro 4000 bei weniger als der Hälfte des Preises ...
Premiere mit den meisten seiner Effekte profitiert von Cuda.steve72 hat geschrieben:Ist die Geforce GTX 680 eine "gute" Karte wenn ich Filme schneiden möchte in Adobe Premiere CS6, bearbeiten in Adobe After Effects + Plugins(Colorgrading -> Colorista II, Neat Video, etc) sowie Davinvi Resolve
EDIT: Achja ich möchte ein 10Bit Monitor anschließen. Kann die Karte das oder?
?
Nirgends. Ist auch nicht nötig.dienstag_01 hat geschrieben:Wo bietet PPro das an?Reiner_M hat geschrieben:- und 64bit-Float-Berechnungen ergeben genauere Werte als 32bit-Float. Ist so.
Namen ...Alf_300 hat geschrieben:@Reinrer_M
Jetzt muß Du nur noch erklären warum es Playback Engine heißt
Wie gut die 680 für Premiere ist kann ich mangels Erfahrung nicht beurteilen, da ich weder mit dieser Karte noch mit Premiere arbeite. Bei Colorista merke ich persönlich bei den verschiedenen Karten keinen Unterschied - hier ist auch wahrscheinlich der Datentransfer von und zur Karte das Nadelöhr und nicht deren Processing. Neat Video profitiert aber wieder sehr von der Geschwindigkeit der Grafikkarte.steve72 hat geschrieben:Vielen Dank für die Aufklärung.Hirschflo hat geschrieben:Beim Grading in After Effects machen die unterschiedlichen Karten meiner Erfahrung nach kaum Unterschiede - da After Effects sowieso nicht auf Realtime ausgelegt ist - wirklich schnell geht da auch mit teuren Karten nix. Auf die Qualität des Gradings hat die Karte übrigens keinen Einfluss.steve72 hat geschrieben:Hallo,
ich kenne mich nicht so gut aus mit Grafikkarten, darum interessiert mich eure Meinung.
Welche Karte ist die bessere wenn es mir um Color Grading - "Genauigkeit"- Farbtreue und Performance geht?
Und welche ist die beste in Preis/Leistung?
Quadro K4000 (neu)
GTX 780
GTX 770
GTX 760
Im Internet wird oft die GTX760 empfohlen (Wieso nicht die 770 oder 780, diese scheint doch laut den benchmarks besser zu sein?!)
Vielen Dank für eure Hilfe!
EDIT:
Habe eben diesen Thread hier gefunden der eigentlich die Frage beantwortet! viewtopic.php?t=109740
Da mein Flaschenhals vorallem am Colorgrading in After Effects (Colorista & co) liegt, ist wohl eine QUADRO besser geeignet als eine GForce. Aber macht das wirklich den großen unterschied ob ich eine colirste sequenz mit einer Quadro rendere oder mit einer Gforce GTX760 ???
EDIT2: Ich sehe gerade die GTX 690 ist von den Daten her ja echt doppelt so stark wie die QUADRO K4000... und das beim gleichen Preis...
HHELPPPP
Liebe Grüße,
Steve
In Resolve dagegen ist die Grafikkarte mehr als die halbe Miete. Der Hauptvorteil der Quadros ist übrigens keine bessere Performance als bei den Geforce-Karten, sondern eine geringerer Stromverbrauch und oft auch eine kleinere Bauform. Eine Geforce 660Ti hat in Resolve die doppelte Leistung einer Quadro 4000 bei weniger als der Hälfte des Preises ...
Die Geforce 660Ti wird nicht als "Supportete" Grafikarte bei Adobe aufgelistet. Die GTX 680 dagegen schon... Sicher das die 660TI Funktioniert? Ich weiß das es einen Trick gibt der es freischaltet. Aber den möchte ich nicht nutzen da ich das bei meiner jetzigen karte auch shconmal gemacht habe und mir Adobe Premiere dann andauernd abgeschmiert ist und nicht mehr stabil war.
Ist die Geforce GTX 680 eine "gute" Karte wenn ich Filme schneiden möchte in Adobe Premiere CS6, bearbeiten in Adobe After Effects + Plugins(Colorgrading -> Colorista II, Neat Video, etc) sowie Davinvi Resolve
EDIT: Achja ich möchte ein 10Bit Monitor anschließen. Kann die Karte das oder?
?
Vielen Dank für die Hilfe!
Coco21 hat geschrieben:vielen Dank für Eure Tipps.
Ich hatte für den Videoschnitt-PC ursprünglich die Nvidia GT640 im Auge, da Nvidia auf ihrer Internetseite die GPUs nach HD-Foto/Video einerseits und Gaming andereits einteilt. Für HD-Foto-Video stehen dort die GT...-Grafikkarten und für Games die GTX...GPUs.
Sogesehen schien mir die GT640 angemessen. Alternativ dazu hatte ich die Radeon HD7770 in Erwägung gezogen, die zwar teurer ist, aber von den Parametern wohl auch etwas besser zu sein scheint. Leider weiß ich nicht inwieweit sich die Unterschiede beim Videoschnitt in der Praxis tatsächlich bemerkbar machen.
Benutzt vielleicht einer von Euch einer der Grafikkarten?
Falsch. Auch da sollte man eine Grafikkarte mit breiter Anbindung und hohem 2D Durchsatz wählen.Hirschflo hat geschrieben:Es gibt allerdings auch Schnittsoftware, die gar nichts auf der GPU erledigt ... da tut es theoretisch auch eine Steinzeitgrafikarte.
Ich habe eine 7770 OC im Rechner. Die läuft unter Edius Pro und Pinnacle Studio 14 tadellos. Und ich schneide unter Edius 1080p50 - das Pinnacle Studio ist nur für die älteren SD-Projekte und für den Import von SVHS-Altmaterial via Pinnacle Dazzle noch auf dem Rechner.Coco21 hat geschrieben: Sogesehen schien mir die GT640 angemessen. Alternativ dazu hatte ich die Radeon HD7770 in Erwägung gezogen, die zwar teurer ist, aber von den Parametern wohl auch etwas besser zu sein scheint. Leider weiß ich nicht inwieweit sich die Unterschiede beim Videoschnitt in der Praxis tatsächlich bemerkbar machen.
Benutzt vielleicht einer von Euch einer der Grafikkarten?
Das war bei mir ähnlich. Nach einer längeren Pause (vorher miniDV) hatte ich mir einen Full HD Camcorder gekauft und mußte feststellen, dass mein bisher genutzter PC das nicht mal abspielen konnte. Mein Wohnzimmer-PC konnte es aufgrund modernerer Onboard-Radeon immerhin abspielen - schneiden konnte das der Rechner auch nicht. Also wurde nach den Empfehlungen von Avid (als Pinnacle Studio Nutzer hatte ich Avid Studio für den HD-Schnitt in die engere Wahl gefaßt) und den Empfehlungen der c´t ein neuer Rechner zusammengeschraubt. Das zog sich etwas hin, weil ich zwischendurch in die Reha kam und plötzlich war die von der c´t empfohlene Grafikkarte nicht mehr lieferbar und dann habe ich Leistungsindexe durchgeforstet und kam am Ende zur 7770, die ich als OC Modell mit zwei Lüftern und 2 DVI-Buchsen genommen habe. Von nvidia bin ganz runter - damit habe ich beim Rechner davor nur Theater gehabt.Coco21 hat geschrieben:Mir geht es nur um den AVCHD-Videoschnitt, da den mein alter Rechner im Gegensatz zu SD-Material nicht schafft.
Natürlich sollte man das tun. Aber meine Meldung ist trotzdem nicht falsch: In Final Cut 7 z.B. rechnen nur zusätzliche Plug-Ins von Drittherstellern auf der GPU. Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.holger_p hat geschrieben:Falsch. Auch da sollte man eine Grafikkarte mit breiter Anbindung und hohem 2D Durchsatz wählen.Hirschflo hat geschrieben:Es gibt allerdings auch Schnittsoftware, die gar nichts auf der GPU erledigt ... da tut es theoretisch auch eine Steinzeitgrafikarte.
Gruß Holger
Für die Vorschau im Schnittsystem ist die CPU wichtiger als die Grafikkarte. Die kommt, je nach Software mehr oder weniger, erst zum Berechnen von Effekten und dem Export zum Einsatz.Coco21 hat geschrieben:Mir geht es nur um den AVCHD-Videoschnitt, da den mein alter Rechner im Gegensatz zu SD-Material nicht schafft.
Hirschflo hat geschrieben: Aber meine Meldung ist trotzdem nicht falsch:
[...]
Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.
Du hast natürlich recht, dass so etwas passieren kann - aber mir ist in all meinen Jahren in der Videopostpro noch nie eine Grafikkarte untergekommen die das nicht auch im Mehrschirmbetrieb schafft - und ich war schon zu Zeiten dabei, als Matrox PCI-Dual-Head-Karten wie ein technisches Wunder gewirkt haben. Aber von PCI und AGP und auch Standard Definition reden wir heute ja sowieso nicht mehr ...holger_p hat geschrieben:Hirschflo hat geschrieben: Aber meine Meldung ist trotzdem nicht falsch:
[...]
Da macht es für den Schnitt mit den Bordmitteln null Unterschied, ob man eine ATI 5770, Quadro 4000 oder eine alte und schwache ATI 2600 HD im Rechner hat - diese Karte empfinde zumindest ich als Steinzeit des PCI-Express Busses.
Wenn der Speicherdurchsatz der Karte nicht stimmt, dann wird es mit flüssiger Vorschau im Dual-Monitor Betrieb nichts. Ein gewisse 2D Leistung ist erforderlich, damit man 1080p50 halbwegs unfallfrei (ohne fiese Ruckler) auf einen Full-HD Monitor bekommt. Und das schafft die Steinzeit-Karte spätestens im Dual-Monitor Betrieb nicht, auch wenn die CPU sämtliche Dekodierung übernimmt.
Gruß Holger
1x ASUS GTX 680 mit 4 GB ** Aber mit ner 660 gehts natürlich auch ;-) **Coco21 hat geschrieben:Ich will natürlich auch nicht mehr Geld ausgeben als nötig.
Wenn die Grafikkarte keine zusätzlichen Aufgaben übernehmen soll, hat das alles mit Speicherdurchsatz etc. nichts zu tun. Die muss das Bild darstellen - und wenn sie zwei Bildschirme bedienen kann, stell sie es natürlich auch dar. Egal ob 1i oder 50p.holger_p hat geschrieben:Wenn der Speicherdurchsatz der Karte nicht stimmt, dann wird es mit flüssiger Vorschau im Dual-Monitor Betrieb nichts. Ein gewisse 2D Leistung ist erforderlich, damit man 1080p50 halbwegs unfallfrei (ohne fiese Ruckler) auf einen Full-HD Monitor bekommt. Und das schafft die Steinzeit-Karte spätestens im Dual-Monitor Betrieb nicht, auch wenn die CPU sämtliche Dekodierung übernimmt.
Wie gesagt, ich würde dir eine 128bit Karte dafür empfehlen. 64bit reichen vielleicht auch, aber irgendwie geht das in die Richtung, gleich eine Onboard-Grafik zu verwenden. Und da hört man hier immer mal wieder von Problemen. Aber, gehen könnte es.Coco21 hat geschrieben:Da ich nicht spiele und alle Anwendungen - außer Video - kein Problem darstellen dürften, geht es letztlich nur um den Videoschnitt. Alles andere kann ich mit meinem alten PC enbenso machen. Ich will natürlich auch nicht mehr Geld ausgeben als nötig.
Mit Speicherdurchsatz ist die Fähigkeit gemeint, eine gewisse Anzahl Bilder pro Sekunde in die Karte zu bekommen. Du empfiehlst CoCo21 ja nicht ohne Grund eine 128 Bit Karte anstelle einer 64Bit Karte. Genau das ist mit Durchsatz gemeint. Für 50p müssen auch 50 Bilder pro Sekunde irgendwie in den Speicher der Grafikkarte. Ein Bild Full-HD hat 1920*1080=2073600 Bildpunkte. Bei einer Farbtiefe von 24 Bit sind das rund 6MByte pro Bild. Bei 50 Bildern pro Sekunde fallen immerhin schon 300 MByte an. Der Bildschirm wird aber mit 60 HZ angesteuert, idealerweise berechnet der Player also noch Zwischenbilder und schiebt dann 60 Bilder zur Karte. Dann sind wir bei 360 MByte. Da kommt die Steinzeitkarte nicht mehr mit. Ist doch gar nicht schwer zu verstehen oder?dienstag_01 hat geschrieben: Wenn die Grafikkarte keine zusätzlichen Aufgaben übernehmen soll, hat das alles mit Speicherdurchsatz etc. nichts zu tun. Die muss das Bild darstellen - und wenn sie zwei Bildschirme bedienen kann, stell sie es natürlich auch dar. Egal ob 1i oder 50p.
Idealerweise macht das der Player nicht. Der spielt genau das ab, was die Video-Settings vorgeben. Das ist sein Job. Er schiebt also bei 50p genau 50 Bilder an die Grafikkarte, die holt sich aus dem RAM einzeln die 50 Bilder pro Sekunde ab, gibt aber an den Monitor genau das aus, was man im Treiber-Panel eingestellt hat, z. B. 60 Hz, also 60 Bilder.holger_p hat geschrieben:Der Bildschirm wird aber mit 60 HZ angesteuert, idealerweise berechnet der Player also noch Zwischenbilder und schiebt dann 60 Bilder zur Karte. Dann sind wir bei 360 MByte. Da kommt die Steinzeitkarte nicht mehr mit. Ist doch gar nicht schwer zu verstehen oder?
Das werden viele Player so machen, aber von "idealerweise" ist das weit entfernt, denn genau das sorgt für ruckelnde Ergebnisse. Idealerweise fragt der Player ab, mit welcher Rate der Monitor bedient wird und erzeugt dann passend die Bilder. Noch idealer wäre es natürlich, wenn die Grafikkarte intelligent ist und selbst dekodiert.Reiner M hat geschrieben:
Idealerweise macht das der Player nicht. Der spielt genau das ab, was die Video-Settings vorgeben. Das ist sein Job. Er schiebt also bei 50p genau 50 Bilder an die Grafikkarte, die holt sich aus dem RAM einzeln die 50 Bilder pro Sekunde ab, gibt aber an den Monitor genau das aus, was man im Treiber-Panel eingestellt hat, z. B. 60 Hz, also 60 Bilder.
Viele ältere Grafikkarten können problemlos zwei Monitore mit Full-HD Auflösung ansprechen. Der Videochip bekommt die Ausgabe auf die DVI-Buchsen gerade noch so hin, auch wenn das Speicherinterface der Karte viel zu langsam ist, um Full-HD Auflösung mit 50 Bildern pro Sekunde anzunehmen. Das eine hat mit dem anderen absolut nichts zu tun.Reiner M hat geschrieben: Und wenn die Steinzeitkarte zwei Monitore hochauflösend zulässt (was zumindest seit der späten Steinzeit die Regel ist), ist das einfach so und hat mit FullHD und 50p und Video nix zu tun.
Was Du schreibst, hieße ja, dass es völlig egal ist, mit welcher Framerate ich ein Video produziere. Ist das so?holger_p hat geschrieben:Idealerweise fragt der Player ab, mit welcher Rate der Monitor bedient wird und erzeugt dann passend die Bilder.
Was Probleme bereiten könnte, wäre die Anbindung über die PCI-Schnittselle, doch bereits eine PCI-e 1.0 x1 schafft mehr, als für ein FullHD-Video 50p nötig wäre. Da sehe ich kein Problem.holger_p hat geschrieben: Viele ältere Grafikkarten können problemlos zwei Monitore mit Full-HD Auflösung ansprechen. Der Videochip bekommt die Ausgabe auf die DVI-Buchsen gerade noch so hin, auch wenn das Speicherinterface der Karte viel zu langsam ist, um Full-HD Auflösung mit 50 Bildern pro Sekunde anzunehmen.
Ein guter Player kann das. Allerdings muss dann die Rechenleistung für Softwaredekodierung ausreichen.Reiner M hat geschrieben:
Was Du schreibst, hieße ja, dass es völlig egal ist, mit welcher Framerate ich ein Video produziere. Ist das so?
Der Player schiebt die Daten zur Karte, die übernimmt die exakte Übernahme zum Framewechsel. Sonst würde es generell zu ständigen Flackereffekten kommen.Reiner M hat geschrieben: Zusätzlich müsste sich der Player mit dem Taktgeber der Karte 100%tig synchronisieren, damit ein Frame auch genau dann komplett bereit steht, wenn die Karte das Bild zum Monitor schickt, unabhängig davon, wie lang der Player für Lesen der Quelle, Dekodieren und Bereitstellen braucht.
Das eine schließt das andere ja nicht aus. Mehr Frames heißt ja auch weniger interpolieren.Reiner M hat geschrieben: Ich werde meine Videos nach wie vor sehr bewußt mit einer wohl gewählten, bestimmten Framerate produzieren und mich nicht darauf verlassen ... ;)
Es geht in diesem Thread um die Grafikkarte, nicht um die CPU.Reiner M hat geschrieben: Was aber tasächliche Probleme bereitet, sind die nötigen Dekodierzeiten. Da lassen bei 50p-Videos die Software-Player auf schwachen oder zu stark belasteten CPUs sogar Frames aus, um eine Echtzeitwiedergabe zu erreichen. Wie wollen die das noch auf 60Hz aufpeppen?
Erster klarer Engpass ist also in jedem Fall die CPU.
Falsch. Das nutzen nur einige NLEs so. Boshaft könnte ich sagen, dass es die Programme nutzen, deren Programmierer zu doof sind, das in effizienten CPU-Routinen zu erledigen.Reiner M hat geschrieben: Der Sinn starker Grafikkarten steckt nicht in der Bildwiedergabe für Monitore, sondern in ihrer zweiten Funktion, der Bildaufbereitung, die davon getrennt und zusätzlich läuft. Das nutzen z. B. NLEs so.
Das ist falsch. Das Encoding wird in den NLEs komplett von den CPUs übernommen. Erst bei Rendering und Effekten greift die GPU. Genau daher kommt ja auch die Aussage, dass eine *Steinzeitgrafikkarte* das auch kann.holger_p hat geschrieben:Die meisten NLEs nutzen die Kodierfähigkeiten der Grafikkarte nur beim Rendern und für die Wiedergabe und zwar sowohl bei Vollbild als auch bei Wiedergabe in kleinem Fenster.
PowerDVD von Cyberlink soll das können.dienstag_01 hat geschrieben:Hallo Holger,
ums einfach zu machen, nenn doch einfach mal einen Player der interpoliert. Ich kenne keinen (aber kenne natürlich auch nicht alle).
Um es mit Deinen Worten zu sagen: Das ist falsch.dienstag_01 hat geschrieben: Das ist falsch. Das Encoding wird in den NLEs komplett von den CPUs übernommen.
Kennst Du den Unterschied zwischen Encoding und Rendern?dienstag_01 hat geschrieben: Erst bei Rendering und Effekten greift die GPU.
Auch da muss ich Dich enttäuschen: Das Dekodieren des Videosignals kann von der GPU übernommen werden. Die CPU muss lediglich den Container öffen und das eigentliche Videosignal daraus an die GPU leiten zusammen mit der Information, wo un wie groß es auf dem Bildschirm erscheinen soll.dienstag_01 hat geschrieben:Damit wir uns erstmal über den Begriff einig sind (wird wirklich oft für beide *Richtungen* verwendet): Encoding meint hier das Decodieren des komprimierten Datenstroms für die Anzeige. Und das macht in Premiere (und auch in Avid) natürlich die CPU.