h.265j.t.jefferson hat geschrieben:Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
DNXHD, ProRes, Grass Valley HQXj.t.jefferson hat geschrieben:Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
"für den Consumer"...thsbln hat geschrieben:DNXHD, ProRes, Grass Valley HQXj.t.jefferson hat geschrieben:Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
fallende ssd preise, bei gleichzeitig steigenden kapazitäten, erleben wir jeden tag, 4k 10bit 4:2:2 in 5mbit, sind dann wohl auch keine lösung. ;-)Christian Schmitt hat geschrieben:"für den Consumer"...thsbln hat geschrieben:DNXHD, ProRes, Grass Valley HQXj.t.jefferson hat geschrieben:Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
H.264 und H.265 können es beide.j.t.jefferson hat geschrieben:Frage:
welcher Codec unterstützt denn beim Export für den Consumer 10-Bit?
Kann dieser Typ auch einen Satz in Deutsch verfassen ??maxx miliano hat geschrieben:Wahnsinn! 2016 und schon erleben wir den kastrierten 10 Bit-pfad..
Immerhin, mir ist des egal und interessiert diese rumlaborieren an der
is es 10 bit is es net, nicht. Das ist so als würdest net beim Arzt sitzen
( 2016, womögl. ein Uniklinik) sondern beim Bader, der dir empfohlen hat,
dass 3 Gebete und ein halber Ochse ins Kloster, dir helfen möge..
Denen steh des Wasser bereits übern`Arsch!
2020 kauft keiner nix nirgends mehr Kamera-Pc-und den ganzen Schnockes.
Ein 12 Core Smartphone mit alles in der Kiste drin...um 19,90.-!!!
Das man 2016 überhaupt spricht nun 10 bit langsam...
Arschgeigen! Und solange du Foren hast wo dann weiter 24 Monate rumeiern, sehn die Hersteller, ja wir könne die Verarsche llongiert bis zum
nächsten..
SONY IST SO EIN EPIC FAIL... A7 um 3500 kann INTERN sauber 10bit.
oder die Gurke koste 699,- okay. ende.
Und nix wir reichen nach, am ersten tag oder ich zahle nix für Kiste, weil es
eine technische Werbe/Probefahrt ist und kommt die Nachfolgerin gebe ich
den unfertigen Schmarrn zurück und bekomme die Nächste!
Wh. sind schon einige FAILS weg.
egal... die leben echt in einer Parallelwelt, dort ist erst 2007 oder so...
Da schätzt Du die Leute glaube ich ein wenig falsch ein. Die haben doch auch schon mit den 144Hz Monitoren etc alles mitgemacht, da wird es keinen wundern dass man einen HDR-fähigen Monitor braucht.enilnacs hat geschrieben:10bit FÜR(!) HDR... ok. Nur sollten die bloss nicht 10bit MIT(!) HDR verwechseln. Da muss es vom Content bis zum LCD/OLED ALLES passen.
Aber ich sehe schon die ersten Marketingslogans: HyperultraHDR AMD GPU mit 10 bit, "macht ihre Spiele NOCH realer"** Und der Ottonormalo schliesst es an einem billigen 100 Euro sRGB LCD :-) und stauuuuuuuuuunt :-D
in 3 punkt Schrift unten hellgrau auf dunkelgrau ;-) (falls überhaupt):
**10 bit HDR nur mit einem HDR fähigen Monitor und HDR Inhalte***
***Inhalte erst ab ca. 2018 verfügbar auf Superxhdrmegatollhaha.com mit folgendem passwort: 1337supermegaGEILhdr
Prooooost!
LOL :-D
Sag sowas nicht, das bringt uns nur wieder in teufels küche, da kommt doch bestimmt wieder einer, der mit extremmaterial bemängelt, daß es nicht wie raw aussieht ;-)WoWu hat geschrieben:Den 10 Bit ist das sowieso egal, welche Übertagungsfunktion man darin überträgt.
unter linux können auch die billigen gtx katen schon lange 10bit ausgeben.merlinmage hat geschrieben:Wäre nur mal schön wenn Nvidia da offiziell mit draufspringt, ob jeder das jetzt braucht ist verhandelbar, aber "nice to have" ist es mit den richtigen Displays allemal ;)
Das sagt nVidia zum Thema: http://nvidia.custhelp.com/app/answers/ ... force-gpusmerlinmage hat geschrieben:Gab ja unter Windows auch mal eine Zeit wo 10bit Output drin war, keine Ahnung ob die es wieder rausgeworfen haben. Da der Ref Monitor sowieso über ne AJA läuft ist mir 10Bit Ausgabe auf den Arbeitsmonitoren relativ latte. ;)
nachdem ich mich selber noch immer mit recht durchschnittlichen 8bit displays begnüge, kann ich es dir leider nicht aus eigener erfahrung bestätigen. aber nach allem, was mir dazu bisher im netz so nebenbei untergekommen ist, dürfe es tatsächlich der fall sein. und zwar mit dem ganz normalen closed source treiber von nvidia. übertragung per display port ist natürlich auch voraussetzung.CameraRick hat geschrieben:Wie ist das bei Linux, geht es da richtig oder munkelt man da nur?