Wir haben heute mal kurz das neueste Natron installiert und damit konnten die 10 Bit Files nicht gelesen werden (Interessanterweise aber schon GH5 RAW, was Adobe bis heute noch nicht konnte). Wir wollten dann den Artikel auch nicht weiter verzögern, weil sich die Problematik wahrscheinlich in den nächsten Wochen sowieso klären wird. EDIUS wäre auch noch spannend gewesen, weil es einen 10 Bit Color Picker hat. Aber wir haben auch noch ein paar andere Themen hier zu beackern...CameraRick hat geschrieben:
@ slashcam
Die habt ihr die Daten mal in den Natron oder den Nuke geworfen? Selbst die NC kann die Daten (zumindest die Neumann files, die mir zugänglich sind) auch unter Windows lesen. Natron machte auch keine Anstalten, ich glaube nur das 60p Material ging nicht (oder vertu ich mich jetzt?)
Jedenfalls hat man da eine recht große Kontrolle über Pixel und wie Material eingelesen wird, und zumindest im Nuke auch die Tools um die Daten auszulesen
Das ist spannend, bei mir liest er sie ohne Probleme, siehe Screenshot. Bin auf 2.2.5rudi hat geschrieben: Wir haben heute mal kurz das neueste Natron installiert und damit konnten die 10 Bit Files nicht gelesen werden (Interessanterweise aber schon GH5 RAW, was Adobe bis heute noch nicht konnte).
maiurb hat geschrieben:Mal ehrlich, geht es nur mir so, oder auch anderen?
Ihr schreibt hier von überdeutlichen Merkmalen, dass 10bit bedeutend besser wäre als 8bit. Das mag ja sein, aber in den Vergleichs-Videos, oder Bildern, kann ich keine signifikanten Verbesserungen gegenüber 8bit feststellen.
Wenn man von deutlich sichtbar schreibt, sollte doch auch jeder diese Verbesserungen sehen können!
Wenn es aber nur auf Nuancen ankommt, kann man sich den ganzen Hype auch sparen. Oder sollte ich doch meinen Augenarzt konsultieren?
Wir haben die Firmware 1.0 für die GH5 frisch eingespielt und die Finalität signalisierende Nummer ließ uns einen ersten Test zwischen 8 Bit 4:2:0 und 10 Bit 4:2:2 bei der internen Aufnahme wagen.
Ja zB. an den Wangen im Bild. Nee, da sehe ich keine riesen Unterschiede. Zumindest nicht so große, dass es erwähnenswert wäre. Auch bei dem Clip mit dem blauen Himmel und den Wolken, konnte ich keine signifikante Unterschiede feststellen.Angry_C hat geschrieben:maiurb hat geschrieben:Mal ehrlich, geht es nur mir so, oder auch anderen?
Ihr schreibt hier von überdeutlichen Merkmalen, dass 10bit bedeutend besser wäre als 8bit. Das mag ja sein, aber in den Vergleichs-Videos, oder Bildern, kann ich keine signifikanten Verbesserungen gegenüber 8bit feststellen.
Wenn man von deutlich sichtbar schreibt, sollte doch auch jeder diese Verbesserungen sehen können!
Wenn es aber nur auf Nuancen ankommt, kann man sich den ganzen Hype auch sparen. Oder sollte ich doch meinen Augenarzt konsultieren?
Nein, du brauchst keinen Augenarzt zu konsultieren, die ewige Wartezeit auf einen Termin kannst du lieber in das Lesen des Artikels stecken, denn da steht ziemlich genau, wann und wo man Unterschiede erkennt.
Vielleicht waeren doch neue Augen sinnvoll oder zumindest ein Monitor groesser als 5 Zoll? Auf einem 4k Monitor sind die Unterschiede gigantisch und das auch fuer Laien...maiurb hat geschrieben:Ja zB. an den Wangen im Bild. Nee, da sehe ich keine riesen Unterschiede. Zumindest nicht so große, dass es erwähnenswert wäre. Auch bei dem Clip mit dem blauen Himmel und den Wolken, konnte ich keine signifikante Unterschiede feststellen.Angry_C hat geschrieben:maiurb hat geschrieben:Mal ehrlich, geht es nur mir so, oder auch anderen?
Ihr schreibt hier von überdeutlichen Merkmalen, dass 10bit bedeutend besser wäre als 8bit. Das mag ja sein, aber in den Vergleichs-Videos, oder Bildern, kann ich keine signifikanten Verbesserungen gegenüber 8bit feststellen.
Wenn man von deutlich sichtbar schreibt, sollte doch auch jeder diese Verbesserungen sehen können!
Wenn es aber nur auf Nuancen ankommt, kann man sich den ganzen Hype auch sparen. Oder sollte ich doch meinen Augenarzt konsultieren?
Nein, du brauchst keinen Augenarzt zu konsultieren, die ewige Wartezeit auf einen Termin kannst du lieber in das Lesen des Artikels stecken, denn da steht ziemlich genau, wann und wo man Unterschiede erkennt.
Es gibt wirklich wenig sichere Sachen auf der Welt, aber dass ein ungeschultes Auge den Unterschied zwischen 8bit und 10bit erkennen soll, halte ich fuer "gigantischen" Unsinn - so viel IST sicher.DeeZiD hat geschrieben:...
Vielleicht waeren doch neue Augen sinnvoll oder zumindest ein Monitor groesser als 5 Zoll? Auf einem 4k Monitor sind die Unterschiede gigantisch und das auch fuer Laien...
Oder vielleicht diesem Artikel vertrauen, der besagt:DeeZiD hat geschrieben: Vielleicht waeren doch neue Augen sinnvoll oder zumindest ein Monitor groesser als 5 Zoll? Auf einem 4k Monitor sind die Unterschiede gigantisch und das auch fuer Laien...
Dann liegt das Problem hier aber wohl eher an deinem "Display", denn auf meinem 0815-40"-8Bit-REC709 "Display" erscheint beim Game of Thrones-Intro kein einziges Banding.wolfgang hat geschrieben:... und wenn ich mir die Intro von Game of Thrones auf meinem 8bit Display anschaue hauts mir jedes Mal das Aug ein, soviel Banding ist da zu sehen.
Wiedergabe ist unabhängig von der Bearbeitung.Funless hat geschrieben: Und genau deswegen frage ich mich was dieses ganze 10Bit (und höher) Gewerch eigentlich soll wenn die Wiedergabe letztendlich eh vom Processing des (nach wie vor sehr weit verbreiteten) 8Bit-REC709 "Displays" abhängig ist. Also ein Stückweit wie ein Lottospiel.
Wundert mich nun auch etwas. Was ist denn die Quelle, Bluray?und wenn ich mir die Intro von Game of Thrones auf meinem 8bit Display anschaue hauts mir jedes Mal das Aug ein, soviel Banding ist da zu sehen.
was gerne übersehen wird, ist der umstand, dass man 10bit material beim export bzw. der anzeige in 8bit ganz gezielt dithern muss. wenn man das nicht macht -- und viele programme sind diesbezüglich leider noch immer sehr einfach gestrickt --. wirkt das resultat oft unbefriedigender als mit ganz bescheidenen 8bit workflows.Funless hat geschrieben:Und genau deswegen frage ich mich was dieses ganze 10Bit (und höher) Gewerch eigentlich soll wenn die Wiedergabe letztendlich eh vom Processing des (nach wie vor sehr weit verbreiteten) 8Bit-REC709 "Displays" abhängig ist. Also ein Stückweit wie ein Lottospiel.
Der Typ im Video ist echt klasse, da er in verständlicher Art und Weise erklären kann, wie die Zusammenhänge sind!Bruno Peter hat geschrieben:Der normale Betrachter wird nichts von 4:2:2 und 10bit haben auf seinem 8bit-Monitor/Fernseher.
Siehe auch:
...hallo @mash_gh4, das Thema habe ich theoretisch bereits lange auf dem Schirm, nur praktisch nicht umsetzen können.mash_gh4 hat geschrieben:was gerne übersehen wird, ist der umstand, dass man 10bit material beim export bzw. der anzeige in 8bit ganz gezielt dithern muss. wenn man das nicht macht -- und viele programme sind diesbezüglich leider noch immer sehr einfach gestrickt --. wirkt das resultat oft unbefriedigender als mit ganz bescheidenen 8bit workflows.
Also mein Panasonic HDTV - zwar älteres Modell aber trotzdem - wirkt da sicher keine Wunder. Und wenn ein 8bit Display banding zeigt dann zeigt es das halt.Funless hat geschrieben:Dann liegt das Problem hier aber wohl eher an deinem "Display", denn auf meinem 0815-40"-8Bit-REC709 "Display" erscheint beim Game of Thrones-Intro kein einziges Banding.
Und genau deswegen frage ich mich was dieses ganze 10Bit (und höher) Gewerch eigentlich soll wenn die Wiedergabe letztendlich eh vom Processing des (nach wie vor sehr weit verbreiteten) 8Bit-REC709 "Displays" abhängig ist. Also ein Stückweit wie ein Lottospiel.
Nur kommt der Punkt wo dieses alte Geräte veraltet ist und durch ein neues ersetzt wird. Und dann sind die überholten 8bit Geschichte. Bei mir zumindest.Bruno Peter hat geschrieben:Der normale Betrachter wird nichts von 4:2:2 und 10bit haben auf seinem 8bit-Monitor/Fernseher.
Ja schön einfach und verständlich, blöderweise auch ein wenig einschläfernd. Die ersten 11 Minuten und ich brauche schon 3 Kaffees! :)maiurb hat geschrieben:Der Typ im Video ist echt klasse, da er in verständlicher Art und Weise erklären kann, wie die Zusammenhänge sind!Bruno Peter hat geschrieben:Der normale Betrachter wird nichts von 4:2:2 und 10bit haben auf seinem 8bit-Monitor/Fernseher.
Siehe auch:
Die Geräte sind ja auch etwas nebensächlich, wenn die Quellen nicht besser werden.wolfgang hat geschrieben: Nur kommt der Punkt wo dieses alte Geräte veraltet ist und durch ein neues ersetzt wird. Und dann sind die überholten 8bit Geschichte. Bei mir zumindest.
die ganze geschicht ist u.a. auch deshalb so kompliziert, weil die wenigsten programme einem die möglichkeit einräumen, hier wirklich gezielt einstellungen vorzunehmen od. entsprechende manuell konfigurierbare filter anbieten.blueplanet hat geschrieben:das Thema habe ich theoretisch bereits lange auf dem Schirm, nur praktisch nicht umsetzen können.mash_gh4 hat geschrieben:was gerne übersehen wird, ist der umstand, dass man 10bit material beim export bzw. der anzeige in 8bit ganz gezielt dithern muss. ....