Genau, klar. Ich meine nur 4 identisch rote Pixel geben wieder nur einen gleich roten Pixel (also egal ob es 256 oder 1024 Abstufungen sind) und Banding entsteht ja wegen zu ähnlicher oder identischer Farben (gerade halt bei 8 bit 4:20). Aber ich lasse mich da gerne eines besseren belehren.Tiefflieger hat geschrieben:@rkunstmann
Du hast Recht, ich habe mich da verlesen.
Tabelle mit den Frameraten.
https://www.slashcam.de/news/single/Pan ... 11186.html
Benachbarte Pixel in 4K haben eine Farbe, die in 1080p wieder eine mathematisch genauere Mischfarbe ergeben.
Sonst hätte man Dithering welches wiederum ein Auflösungsverlust bedeutet.
Aber setzt hier nicht die GH2/3-Hackcommunity an? :-) Also dürfte es zumindest per Hack dann irgendwann machbar sein wenns in der Post nicht funktioniert wie beschrieben ... oder?Valentino hat geschrieben: .....
Von 4k 8bit kommt man aber niemals auf 10bit HD für alle drei Kanäle.
So etwas muss schon ganz früh nach dem Sensor passieren.
...
Nein definitiv wird es bei den GH Modellen kein 10bit geben, auch wenn der Aufzeichnungscodec anscheinend 10bit unterstützt wird intern immer nur 8bit verarbeitet.Daffytroll hat geschrieben:Aber setzt hier nicht die GH2/3-Hackcommunity an? :-) Also dürfte es zumindest per Hack dann irgendwann machbar sein wenns in der Post nicht funktioniert wie beschrieben ... oder?
Hmm, wie geht das? Jeder Pixel hat bei 8bit nur die 2^8 = 256 möglichen Farbtöne - für jeden Farbkanal. Ergibt die 256*256*256 = 16,8 Mio darstellbaren Farben.rideck hat geschrieben:David Newman erklärt es so: 4 x 8 Bit-Werte lassen sich zu einem 10 Bit-Wert rechen. Na wenn das stimmt dann haben wir ja 10 Bit intern ;)
... oder "Glosse".Valentino hat geschrieben:Das doch sehr komplexe Thema unter "Grundlagen" zu stellen halt ich für falsch, dann doch besser unter "Essay" :-)
Das frage ich mich halt auch. Ein typisches Bandingproblem bei einer Kamera mit großem oder mittelgroßen Sensor, wie der GH4 stell zum Beispiel das Bokeh dar. Hier werden ja schon physikalisch Farbwerte zusammengefasst. Auch wenn dann 4K 8bit Match in 2K 10 bit Matsch gerechnet wird bringt das doch nichts, weil die Differenzierung schon weg ist. Ähnlich stellt es sich bei einem strahlend blauen Himmel dar. Die Werte klippen ja nicht überall, sondern nur an einer bestimmten Übergangskante (Sorry mir fehlt einfach das Vokabular, um mich besser auszudrücken).wolfgang hat geschrieben:Das ist mir bewußt. Aber es ist und bleibt eine Interpolation. Und die Frage ist wie gut das überhaupt sein kann - und ob man das gesamte Farbspektrum so wirklich darstellen kann.
Ich glaube Du hast viel zu hohe Ansprüche an die Genauuigkeit der Darstellung?rkunstmann hat geschrieben:Das frage ich mich halt auch. Ein typisches Bandingproblem bei einer Kamera mit großem oder mittelgroßen Sensor, wie der GH4 stell zum Beispiel das Bokeh dar. Hier werden ja schon physikalisch Farbwerte zusammengefasst. Auch wenn dann 4K 8bit Match in 2K 10 bit Matsch gerechnet wird bringt das doch nichts, weil die Differenzierung schon weg ist. Ähnlich stellt es sich bei einem strahlend blauen Himmel dar. Die Werte klippen ja nicht überall, sondern nur an einer bestimmten Übergangskante (Sorry mir fehlt einfach das Vokabular, um mich besser auszudrücken).wolfgang hat geschrieben:Das ist mir bewußt. Aber es ist und bleibt eine Interpolation. Und die Frage ist wie gut das überhaupt sein kann - und ob man das gesamte Farbspektrum so wirklich darstellen kann.
Genau. Das meine ich ja:) Mir geht es ja gar nicht um den einzelnen Pixel per se oder 4k vs 2k. Ich frage mich nur, ob man aus 8 bit 4k (zumal aus 420 h.264) wirklich 10 bit kriegt und das bezweifle ich.Tiefflieger hat geschrieben:Ich glaube Du hast viel zu hohe Ansprüche an die Genauuigkeit der Darstellung?rkunstmann hat geschrieben:Das frage ich mich halt auch. Ein typisches Bandingproblem bei einer Kamera mit großem oder mittelgroßen Sensor, wie der GH4 stell zum Beispiel das Bokeh dar. Hier werden ja schon physikalisch Farbwerte zusammengefasst. Auch wenn dann 4K 8bit Match in 2K 10 bit Matsch gerechnet wird bringt das doch nichts, weil die Differenzierung schon weg ist. Ähnlich stellt es sich bei einem strahlend blauen Himmel dar. Die Werte klippen ja nicht überall, sondern nur an einer bestimmten Übergangskante (Sorry mir fehlt einfach das Vokabular, um mich besser auszudrücken).wolfgang hat geschrieben:Das ist mir bewußt. Aber es ist und bleibt eine Interpolation. Und die Frage ist wie gut das überhaupt sein kann - und ob man das gesamte Farbspektrum so wirklich darstellen kann.
- Mit einer 3-Chip Kamera sind die RGB Pixel deckungsgleich (Pixelshift und Aberration mal weggelassen). Und somit exakt definiert.
(Bei einem Camcorder ist auch das Objektiv definiert fix und die Kennwerte im Bild einberechnet (Serienstreuung)).
- Bei Singlesensorkameras ist je nach Bildauflösung in Luma und Chroma eine andere Gewichtung für Farbwerte definiert.
Ein genauer Farbwert zu einem Bildpunkt ist gar nicht messbar.
Ich behaupte mal, dass es mit Debayering 10 bit braucht um kein Banding zu erhalten, bzw. das Bildprozessing Farbwerte vorgibt (und ggf. Farbnuancen zugunsten von Farbfehlern reduziert).
Gruss Tiefflieger
Oder so ??? Verstehe ich zwar nicht klingt aber gut:)WoWu hat geschrieben:Das sind so Gedankenspielchen die sich aus falschen Vorstellung herleiten, weil nur wenig darüber nachgedacht wird, was Unterabtastung eigentlich ist und die Bezeichnung dazu verleitet, das auch die physikalischen Pixel des Sensors zu beziehen.
Unterabtastung ist eine Datenreduktion, die dadurch erreicht wird, dass weniger Chromawerte aus den bestehenden Pixels errechnet werden, dafür aber für jeden der errechneten Werte mehr Pixels herangezogen werden. Das Farbergebnis ist damit weniger aufgelöst als beispielsweise bei 4:2:2 oder gar 4:4:4.
Es geht also nicht um weniger Pixels, die dabei abgetastet werden, sondern darum, dass mehr Pixels zu einer Mischfarbe zusammenfasst werden, dadurch aber ein weniger differenziertes Bild ergeben.
Unterabtastung findet also (bei 1-Chip) im De-bayering-Komplex statt und eine falsche Farbe bleibt gegenüber 2 weniger interpolierten oder 4 originalfarben immer eine Unterabtastung.
Was die 10 Bit betrifft ... solange das Signal irgendwann mal in 8 Bit gemapped war, gibt es keinen weiteren Farbwert mehr vom Sensor.
Man kann jetzt in 10 Bit ummappen. dabei wird üblicherweise ge-dithert, um die fehlenden Werte zu füllen.
Da gibt es gute oder weniger gute Algorithmen, aber es gibt keine Farbe vom Sensor., was 10 Bit eigentlich auszeichnet.
Sonst könnten wir, im Extremfall, alles wieder in 2 Bit machen (spart kolossal) und errechnen uns daraus - was wir wollen, 12,14, 16 Bit was immer man will.
Es geht aber nicht, auch nicht bei 8/10 Bit. Ganz im Gegenteil. Bei solchen Verfahren muss man auch mit den Nebeneffekten klar kommen, die hier nicht zur Diskussion stehen.
Was die 3 Farben einer 4- Pixels Fläche betrifft, gelingt das nur, wenn zwei doppelbrechende Filter eingesetzt sind, oder in meinem De-bayering zeitliche Filter verwende.
Beide Methoden kappen vorwiegend hohe Ortsfrequenzen. Nun muss man sich fragen, in welchen Grössenordnungen das liegt.
Bei sehr grossen Sensoren liegt das eher im Bereich der ohnehin eingebauten OLPF und bei Verwendung von doppelbrechenden Filtern, stellt sich die Frage, sie anstelle der OLPF zu verwenden. Vorteil ist, dass man billige Objektive einsetzen kann, denn weder die spatiale Auflösung, noch die Abbildungsleistung ist hinterher besonders hoch.
Ich glaube, das war's so im Wesentlich.
Es gibt nur eine GH2 Hackcommunity, und auch da ist der letzte Fortschritt schon Jahre her. Seitdem lässt der Russe sich nur noch die Kohle für die neuen Bodies spenden und freut sich nen Ast... :-)Daffytroll hat geschrieben:Aber setzt hier nicht die GH2/3-Hackcommunity an? :-) Also dürfte es zumindest per Hack dann irgendwann machbar sein wenns in der Post nicht funktioniert wie beschrieben ... oder?Valentino hat geschrieben: .....
Von 4k 8bit kommt man aber niemals auf 10bit HD für alle drei Kanäle.
So etwas muss schon ganz früh nach dem Sensor passieren.
...
Das muss sogar AUF dem Sensor passieren, denn es ist immer ein Verhältnis aus Ladungsmenge und Störabstand.So etwas muss schon ganz früh nach dem Sensor passieren.
Ich habe dem Artikel jetzt noch mal ein Update verpasst, in dem wir einfach mal praktisch in After Effects einen 8 Bit Layer 50 Prozent runterskaliert haben. Und was soll ich sagen, in der Praxis werden hier aus 8 Bit Farbtiefe offensichtlich sowas wie 10 Bit :)mediavideo hat geschrieben:Das mit den 10 bit aus 8 bit Pixeln ginge theoretisch schon, nur leider in der Praxis nicht.
Irgendwie fehlen bei dem Update die beiden Bilder.rudi hat geschrieben:Ich habe dem Artikel jetzt noch mal ein Update verpasst, in dem wir einfach mal praktisch in After Effects einen 8 Bit Layer 50 Prozent runterskaliert haben.