Das habe zumindest ich nicht behauptet. Es ist in speziellen Fällen möglich einen Interpolationsfehler von 0 zu erreichen, wenn von der Ausgangsfunktion, der Interpolierenden und den abgetasteten Punkten bestimmte Bedingungen erfüllt sind.Ein Ergebnis müsse immer eine künstliche Interpolation sein, die mit dem Original nichts mehr zu tun habe.
Wenn die diskutiere Berechnungsvorschrift nicht für alle Fälle gilt, dann ist doch schon alles geklärt: Die allgemein formulierte Behauptung wurde durch ein Gegenbeispiel widerlegt.Bei näherer Betrachtung des Problems fiel uns auf, dass die Formel wohl für einige Fälle gilt und für andere nicht.
Für den Videobereich heisst das, dass der neue Messpunkt keinem der zugrundeliegenden Einzelpunkten entspricht.Als Bildnis für denen das Matheverständnis da einfach abgeht:
Was hier gemacht wurde ist simpel, dass man mit einer groben Waage 4 mal misst und dann den durchschnittswert der 4 Werte nimmt, um ein genaueres Messergebnis zu erhalten.
Nichts anderes ist diese Berechnung, man nutzt 4 grobe Messpunkte um daraus einen genaueren Messpunkt zu machen.
Interessant ist nur, dass genau das Gegenteil der Fall ist: bei Computergrafik wird der Effekt weniger gut funktionieren als im "real-world" Video - dem heiligen Gral dieser Diskussion.WoWu hat geschrieben:Deswegen hatte ich auch gesagt, man darf Computergrafik und Video nicht verwechseln.
Das geht auch mit einer FullHD-Kamera, nur hast du am Ende 960x540 10Bit Signal. Das reicht, um sich selbst überzeugen zu lassen. Man beachte nur die Anforderung an ein unkomprimiertes Signal.rideck hat geschrieben:Leider habe ich noch keine 4K Kamera um selber einen Versuch zu starten. Letztendlich möchte man ja so etwas auch nutzen können und zwar in der Realität ;)
Die 10 Bit Werte kommen aus den 8 Bit Werten.WoWu hat geschrieben:Bisher ist noch nicht aufgelöst, woher solche Werte dann die spatialen Informationen für 10 Bit bekommen sollen, die in 8 Bit gar nicht mehr vorhanden sind.
8 Bit ist in diesem Zusammenhang bereits eine verlustbehaftete
Datenreduktion, da braucht man noch gar keinen Codec.
Deswegen steht oben: "real-world" Video. Oder hast du jemals ein Videosignal einer perfekt homogenen Farbfläche (gibt's eigentlich auch nicht) mit einem konstanten Wert über den ganzen Bereich gesehen? ;-)Anne Nerven hat geschrieben:Allerdings bezweifle ich, dass berechnet werden kann, wo eine Fläche, die mit 8 Bit nicht sichtbar ist, bei 10 Bit dann sein soll.
WoWu hat hier den gleichen Gedankenfehler. Alle Werte sind doch schon am richtigen Platz - sie sind Nachbarn auf dem Sensorraster.Anne Nerven hat geschrieben:Es nützt ja z.B. nichts, in einem Gesicht irgendwo Werte zu berechnen, die müssen ja schon am richtigen Platz sein.
Wenn alle vier 8 Bit Pixel gleich sind, dann wuerden sie einfach nur durch den entsprechenden 10 Bit Wert ersetzt werden. Tatsaechlich koennte eine echte 10 Bit Kamera jedoch jedem dieser Pixel einen anderen Wert zuorden, wenn die abgetastete Funktion (d.h. der Verlauf des auf den Sensor projezierten Lichts) kleine Aenderungen aufweist, die bei der 8 Bit Quantisierung nur der gleichen Zahl zugeordnet wurden, aber gross genug sind bei 10 Bit Genauigkeit mit erfasst zu werden.Gabriel_Natas hat geschrieben: Diese vier Pixel, vor allem in einem Videobild hängen ja meist voneinander ab. Das heißt also, ich kann diese vier Pixelwerte ohne Probleme verwenden um einen genaueren Wert für einen Pixel anstelle der Vier Pixel zu errechnen.
Probleme dürfte es nur an harten übergängen werden, wo dann aus z.B. zwei mal Schwarz und zwei mal Weiß Grau wird. Aber dieses Problem gibt es auch, wenn man 4 10 Bit Pixel zusammenfasst.
Es gibt echt keinen mathematischen Grund, warum diese Interpolation groß Probleme machen sollte.
Ja, aber die maximale Abweichung des 8 Bit Wertes beträgt 2 10 Bit Werte.TheBubble hat geschrieben:Wenn alle vier 8 Bit Pixel gleich sind, dann wuerden sie einfach nur durch den entsprechenden 10 Bit Wert ersetzt werden. Tatsaechlich koennte eine echte 10 Bit Kamera jedoch jedem dieser Pixel einen anderen Wert zuorden, wenn die abgetastete Funktion (d.h. der Verlauf des auf den Sensor projezierten Lichts) kleine Aenderungen aufweist, die bei der 8 Bit Quantisierung nur der gleichen Zahl zugeordnet wurden, aber gross genug sind bei 10 Bit Genauigkeit mit erfasst zu werden.Gabriel_Natas hat geschrieben: Diese vier Pixel, vor allem in einem Videobild hängen ja meist voneinander ab. Das heißt also, ich kann diese vier Pixelwerte ohne Probleme verwenden um einen genaueren Wert für einen Pixel anstelle der Vier Pixel zu errechnen.
Probleme dürfte es nur an harten übergängen werden, wo dann aus z.B. zwei mal Schwarz und zwei mal Weiß Grau wird. Aber dieses Problem gibt es auch, wenn man 4 10 Bit Pixel zusammenfasst.
Es gibt echt keinen mathematischen Grund, warum diese Interpolation groß Probleme machen sollte.
Wenn Dir diese Abweichung egal ist, dann kannst Du gleich bei einem 8 Bit Workflow bleiben.Gabriel_Natas hat geschrieben: Ja, aber die maximale Abweichung des 8 Bit Wertes beträgt 2 10 Bit Werte.
Anstatt des 10 Bit Wertes 1021 hat man dann den 8 Bitwert 254,5, gerundet 255, welcher dem 10 Bit Wert 1023 entspricht. Das ist eine Helligkeitsabweichung von unter 0,2%.
Tatsächlich wird der maximale Fehler an Kontrastkanten auftreten, wo dann viel größere Abweichungen drin sind.Gabriel_Natas hat geschrieben: Und diese maximale Abweichung tritt auch nur dann auf, wenn wir die vier 8 Bit Pixel, die wir zu einem zusammen fassen, den selben Wert haben und die größte Abweichung haben, als genau zwischen zwei 8 Bit Werten in der MItte liegen.
Das war nicht nur beim Film so, das ist jetzt auch so, denn wenn Werte, die in einem höherwertigen System noch individuell erfassbar waren einem einzigen Wert zugeordnet werden, verlieren sie ihre Individualwerte und auch die Matrixzuordnung.Schon eine interessante Sache, denn beim Silberfilm, mit der stochastischen Verteilung der Farbwölkchen war eine Matrizenrechnung ja gar nicht möglich
Moment, die Wand wird nicht grau. Nur die Übergangskante wird , wenn sie innerhalb eines 4 Pixelblockes liegt, grau.WoWu hat geschrieben:Das ist die klassische Diskussion zwischen Computergrafik und optischer Grafik.
Hier werden Übertragungssysteme mit Erfassungssystemen verglichen.
Solche Behauptungen, in 8 Bit Werten steckt eigentlich die Genauigkeit von 10 Bit werten ist ein klassisches Beispiel dafür.
Bleiben wir bei dem "real world" Beispiel des Schattens auf der weissen Wand.
In einem 8 Bit Signal ist die Ungenauigkeit so gross, dass die Kamera alle Werte, egal ob Schatten oder Wand, auf einen Wert zusammenfasst.
Rechnet man (nach der Theorie, dass alle Werte reproduzierbar sind) nun eine höhere Genauigkeit aus den 8 Bit wieder heraus, wird die gesamte Wand grau, weil im Signal nicht mehr die In Formation steckt, welche Pixels den schatten repräsentieren, denn sie haben alle denselben Wert (weiss).
Wenn die Zwischenwerte auf 255 gezogen werden, also innerhalb der Zwischenwerte liegen, kann das nachfolgende System gar nicht mehr differenzieren, wo sie ursprünglich gelegen haben.Moment, die Wand wird nicht grau. Nur die Übergangskante wird , wenn sie innerhalb eines 4 Pixelblockes liegt, grau.
Es geht nicht um einen schwarzen Schatten sondern um Nuancen von weiss. Ich hatte das s/w Beispiel nur repräsentativ für abweichende Werte genommen. Es kann gleichwohl auch der Unterschied zwischen Violett und gelb sein. Der Rechner wird bei solchen Unterschieden immer zuviel Blau einrechnen, weil er nach festen Algorithmen arbeitet, anders als Licht.da die Vier PixelBlöcke ja schwarz sind
Na ja, hier geht es darum, ob die Industrie zukünftig überhaupt noch 10 Bit Camcorder herstellen muss oder ob es auch in Zukunft 8 Bit Kameras tun und höhere Qualitäten ohne Unterschied aus 8Bit Signalen einfach errechnet werden.manchmal um Nebensächlichkeiten oder Definitionen gestritten
We have a winner!domain hat geschrieben:Unter anderem bedingt durch das Shot-Noise-Rauschen nehme ich mal an, dass die abgelieferten Pixelwerte sich in Form einer Normalverteilung um den richtigen Wert verteilen. Egal ob bei 8 oder 10 Bit, immer werden mal die oberen und dann wieder die unteren Werte abweichend vom korrekten Wert, eben entsprechend der Verteilung, ausgegeben.
Nein, ist es nicht. Du verwirrst hier alle, indem du die ganzen Begrifflichkeiten durcheinander bringst. Dithering ist das Gegenstück zu dem Prozess, der hier diskutiert wird!WoWu hat geschrieben:Das nennt man dann Dither und hat sogar bestimmte Algorithmen, nach denen die Ausgabe erfolgt :-)
Wir reden hier von der Rücktransformation ;-) Siehe anderen Thread.Wikipedia hat geschrieben: ...Auftretende Rundungsfehler oder Überläufe werden dabei auf benachbarte Bildpunkte übertragen, um eine feinere Darstellung zu erreichen.
Das ganze hier besprochene Verfahren ist eine recht simple Downscaling-Variante. In der Praxis würde man aus diversen Gründen häufig anders vorgehen.Gabriel_Natas hat geschrieben:Fehler an Kontrastkanten treten nicht wegen der 10Bit zu 8 Bit Wandlung auf, sondern durch das Downskalieren. Da ist es egal, ob ich in 16bit oder 4Bit arbeite.
Nicht nachvollziehbar.Gabriel_Natas hat geschrieben:Und nein, ein 8 Bit Wert, der im Downskalierten Bild exakt dem selben 10 Bit Wert wie im Downskalierten 10 Bit Bild entspricht wird nicht verändert, der ist exakt und bleibt gleich.
Und hier geht es ja ums downskalieren.
Das ich keine größere errechnete Bittiefe erreichen kann, wenn ich nicht downskaliere, ist logisch ;)
Der Bezug der Aussage war mir schon klar. Ich muss Dir aber wieder widersprechen :)WoWu hat geschrieben:Das bezog sich auf Domains Zitat. Und das, was er beschreibt ist Dither. Eine Pixelstruktur, die zwischen fehlenden Auflösungswerten eingesetzt wird.
Nun bringst Du aber alles durcheinander.