Ihr seid ja immer noch dabei ....
Ich hab jedenfalls erst mal das Wochenende genossen.
Roland Schulz hat geschrieben:
Das alles hat aber mit dem Downsampling bzgl. der Unterabtastung relativ wenig zu tun.
Da bin ich nicht Deiner Meinung, denn gerade um das Rückgängigmachen der Unterabtastung von 4:2:0 nach 4:4:4 war das Thema.
mash_gh4`s Behauptung war ... man kann aus 4:2:0 wieder 4:4:4 machen, weil die Energieverteilung in YCbCr (nicht YUV) so gestaltet ist, dass aus den Paters eine verlustlose Rückrechnung erfolgen kann.
Mein Standpunkt war, dass keine verlustlose Rückrechnung erfolgen kann.
Das war der Punkt, zuzüglich noch de Umstands, dass durch die Unterabtastung das Bild bereits mit Artefakten belastet worden ist.
Nun gibt es dazu eine Reihe wissenschaftlicher Arbeiten, die sich mit dem Thema beschäftigen, allerdings "lediglich" mit der Vorgabe, aus einem 4:4:4 Bild, dass eine 4:2:0 Unterabtastung durchläuft, wieder ein 4:4:4 Bild zu generieren, also von einem Bild, dessen YCbCr die entsprechende Komponentenenergie enthält.
Ausgangsmaterial, das bereits vom Sensor unterabgetastet ist, erfüllt die Bedingungen ohnehin nicht.
Aber selbst die gemachten Versuche führten über unterschiedliche Methoden nur zu Ergebnissen von 20-70% der ursprünglichen Componenen.
Einer 4:2:0 Interpolation liegt eine lineare 7-Tap-FIR-Filter Operation zugrunde, die Unschärfen und Farbartefakte über die Kanten und Details mit sich bringt.
Die Idee, ist es, die Interpolation durch adaptive Filterung zu verbessern.
Das heisst, die Korrelation zwischen Luminanz- und Chrominanz-Kanäle unabhängig von der Farbdarstellung zu verbessern.
Diese Korrelation kann die Interpolation von niedrig aufgelösten Chrominanzwerten, unter Verwendung von Detailinformationen aus der Luminanzkomponente in höherer Auflösung extrahiert zu unterstützen genutzt werden.
Das heisst, den signifikanten Verlust von Hochfrequenzdaten im Downsampling nachfolgenden signifikant durch die Verwendung von Algorithmen zu verringert.
Das war auch die Grundidee von mach_gh4.
Die Bilddaten Rekonstruktion erfordert upsampling der Chrominanz-Komponenten zum 4: 4: 4-Auflösung vor Umwandlung in den RGB-Farbraum.
Der Prozess der Unterabtastungs beinhaltet gewöhnlich linear Antialiasing Vorfilterung, durch ein entsprechendes Tiefpaß-FIR-Filter.
In ähnlicher Weise wird der Prozess des Wiederaufbaus auf der Grundlage der FIR-Filter als Interpolator verwendet.
Während Dämpfung von Aliasing-Komponenten bietet, stellt Tiefpaßfilterung Farbartefakte in Form von Unschärfen und ringing.
Solche Effekte sind nicht besonders störend in natürlichen Szene und glatten Inhalten, sind aber sichtbar bei scharfen Kanten und Bilder mit künstlichen Inhalt (Computergrafik) und sorgen dafür, dass Key-Verfahren nicht einwandfrei funktionieren.
Es gibt zahlreiche Versuche in der Literatur die Qualität von Bildern nach Chrominanz subsampling zu verbessern.
Dumitras und Kossentini [University of British Columbia] haben einen alternativen Ansatz zur Unterabtastung zur Herstellung nichtlinearen Operators basierend auf neuronalen Vorwärtsnetzes entworfen.
Eine neuronales-Netzwerk-Technik mit adaptivem Lernen ​​wurde auch von
Qiu und Schaefer [1999] zur Rekonstruion regelmäßig unterabgetastete Chrominanz-Komponenten eingesetzt.
Dieser zweite Ansatz nutzt eine binäre Kanteninformationen aus Luminanz extrahiert, um das neuronale Netz zu führen, das zuvor trainiert wurde, natürlicher Szene zu interpolieren.
Anstelle einer komplexen neuronalen Netzwerkverarbeitung, verwenden Wissenschaftler der "Poznan University of Technology" eine sehr einfache lineare Interpolation anhand von 4 am nearest Samples mit adaptiver Einstellung der jeweiligen Gewichtungen.
Adaptives Filtern ermöglicht, zumindest teilweise die fehlenden Hochfrequenzinhalt zu rekonstruieren, die im Unterabtastungsprozess verloren gegangen sind, wodurch die Herstellung weniger verzerrt und Schärfe dazugewonnen wird.
Hierbei handelt es sich um Bild-Enhancement, nicht aber um die Rekonstruktion eines ursprünglichen Bildes.
Es werden also nicht die ursprünglich verloren gegangenen Werte rekonstruiert sondern neue Werte geschätzt, von denen man annimmt, dass sie den ursprünglichen Werten ähneln und einen schärferen Bildeindruck im Chrombereich vermitteln.
Sie greifen dabei auf Studien von Pirsch und Stenger über das "Statistical analysis and coding of colour video Signals" , Limb und Rubinstein, und Wan und Kuo zurück.
Diese Arbeiten deuten darauf hin, dass es eine starke Korrelation zwischen den Farbkomponenten, vor allem in der nicht RGB-Umgebung gibt, wie beispielsweise YCBCR, die eine bedeutende Energieverdichtung gegenüber RGB bietet.
Mit anderen Worten, der Großteil der Signalenergie liegt in der Luminanzkomponente, während die Chrominanz-Komponenten durch schmale Bandbreite begrenzt sind.
Abel, Bhaskaran und Lee berechnet in ihrer Ausarbeitung "Colour image cod- ing using an orthogonal decomposition" die Kreuzkorrelation zwischen Luminanz und Chrominanz-Komponenten und kommen eben zu diesem Schluss, dass eine signifikante Energieverdichtung im Vergleich zu RGB, in der Luminanz-Chrominanz-Darstellung eine noch starke Korrelation zwischen den Komponenten besteht.
Die Untersuchung der statistischen Abhängigkeiten zwischen Luminanz- und Chrominanzkomponenten zeigen, dass die Abhängigkeit erster Ordnung nicht sonderlich von einer RGB-Farbraum-Transformation + Chrominanz auf Helligkeit, abweicht.
Er belegt das in seiner Studie mit den Histogrammen und gibt die Verbesserung gegenüber der Unterabtastung mit 20% - 70% an da die Werte unterschiedlich stark korreliert sind.
Keine der Studien stellt eine funktionierend Reproduktion eines 4:2:0 Bildes zu 4:4:4 in Aussicht.
Alle Methoden basieren auf Enhancementalgorithmen, also einer Bildnachbearbeitung und Schätzung der Werte.
Dabei werden teilweise auch "unechte" Werte, die erst durch die Unterabtastung entstanden sind, nicht beseitigt, sondern als Vorgabewerte weiter verarbeitet. (berühmte "gelbe" Linie, dessen Farbe schnurz egal ist, @domin)
Weil Bilder instationären Signale sind und die Korrelation zwischen ihren Farbkomponenten ieher eine lokale Eigenschaft als eine globale Eigenschaft sind, ist linear Entkorrelation durch eine statischen (nicht-adaptiven) Farbraum -Transformation, nicht in der Lage alle statistischen Abhängigkeiten zwischen den Komponenten zu entfernen.
Experimentelle Überprüfung der vorgeschlagenen Interpolationsmethode ermöglicht seine Leistung zu herkömmlichen Interpolation unter Verwendung von Standard-FIR-Filter zu vergleichen.
Für die Zwecke dieses Tests wurden mehrere Farbbilder von RGB 4:4:4 umgewandelt nach YCBCR das so die volle 4: 4: 4-Auflösung enthielt und anschließend unterabgetastet auf 4: 2: 0 Auflösung.
Die unterabgetasteten Bilder wurden getrennt interpoliert zurück nach 4: 4: 4, die vorgeschlagene adaptive Interpolation und Standard-lineare Interpolation mit FIR-Filter.
Diese rekonstruierten Bilder wurden mit dem ursprünglichen 4: 4: 4 Bild verglichen.
Die Interpolationstechnik verursachte Rekonstruktionsfehler von 33,6 bis 43,7 db.
Die Leuchtdichte in den Bildern war konstant und gleich, während die Farbsättigung größe lokale Fehler aufwies.
Mit andern Worten ... es geht nicht und wenn sich überhaupt eine Verbesserung einstellt, dann nur mit Softwareaufwand, der ganz sicher nicht in jedem x-beliebigen NLE steckt und wenn, dann auch nur, wenn die Kamera bereits 4:4:4 raus tut.
Wer die Aufsätze nachlesen will ... ich suche gern die Links raus, lassen sich aber auch easy googeln.