cantsin hat geschrieben:
Du scheinst die Funktionsweise einer Raw-Kamera irgendwie nicht ganz verstanden zu haben....
...Halbwissen macht anscheinend nicht nur halbstark sondern auch sehr selbstbewußt ;-)...
cantsin hat geschrieben:"Color science" bezieht sich doch auf die Übersetzung der Raw-Bayer-Sensordaten in ein RGB-Bild btw. auf die JPEG/MPEG-Engine einer Kamera. Mit BM-Kameras findet das in Software statt, nicht in der Kamera. Wenn man akkurate/realistische Farben will, filmt einen Color Chart und verwendet den automatischen Color Chart-Farbabgleich in Resolve.
Ist immer wieder amüsant hier reinzugucken und von Dingen zu lesen die Leute erklären die sie selbst nicht hinreichend verstanden haben.
Bei einigen ist hier wieder Tag der offenen Tür in deren Luftschlössern.
Zusammengefasst wird hier behauptet, dass sich eine RAW Kamera auf jede Farbwiedergabe verbiegen lässt die möglich ist - ok, maybe to much - sich zumindest dahin skalieren lässt was "andere" Kameras abbilden können. Das ist schon mal der Oscar in der Sparte "Science Fiction"!!
"Color Science" soll zudem (nur?!) das sein, was bei der Verarbeitung von RAW-Bayer-Sensordaten passiert - gut, das ist schon mal mehr als das was einem nen Fotohandyverkäufer im "Bin doch nicht blöd Markt" erzählen kann.
Sorry, aber wer austeilt muss auch die eigene Backe hinhalten, aber da hier einige die Funktionsweise einer "RAW-Kamera" anscheinend nicht ganz verstanden zu haben scheinen mal ein paar weitere Einblicke.
Wie erkennt eine Kamera überhaupt Farben?! Ganz einfach, durch Farbfiltern vor den einzelnen Senseln, weiß doch jeder. Schon mal nen Start, aber was hängt noch alles damit zusammen? Mein Siliziumsensel auf dem Sensor, verhält der sich linear bzgl. der einfallenden Wellenlänge des Lichtes?! Leider nein, das Verhalten ist selbst bereits abhängig von der einfallenden Wellenlänge, zudem auch abhängig von der Eindringtiefe ins Silizium (ggf. mal nachlesen wie ein Foveon Sensor "funktioniert")!
Ok, um das nichtlineare Verhalten des Siliziums schummeln wir uns mal rum, wird keiner merken, jetzt mache ich meine Filter rot, grün und blau (oder cyan, magenta und gelb wie es Nikon tatsächlich mal gemacht hat). Aber wie rot, grün und blau denn nun, und mit welcher Dichte?! Müssen sich die Filter ggf. spektral überlagern und wenn ja wie weit und mit welcher Filtersteilheit passiert das am besten und wie kriege ich meinen Farbfilter überhaupt dazu eine Filtersteilheit aufzuweisen? Kann ich mit R,G und B Filtern denn dann eigentlich jede Farbe, na sagen wir mal "sichtbare" Farbe differenzieren??? Leider nein, an dieses Vorhaben käme zumindest ein spektral abtastend arbeitendes System (Beugungsgitter, Diodenzeile...) nah dran, sowas ist kombiniert in einer Zeilen- und Spaltenmatrix als Bildsensor aber bis heute nicht bekannt, hätte zudem auch andere Nachteile.
Jetzt haben wir unsere Farbfilter irgendwie zusammengewürfelt und auch ne Menge getestet und optimiert (bei Wikipedia gab´s leider kein "Patentrezept", die ganzen Professoren erzählen auch alle was etwas anderes), müssen jetzt irgendwie aber noch 15 Blenden zu nem 12 bit A/D Wandler überführen (zufällig so zu finden bei Bastel Murks Design). Wie geht dat dann?! Dazu hatte wir hier vor kurzem ebenfalls eine Diskussion, kurzum -> nichtlineare Verstärkung. Spätestens hier sollte klar werden dass "RAW" nicht wirklich "RAW" ist.
Jetzt haben wir´s aber geschafft, unsere eingefallenen Wellenlängen sind digitalisiert - Mist, jetzt müsssen wir noch ein Demosaicing/Debayering vornehmen. Da gibt´s jetzt einige verschiedene Wege bzw. Algorithmen die zum einen die Lumaauflösung, zum anderen die Chromaauflösung und zum Dritten die Farbgenauigkeit, zumindest die theoretisch noch übrig ist, begünstigen (wobei man dabei noch mehr verbasteln kann).
Welche Algorithmen dazu kann ich denn nun in "Resolve" auswählen, welche kommt mir zugute, was "will" ich überhaupt?!?! Wie gut macht BMD das eigentlich, gibt´s alternative RAW-Konverter???
Anders und sicher für mehr Leute nachvollziehbar, warum erzeugen die verschiedenen RAW Converter für meine Stillkamera alle sichtbar unterschiedliche Ergebnisse, besonders bei den Farben und deren Übergängen!?!
Warum gibt es seit jeher die Streiterei, u.A. im Canon oder Nikonlager, dass die Farben der eigenen Kamera, trotz gleichem Converter und "Erzeugung eines Profils mit einem Testchart", "besser" sind?!
Ist doch RAW, ALLES muss gehen ;-)!! Warum kriegt man aus einem DJI Phantom 3 Pro RAW Bild nicht genau so eine Qualität wie aus einem Nikon D4/5 RAW Bild?! Warum sehen Nikon D750 und Sony a7 Bilder trotz "gleicher" Sensorgröße und Auflösung doch anders aus, trotz RAW?!?! Warum kriege ich die nicht "gematched"?!
Für alle die bisher zumindest noch die Rücklichter sehen noch mal den 7. Gang durchgeladen: Was passiert alles wenn ihr doch mal als perfekte Ausgangssituation "korrekte" Farben haben wollt und die Kamera mit einem Testchart "kalibriert"?! Kurzum, das kann bei einem "Colorimeter" nur noch schlimmer in die Hose gehen als es das bei einer Drucker/Papierkalibrierung mit einem Spektralphotometer schon passiert. Metamerie (nachlesen!!) kriegt ihr damit NIE auch nur annähernd in den Griff, selbst wenn ihr unter gleichem Aufnahmelicht Kamera A mit gleicher Software wie Kamera B "kalibrieren" würdet sähe das am Ende anders aus, Farbstoffe reagieren bzw. reflektieren verschiedene, einfallende Spektren (Licht) u.U. unterschiedlich, diese werden dann allein schon von ebenfalls unterschiedlichen Farbfiltern verschieden transmittiert.
Was ist mit UV Licht welches ggf. auf das Testchart fällt (Sonne) und meinem Auge sagt, "Beige ist Weiß" - meine Kamera das aber durch UV Filter vor dem Sensor bereits anders sieht?!
Ihr könnt alle drehen und graden so viel ihr wollt und sicherlich kommt auch was ansprechendes raus was einer Anzahl Betrachter gefällt, trotz 3D-LUTs könnt ihr aber auch mit beliebigem Aufwand nicht alles erzeugen oder idealisieren.
RAW gibt ganz sicher mehr Spielraum als konventionelle Lösungen (Gammas oder ganze Profile), trotzdem haben die Hersteller bereits einige Weichen gestellt die nicht umfahren werden können, es gibt in jedem "3 Kanal Sensor" (oder Colorimeter) spektrale "Definitionslücken" bzw. Bereiche, die nicht eindeutig wiederhergestellt werden können.
Das alles stellt nur einen Ausschnitt aus der "Color Science" dar, in Wirklichkeit ist das ne halbe Raketenwissenschaft die man mit den technisch verfügbaren Mitteln nur eingeschränkt abbilden und nur definiert, nicht universell abbilden kann, RAW hin oder her!!!
Am Ende zählt neben "Resolve" ne Menge Erfahrung und Optimierung der Hersteller, die bereits bei der "RAW" Herstellung der Kamera ihr Know How einbringen!