dieser thematik ist wirklich derart komplex, dass man gar nicht weiß, wo man anfangen soll.
ich verspüre ein bisserl bauchweh, wenn man die unterste ebene -- gewissermaßen "echtes RAW" -- sofort mit irgendwelchen photonenzählern oder bayer-pattern-daten in verbindung bringt. beides ist einfach nicht immer der fall. in multi-chip CCD kameras od. diversen telecines gibt es keine debayering, und vereinfachte erklärung zur sensor-funktionsweise, die nicht berücksichtigen, dass es sich dabei nicht ausschließlich nur um einen weitestgehend passiven prozess handeln muss, greifen auch zu kurz. was letzteres betrifft, muss man sich einfach auch vor augen führen, wie weit manche sensoren konfiguriert werden können. das betrifft längst nicht mehr nur globale shutter- oder verstärkungseinstellungen, sondern kann tlw. auch selektive masken und signal ent-/verzerrungsvorgaben betreffen. um ein derartiges resultat dann wieder im sinne des einfachen beschreibungsmodells zu deuten, müsste man gewissermaßen die einstellungsinformationen mit gleicher genauigkeit mitaufzeichen und berücksichtigen. das passiert natürlich nicht. es werden gerade einmal die wichtigsten metadaten in kryptischer und herstellerspezifischer weise an die nachfolgende schritte weitergeleitet. eine gar zu vereinfachte betrachtung, die derartige RAW daten in ein unmittelbares od. passives verhältnis zu optisch-physischen einwirkungen setzt, trifft daher die sache nicht immer vollständig.
natürlich gibt's ein paar unmittelbar daran anschließende verarbeitungsschritte -- debayering, dead pixel handling, highlight reconstruction, sensor specific noise reduction, linearisierung... --, die prinzipel auch später bzw. extern im sinne eines RAW-processings erfolgen können. ganz so einfach und klar kann man sie oft trotzdem nicht immer abtrennen oder von unveränderten rohdaten unterscheiden.
die ebene, die man gewöhnlich mit der weiteren aufbereitung der bilddaten in verbindung bringt, bezieht sich jedenfalls auf lineare helligkeitsrepräsentationen, so wie wie man sie in den vereinfachten betrachtungen gerne mit unmittelbarem sensor response in verbindung bringt. alleine die tatsache, dass es aber auch exotische HDR sensoren gibt, die von haus aus keine lineare opto-elektrische charakteristik besitzen, sondern bereits unmittelbar am sensor in der analogen signalaufbereitung eine logarithmische umwandlung vornehmen, relativiert diesen gemeinplatz.
im wesentlichen spielt es auch keine große rolle, ob daten in linearer oder logarithmischer beziehung zu lichtwerten stehen, da sich beide darstellungen problemlos ineinander übersetzen lassen, wenn man sie nur mit ausreichender genauigkeit behandelt. genau das will man aber bekanntlich in vielen fällen vermeiden. dabei geht es dann vielmehr darum, wie eine möglich nutzbringende verteilung von werten innerhalb einer vorgegebenen darstellungsgenauigkeit erhalten werden kann. in diesem sinne ist die log darstellung dann einfach auch als verlustbehaftete kompression zu verstehen.
die verschiedenen formen der datenkompression würde ich als den entscheidendsten punkt herausheben, wenn man wirklich treffende unterscheidungen diskutieren will. ich würde es sogar auf verlustbehaftete kompressionsvarianten einschränken, da verschiedene andere kunstgriffe, die mit einfachen technischen mitteln einen vollständig reversiblen effizienteren datentransport erlauben, nicht wirklich ins gewicht fallen. wenn aber dagegen wavelet basierende kompression zum einsatz kommen, man aber immer noch von RAW-daten spricht, erscheint mir das im hinblick auf die tatsächliche rekonstruierbarkeit der ausgangsdaten fast noch weniger angebracht, als der verlust an zwischenwerten in der angesprochenen log-darstellung von begrenzter auflösungsgenauigkeit.
ein punkt, wo ich in diesem zusammenhang WoWu ausdrücklich widersprechen möchte:
WoWu hat geschrieben:Spätestens dann wird man auch sehn, dass der ACES Workflow, sofern er von den Kameraherstellern unterstützt wird und und nicht aus einem externen Signal gebastelt wird, irgendwo dazwischen [d.h. zwischen RAW und log] liegt.
meiner ansicht nach hat ACES mit der rohdatenverarbeitung überhaupt nichts am hut!
die ebene, auf der ACES aufbaut, ist behandlundng von bilddaten innerhalb eines
scene referred linear light models. dass dabei tlw. auch log darstellung (speziell ingest-seitig) zur anwendfung kommen kann, spielt hier keine große rolle, weil durchgängig sehr hohe berechnungsgenauigkeit genutzt wird, und damit, wie oben bereits angesprochen, kein nennenswerter unterschied zwischen lin. und log. repräsentation zu erwarten ist. der wirklich paradigmatische gegensatz ist vielmehr in
display referred models, also bspw. den gebräuchlichen rec709 bilddaten, zu sehen. dieser unterschied ist ausgesprochen bedeutsam, wenn man korrekturen und bildmanipulationen vornehmen will, die sich möglichst nah an die physikalischen gesetzte und erscheinung in der natur orientieren -- bspw. eine defocus filter, wo tatsächlich einzelne lichtquellen im bild in galubhafter weise sich so verhalten sollen, wie das auch mit einen realen objektiv in der wirklichkeit der fall wäre. mit rec709 ist das ohne vorhergehende umrechung in derartige mathematische bearbeitungsmodelle nicht möglich. auch für anspruchsvollere nachträgliche farbkorrekturen, kommt man daran fast nicht vorbei. natürlich ist es so, dass die umkehrung von display referred material, mit all seinen einschränkungen und verzerrungen, immer nur höchst ungenügend erfolgen kann. deshalb ist mehr als naheliegend, dass man ACES workflows im regelfall natürlich mit wesentlich unverstümmelteren RAW- oder log-daten zu füttern versucht. trotzdem darf man deshalb nicht gleich voreilig darauf schließen, dass ACES eine unmittelbare naturgesetzliche beziehung im hinblick auf die konkreten physikalischen gegebenheiten der datengewinnung einfordern oder berücksichtigen würde. das ist einfach nicht der fall. es ist vielmehr so, dass nur ein
modell der bearbeitung herangezogen wird, das genauso gut synthetisch generierten CG content mit natürlichen aufnahmen kombinieren lässt, nachdem letztere durch empirisch ermittelte IDTs bzw. kamerainterne linearisierung in eine form gebracht wurden, die sich in die enstprechenden berechnungen fügt.
aber natürlich kann ich mich hier auch irren. in dem fall wäre ich sehr dankbar, wenn mir jemand entsprechende gegenteilige darstellungen in den ACES papieren zeigen könnte.
und zum abschluss noch ein kleiner anekdotischer exkurs:
vor etwa einem jahr haben wir rahmen eines
kleineren symposiums, wo ansonsten eher fragen der filmpublizistik, -geschichte und produktionsbedingungen und filmkunst behandelt wurden, auch einen spannenden vertreter aus dem bereich der kameratechnik und -konstruktion zu gast gehabt. martin reinhard kann man in seiner bedeutung im hintergrund vielfältigster projekte gar nicht lobend genug herausheben. jedenfalls ist mir von seinem damaligen vortrag eine sache wirklich im kopf geblieben. während man nämlich gemeinhin RAW daten von filmkameras eher mit den global players, komplizierten dateiformaten und standards in verbindung bringt, hat er ein wenig über jene
winzige kameraschmiede in wien erzählt, wo sie entsprechende verarbeitungstechniken entwickelt haben, noch bevor cinemaDNG und später auch die blackmagic kameras greifbar wurden. wenn man sich das vor augen führt, und auch die tatsache, wie sehr uns die hersteller noch immer von entsprechendem zugang fernzuhalten versuchen, wird einem ganz anders. aber, wie gesagt, zum glück gibt's immer auch ein paar engagierte einzelkämpfer, die entsprechende ideen bereits längst umsetzten od. für andere entwickeln, lange bevor der mainstream seine aufmerksamkeit darauf lenkt.