hexapilots
Beiträge: 29

Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von hexapilots »

Hi,

ich habe jetzt endlich einen sinnvollen Workflow zwischen Resolve (BMPCC Raw Footage) und Nuke hinbekommen. DNGs als Rec.709 mit Linear Gamma importieren, und dann als EXR Half float wieder raus. Funktioniert perfekt.

Mein Problem: Wie geht das eigentlich? Ich dachte Rec.709 hätte Gamma 2,2. Wie kann ich also Rec.709 mit Linear zusammen wählen? Ich habe hier offensichtlich ein generelles Verständnisproblem...

Außerdem: Ich dachte immer Raw bedeutet automatisch Linear Light, aber das kann ja offensichtlich nicht der Fall sein, denn wie würde die BMPCC dann 13 stops DR in ein 12 Bit RAW file bekommen, wenn nicht durch Log-codierung? Aber wenn die DNGs Log sind, woher weiß der PC das denn?



kundesbanzler
Beiträge: 760

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von kundesbanzler »

Also grundsätzlich hast du schon einen ganz guten Weg gefunden, der auf jeden Fall für das Material der BMPCC funktioniert, für andere evtl. nicht, zb. wenn du gar nicht die Möglichkeit hast, es als linear zu erkennen.

Dass Colorspace und Gamma unabhängig voneinander eingestellt werden können, ist in der Tat etwas widersprüchlich. Betrachte es einfach als Rec709 mit linearisiertem Gamma. Du kannst die exrs auch ohne linearisierung ausspielen und dann in Nuke einen Colorspace von Rec709 nach linear dranhängen, dann ist das Ergebnis visuell identisch. Mathematisch allerdings nicht ganz, Abweichung ist um die 10^-4

Mit welcher Übertragunskurve die Raws gespeichert werden ist evtl. irgendwo dokumentiert evtl. nicht. Die Frage ist, welche Relevanz das für deinen Workflow hat.



hexapilots
Beiträge: 29

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von hexapilots »

Danke für die Erkläreung! Ja die letzte Frage war nur so zum Verständnis, solange es funktioniert wie es soll ist ja gut :D



Peppermintpost
Beiträge: 2535

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von Peppermintpost »

ja willkommen im Club. Genau was du beschreibst ist kein Einzelfall. Die Masse an Menschen steigen da nicht durch, deswegen passieren so viele Fehler in der Post Pipeline.

Dein Problem ist, das du eine Menge unterschiedlicher Dinge die erstmal nichts miteinander zu tun haben, aber ähnlich klingen zusammen in einen Topf schmeisst.

Raw zum Beispiel hat erst einmal nichts mit Lin/Log/Rec/srgb zu tun, es sagt nur, das je nach Kamera mehr oder weniger direkt die Sensor Daten ausgelesen werden, was aber im Detail dann in den meisten Fällen auch nicht wirklich stimmt. Diese Raw Daten kannst du dir auch nicht wirklich als Bild ansehen, auch wenn diverse Programme den Eindruck vermitteln.

Stell dir dein Camera Raw vor wie eine verschlüsselte Email. Ohne den richtigen Schlüssel ist es erst einmal nur Datenmüll. Mit dem richtigen Schlüssel wird der Text sichtbar.
Resolve hat den richtigen Schlüssel für deine BM Camera (und für viele andere Kameras), der Witz ist aber, das es für Kamera Raw in den meisten Fällen verschiedene Schlüssel gibt, und jeder Schlüssel verändet die Farbgebung. Sehr schön kannst du das bei Red Material sehen, die haben über die Jahre immer weiter entwickelt also gibts inzwischen eine ganze Reihe von Schlüsseln (Redgamma, Redcolor), die dann auch noch in Kombination benutzt werden, was eine Vielzahl von Versionen ergibt.
LIN/LOG ist das erstmal alles nicht. Ich kenne mich mit den BM Kameras nicht so gut aus, ich ich glaube da kannst du bei der Aufnahme bestimmt auch sowas einstellen wie Kino oder TV oder sonst etwas. Und diese Einstellung sollte sich dann im Resolve beim Interpretierendeiner Daten auch wieder finden, oder du entscheidest dich bewusst dagegen und nimmst z.B. in einem Farbraum auf und gibst in einem anderen wieder, um einen bestimmten Effekt zu erreichen.

Ähnlich wie bei der Cross Entwicklung von Negativen, die werden bewusst "falsch" entwickelt um einen anderen Farbeffekt zu bekommen.

Das was du im Resolve dann angezeigt bekommst hat immer irgend eine Gamma Kurve drauf, Linear gibts da nie. Es gibt schlicht und ergreifend kein Anzeige Monitor der Linear ist. Eine alte Röhre ist CCIR601, ein Flachheimer ist REC709, ein Computer Monitor sRGB usw. Das sind aber alles Anzeigen die ein "verbogenes" Gamma um 2.2 haben.
Das alles ist auch nicht weiter dramatisch und sollte dich nicht jucken,

komisch wird es dann erst wenn du auf Nuke mit seinem Linear prallst.
Linear ist im Foundy Universum offensichtlich der Begriff für "grösster Schwachsinn auf Gottes Erdboden" und ist offensichtlich den kranken Hirnen von irgend welchen Marketing Fuzzies entsprunegn. Der Eindruck der entstehen soll ist, hier werden Farben Linear verarbeitet. Das werden sie aber IMMER!!!!
Lift, Gain, Offset, Multiply und sogar Gamma sind einfache Mathematische Funktionen, und die sind IMMER, IMMER, IMMER Linear. Es ist vollkommen egal was dein Monitor anzeigt, Gain von 1 auf 2 macht immer deine Highlights doppelt so hell.
Ich selbst Compe in Nuke in 95% der Fälle mit der Monitor Einstellung sRGB weil nunmal fast alles und fast immer auf Computer Monitoren angesehen wird. Ich könnte auch REC709 benutzen, oder irgend einen Custom LUT benutzen, es würde mein Comp nicht beeinflussen, worauf ich bei Nuke penibel achte, ist das das war rein kommt auch 100% dem entspricht was raus geht, nicht 95% oder 99% sondern auf den Pixel genau mit 3 Stellen hinter dem Komma, wenn du das ebenfalls so machst, dann geht dir dieses ganze LIN/LOG/LUT sehr schnell da vorbei wo keine Sonne scheint.

Ich hoffe das hilft dir ein wenig.
-------------------------------------------------------
leave the gun take the cannoli
-------------------------------------------------------
www.movie-grinder.com



TheBubble
Beiträge: 1910

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von TheBubble »

hexapilots hat geschrieben:Mein Problem: Wie geht das eigentlich? Ich dachte Rec.709 hätte Gamma 2,2. Wie kann ich also Rec.709 mit Linear zusammen wählen? Ich habe hier offensichtlich ein generelles Verständnisproblem...
Rec.709 beschreibt eine Vielzahl von Dingen. Insbesondere:

- Die Empfehling legt den Farbraum durch die Wahl der Grundfarben fest (die gleichen wie für sRGB, daher die gute Kompatibilität)-

- Es wird eine stückweise Übertragungsfunktion definiert, die ungangssprachlich oft als "Gamma" bezeichnet wird.

- Weitere Festlegungen betreffen Dinge wie z.B. die digitale 8-Bit-Repräsentation mit Schwarzpunkt (16), nominellem Weiss(235) oder eine weitere Umrechnung in eine YCbCr-Darstellung mit Unterabtastung.

Daher könnte man "Rec.709 linear" erstmal als den sRGB/BT.709 Farbraum ohne Übertragungsfunktion interpretieren.
hexapilots hat geschrieben: Außerdem: Ich dachte immer Raw bedeutet automatisch Linear Light
Nein. Auch schon deswegen, weil der Sensor nicht unbedingt ein lineares Verhalten haben muss.



jwd96
Beiträge: 970

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von jwd96 »

TheBubble, vielen Dank für die Erklärungen! Ich bin mir jetzt um einiges Bewusster was ich da eigentlich mache, und froh dass mein Workflow funktioniert wie er es soll :)
Zuletzt geändert von jwd96 am Fr 06 Feb, 2015 16:32, insgesamt 1-mal geändert.



kundesbanzler
Beiträge: 760

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von kundesbanzler »

Sorry peppermint, aber auch hier verzapfst du wieder ziemlichen Unsinn bzw. verstrickst dich in Aussagen, die schon sprachlich inkonsistent sind. Aber dass du es mit Sprache nicht so hast, hatten wir ja schon mal festgestellt.
Peppermintpost hat geschrieben:Der Eindruck der entstehen soll ist, hier werden Farben Linear verarbeitet. Das werden sie aber IMMER!!!!
Lift, Gain, Offset, Multiply und sogar Gamma sind einfache Mathematische Funktionen, und die sind IMMER, IMMER, IMMER Linear.
Dieser Satz macht insofern keinen Sinn, als dass der Begriff linear selbst lediglich eine mathematische Funktion beschreibt. Genauso gut hättest du schreiben können „Addition und Subtraktion sind mathematische Operationen, die sind immer Multiplikation“ das ist auf gleichem Niveau sinnbefreit.

Linear ist bei Nuke und auch bei jedem Renderer lediglich eine Abkürzung von scene-linear und das ist weder Schwachsinn noch Marketing. Es beschreibt die Tatsache, dass alle Werte im internen Repräsentationsmodell physikalische Energiemengen widerspiegeln sollen und deswegen Farb- bzw. Lichtoperationen sich so verhalten wie in der echten Welt und erst ganz am Ende der Berechnungskette eine Gammakorrektur entsprechend deines Monitors draufgelegt wird. Im Gegensatz dazu steht das Modell, dass alle Werte bereits in einer z.B. auf den Monitor abgestimmten Gewichtungsskala vorliegen und auch so verrechnet werden, was zu ungenauen Ergebnissen führt.

Da VFX bzw. CGI-Rendering von seiner Grundidee den Anspruch hat, echte Begebenheiten zu reproduzieren und deswegen auch physikalisch plausibel zu sein, ist das scene-lineare Modell natürlich das der Wahl. Beispiel: du hast zwei Lichter die auf einer Oberfläche an einem bestimmten Punkt jeweils für sich eine Helligkeit produzieren die auf deinem Ausgabegerät als Mittelgrau angekommen, also bei einem 8bit sRGB-Wert von 127 was intern einen linear float Wert von ca. 0,21 bedeutet - unter der gemeinen Annahme, dass 255 in sRGB auf den Wert 1 im float abgebildet wird. Was ist nun, wenn du diese beiden Lichter gleichzeitig anschaltest, ihre Intensität also addierst? Wenn du in einem gammakorrigierten Modell arbeitest kommst du bei einem Wert von 127 + 127 = 254 an, im linearen bei 0,21 + 0,21 = 0,42, was nach Gammakorrektur einem sRGB-Wert von 172 und eben nicht 254 entspricht.

Wobei hier nicht grundsätzlich der eine Wert richtig und der andere falsch ist. Es sind schlicht zwei Modelle, von denen das eine physikalisch plausibler als das andere ist und deswegen für realistische VFX besser geeignet ist.



jwd96
Beiträge: 970

Re: Farbraum und VFX Workflow - ich sehe nicht mehr durch...

Beitrag von jwd96 »

Da VFX bzw. CGI-Rendering von seiner Grundidee den Anspruch hat, echte Begebenheiten zu reproduzieren und deswegen auch physikalisch plausibel zu sein, ist das scene-lineare Modell natürlich das der Wahl.
So wurde mir das auch erklärt, deswegen exportiere ich die plates aus Resolve linear. Es gibt gerade was solche Sachen angeht sicherlich dutzende Wege zum Ziel zu kommen, die alle nicht unbedingt schlechter sind... aber so ist es für mich am logischsten und einfachsten.



 Aktuelle Beiträge [alle Foren]
 
» Flackern bei der Digitalisierung - USB Grabby
von Laboriosa - Fr 13:36
» Davinci Resolve, Color Card und Monitorkalibrierung
von cantsin - Fr 12:55
» Lumix S5II Bildzittern, Pulsieren
von Peter-LS - Fr 12:51
» Videointerview mit dem eigenem KI-Zwilling
von slashCAM - Fr 12:30
» Behind The Boom with Boom Operator Ken Strain | URSA Exclusive
von Alex - Fr 11:52
» Aktuelle rechtliche Situation für AI generierte Inhalte
von Frank Glencairn - Fr 10:57
» Neues Blackmagic DaVinci Resolve 19 bringt über 100 neue Funktionen
von Jörg - Fr 10:29
» Kamera Kaufberatung Budget ca. 2000€
von suchor - Fr 9:47
» LVX AURORA VISTA Primes - Re-Housing und Vintage Tuning jetzt auch in Europa
von slashCAM - Fr 9:39
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Bildlauf - Fr 9:26
» Was hast Du zuletzt gekauft?
von klusterdegenerierung - Fr 7:14
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Frank Glencairn - Fr 7:02
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Darth Schneider - Fr 5:57
» Was schaust Du gerade?
von Frank Glencairn - Fr 5:39
» Linsen (Vintage, Anamorphic & Co.)
von Funless - Do 23:58
» H264 4K Minischneideprogramm Empfehlung? Freeware?
von Videopower - Do 22:31
» VideoGigaGAN - Adobe zeigt generative KI Super Resolution für Bewegtbilder
von r.p.television - Do 21:25
» Hi 8 Videos schärfer machen
von Manschy - Do 20:52
» WORKFLOW: Stockfootage & Resolve
von freezer - Do 19:20
» AMDs Notebook APU Strix Halo - besser als Apples M3 Pro Chip?
von berlin123 - Do 17:34
» AJA: ColorBox 2.1 ACES-Workflow und DRM2 für das DIT-Cart erklärt
von slashCAM - Do 15:48
» Insta360 X4 360°-Action-Kamera filmt in 8K
von -paleface- - Do 14:19
» Ambisonics in Resolve
von Axel - Do 12:09
» MP4 Video verlustfrei exportieren
von Frank Glencairn - Do 10:54
» NAB 2024 Neuigkeiten
von Frank Glencairn - Do 10:23
» Was hörst Du gerade?
von soulbrother - Do 8:55
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von cantsin - Do 8:39
» Messevideo: Atomos NINJA PHONE erklärt
von Frank Glencairn - Do 6:06
» Canon öffnet RF-Mount - Erste Objektive von Sigma (18-50 mm f/2.8) und Tamron (11-20 mm f/2,8)
von cantsin - Mi 20:26
» Tragischer Unfall am Set trotz Filmwaffe: Kamerafrau stirbt nach Schuß von Alec Baldwin
von iasi - Mi 19:53
» SmallRig @ NAB 2024: Potato Jet Stativ, Brandon Li Cage, VB212 Akku
von iasi - Mi 19:46
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von mikroguenni - Mi 18:46
» Avid Liquid 7.2 installieren
von unikator2022 - Mi 18:29
» >Der LED Licht Thread<
von Darth Schneider - Mi 17:06
» Retention Video Editing ist tot
von DeeZiD - Mi 16:56